È noto che l’intelligenza artificiale soffre di problemi radicati quando si tratta di diversità: gli algoritmi di apprendimento automatico sono addestrati su dati storici che possono incorporare discriminazioni istituzionali. La PNL e l’AI generativa soffrono degli stessi problemi e l’industria stessa deve affrontare una sfida legata alla diversità .
È sorprendente, quindi, che la discussione emergente nel settore sull’intelligenza artificiale generativa finora non sia riuscita ad affrontare questi problemi: il comunicato stampa del regolatore britannico Ofcom all’inizio di questo mese non ne fa menzione; né lo fanno le nuove linee guida della US Radio Television Digital News Association. Le lezioni di BuzzFeed da e la discussione sul suo utilizzo della tecnologia non toccano l’argomento; CNET, nonostante sia scottato dalla tecnologia, non menziona i pregiudizi nella sua politica.
Wired menziona i pregiudizi nella sua dichiarazione sull’uso dell’intelligenza artificiale generativa , ma solo in riferimento alla generazione di contenuti, non nelle sezioni sulla generazione di idee o sulla ricerca. La cosa più vicina che ho visto arrivare da un’organizzazione è la menzione dei principi recentemente pubblicati dal Guardian sulla “protezione dai pregiudizi” in termini generali. Date un’occhiata alle principali preoccupazioni sull’intelligenza artificiale generativa identificate in un sondaggio di settore condotto da WAN-IFRA e non vedrete che i pregiudizi verranno menzionati.
Sei principi per l’uso giornalistico responsabile dell’intelligenza artificiale generativa e della diversità e inclusione
I sei principi per l’uso giornalistico responsabile dell’intelligenza artificiale generativa e della diversità e inclusione mirano a fornire un punto di partenza per discutere su come possiamo garantire che le nuove pratiche e flussi di lavoro che coinvolgono l’intelligenza artificiale generativa non ripetano gli errori della storia, oltre a garantire che i giornalisti abbiano alcuni consigli pratici su come iniziare a sperimentare gli strumenti generativi.
I principi sono:
- Sii consapevole dei pregiudizi intrinseci: è facile dimenticare che l’intelligenza artificiale generativa è intrinsecamente parziale, come qualsiasi fonte. Dobbiamo assicurarci che i giornalisti inizino da questo, il che porta a…
- Incorpora la diversità nei tuoi suggerimenti: una buona scrittura dei suggerimenti è essenziale per un uso efficace dell’intelligenza artificiale e, proprio come i bravi giornalisti sanno come porre buone domande, dovrebbero anche sapere come scrivere buoni suggerimenti, e ciò include garantire che la diversità sia attivamente promossa
- Riconoscere l’importanza del materiale originale e dei riferimenti: questa è un’altra abilità giornalistica familiare: dovremmo sempre sapere da dove provengono le informazioni e garantire che tali fonti non rappresentino solo le voci più forti. Ad esempio, alla domanda “Chi sono i venti attori più importanti del 20° secolo?” ChatGPT non ha nominato un solo attore di colore; quando è stato chiesto di Winston Churchill o dei padri fondatori americani, non ha incluso importanti fatti critici. Vorremmo respingere queste risposte da parte degli esseri umani, quindi è importante fare lo stesso con l’intelligenza artificiale generativa.
- Segnala errori e pregiudizi: l’intelligenza artificiale sta ancora imparando: è importante capire come il tuo utilizzo si riflette in questo.
- Il testo generato da GAI dovrebbe essere visto con scetticismo giornalistico: ancora una volta, qui stiamo solo enfatizzando un tratto giornalistico fondamentale (direi che la capacità dell’intelligenza artificiale generativa di generare testo si rivelerà una delle sue applicazioni meno utili)
- Sii trasparente dove opportuno: la gamma di applicazioni dell’intelligenza artificiale è così ampia che è difficile dire che dovresti essere sempre trasparente, ma dovrebbe certamente essere una considerazione.
Fonte onlinejournalismblog