ChatGPT ha reso i riepiloghi dei contenuti un gioco da ragazzi, ma l’accuratezza, il plagio e la privacy dei dati continuano a rappresentare una preoccupazione.
Sommario
Da quando il ChatGPT di OpenAI è esploso sulla scena alla fine del 2022, non sono mancate le voci che definiscono l’intelligenza artificiale e l’intelligenza artificiale generativa in particolare una tecnologia rivoluzionaria. Il settore dei media, in particolare, è alle prese con alcune domande profonde e complesse su cosa potrebbe significare l’intelligenza artificiale generativa (GenAI) per il giornalismo. Anche se sembra sempre meno probabile che l’intelligenza artificiale minacci il lavoro dei giornalisti, come alcuni potrebbero aver temuto, i dirigenti delle notizie si pongono domande, ad esempio, sull’accuratezza delle informazioni, sul plagio e sulla privacy dei dati.
Per avere una panoramica della situazione nel settore, WAN-IFRA ha intervistato tra la fine di aprile e l’inizio di maggio la comunità globale di giornalisti, direttori editoriali e altri professionisti dell’informazione sull’uso degli strumenti di intelligenza artificiale generativa da parte delle loro redazioni. Al sondaggio hanno partecipato 101 partecipanti in tutto il mondo; ecco alcuni punti chiave delle loro risposte.
La metà delle redazioni lavora già con gli strumenti GenAI
Dato che la maggior parte degli strumenti di intelligenza artificiale generativa sono diventati disponibili al pubblico solo pochi mesi fa – al massimo – è piuttosto notevole che quasi la metà (49%) degli intervistati abbia affermato che le loro redazioni utilizzano strumenti come ChatGPT. D’altra parte, poiché la tecnologia è ancora in rapida evoluzione e in modi forse imprevedibili, è comprensibile che molte redazioni si sentano caute al riguardo. Questo potrebbe essere il caso degli intervistati le cui aziende non hanno (ancora) adottato questi strumenti.
Nel complesso, l’atteggiamento nei confronti dell’intelligenza artificiale generativa nel settore è straordinariamente positivo: il 70% dei partecipanti al sondaggio ha affermato di aspettarsi che gli strumenti di intelligenza artificiale generativa siano utili per i propri giornalisti e redazioni. Solo il 2% afferma di non vedere alcun valore nel breve termine, mentre un altro 10% non ne è sicuro. Il 18% ritiene che la tecnologia necessiti di maggiore sviluppo per essere davvero utile.
I riepiloghi dei contenuti sono il caso d’uso più comune
Nonostante ci siano state reazioni un po’ allarmistiche nei confronti di ChatGPT che chiedevano se la tecnologia potesse finire per sostituire i giornalisti, in realtà il numero di redazioni che utilizzano gli strumenti GenAI per la creazione di articoli è relativamente basso. Invece, il caso d’uso principale è la capacità degli strumenti di digerire e condensare le informazioni, ad esempio per riepiloghi ed elenchi puntati, hanno affermato i nostri intervistati. Altri compiti chiave per i quali i giornalisti utilizzano la tecnologia includono ricerca/ricerca semplificata, correzione del testo e miglioramento dei flussi di lavoro.
n futuro, è probabile che i casi d’uso comuni si evolvano, poiché sempre più redazioni cercano modi per fare un uso più ampio della tecnologia e integrarla ulteriormente nelle loro operazioni. I nostri intervistati hanno evidenziato la personalizzazione, la traduzione e un livello più elevato di miglioramenti del flusso di lavoro/efficienza come esempi specifici o aree in cui si aspettano che GenAI sia più utile in futuro .
Poche redazioni dispongono di linee guida per l’utilizzo di GenAI
Esiste un’ampia diffusione di pratiche diverse per quanto riguarda il modo in cui viene controllato l’uso degli strumenti GenAI nelle redazioni. Per ora, la maggior parte degli editori ha un approccio rilassato: quasi la metà dei partecipanti al sondaggio (49%) ha affermato che i propri giornalisti hanno la libertà di utilizzare la tecnologia come meglio credono. Inoltre, il 29% ha affermato di non utilizzare GenAI.
Solo un quinto degli intervistati (20%) ha affermato di avere linee guida da parte del management su quando e come utilizzare gli strumenti GenAI, mentre il 3% ha affermato che l’uso della tecnologia non è consentito nelle loro pubblicazioni. Mentre le redazioni sono alle prese con le numerose e complesse questioni legate alla GenAI, sembra lecito ritenere che sempre più editori stabiliranno politiche specifiche sull’intelligenza artificiale su come utilizzare la tecnologia (o forse ne vieteranno del tutto l’uso).
Imprecisioni e plagio sono le principali preoccupazioni delle redazioni
Dato che abbiamo visto alcuni casi in cui un organo di informazione ha pubblicato contenuti creati con l’aiuto di strumenti di intelligenza artificiale e che in seguito si sono rivelati falsi o imprecisi, potrebbe non sorprendere che l’inesattezza delle informazioni/qualità dei contenuti sia la principale preoccupazione tra gli editori quando si tratta di contenuti generati dall’intelligenza artificiale. L’85% degli intervistati ha evidenziato questo come un problema specifico relativo alla GenAI.
Un’altra preoccupazione degli editori riguarda le questioni relative al plagio/violazione del copyright, seguite dalle questioni relative alla protezione dei dati e alla privacy. Sembra probabile che la mancanza di linee guida chiare (vedi punto precedente) non faccia altro che amplificare queste incertezze e che lo sviluppo di politiche sull’IA dovrebbe contribuire ad alleviarle, insieme alla formazione del personale e alla comunicazione aperta sull’uso responsabile degli strumenti GenAI.
Fonte journalism.co.uk