Home » Blog » Giornalismo » Come rendere la tua redazione a prova di futuro con l’intelligenza artificiale

Come rendere la tua redazione a prova di futuro con l’intelligenza artificiale

Intelligenza artificiale per giornalisti

Le redazioni utilizzano da anni l’intelligenza artificiale per svolgere attività come l’automazione, la trascrizione o la personalizzazione dei contenuti. Ma è l’evento dell’AI generativa come ChatGPT, che ha riacceso la conversazione su opportunità, rischi ed etica. L’AI generativa interromperà il modo in cui viene prodotto il giornalismo. Piuttosto che desiderarlo i giornalisti devono capire meglio come possono utilizzare questa tecnologia a proprio vantaggio e contrastare le minacce che pone.

Per aiutare la tua redazione a prepararsi, FT Strategies, un braccio di consulenza del Financial Times, ha tenuto un webinarJournalism.co.uk ti offre i punti salienti di George Montagu, senior manager e head of insights di FT Strategies, che ha parlato all’evento.

Il problema della proprietà intellettuale

I modelli di linguaggio di grandi dimensioni (LLM), come ChatGPT o Bard, dipendono fortemente dall’input di qualità, soprattutto quando l’accuratezza è importante. In altre parole, quando si tratta di addestrare questi modelli, è il caso di “spazzatura dentro, spazzatura fuori”.

Per saperne di più: Otto attività che ChatGPT può svolgere per i giornalisti

Ma ecco il problema: questi modelli sono addestrati su centinaia di migliaia di contenuti di editori come il NYT , il Guardian o il Times . Ciò vale anche per i contenuti dietro il paywall.  Gli editori non hanno ricevuto alcun riconoscimento o compenso per l’utilizzo dei loro contenuti, nonostante abbiano investito ingenti somme nella sua produzione.

Se vuoi vedere il bicchiere mezzo pieno, questa è un’opportunità per le organizzazioni dei media di evidenziare il valore che stanno creando e cercare di trovare modi per richiedere una sorta di pagamento dai creatori di modelli di intelligenza artificiale generativa. Per coloro che vedono il bicchiere mezzo vuoto, gli editori devono urgentemente ridefinire il modo in cui proteggono la loro proprietà intellettuale e affrontare questa situazione che non se ne andrà. I principi di Digital Content Next sono un buon modo per iniziare.

Migliora l’esperienza dell’utente

Per anni gli editori sono passati da semplici fornitori di contenuti a piattaforme che offrono agli utenti una certa libertà nel modo in cui consumano le notizie. Questo non è solo il fornitore di notizie: Spotify, ad esempio, ha lanciato una funzione di personalizzazione AI DJ che porta l’utente dal semplice ascolto delle canzoni all’utilizzo attivo di uno strumento.

Gli editori potrebbero eventualmente vedere il loro contenuto separato dal formato, che sarà deciso dall’utente. Ad esempio, potrebbero decidere il tono di un articolo, la sua lunghezza o complessità.

Ma questa non è necessariamente una buona notizia. L’intelligenza artificiale generativa potrebbe portare ancora più utenti a ricevere le loro notizie attraverso porte secondarie invece di andare direttamente agli editori. Ciò potrebbe accadere attraverso i riepiloghi di ChatGPT o Bard e, in tal caso, un minor numero di utenti diretti influirà inevitabilmente sui profitti degli editori e sulle entrate pubblicitarie.

Per evitare ciò, i fornitori di notizie devono dare la priorità alle relazioni dirette con il loro pubblico e assicurarsi che diventino una destinazione per i loro utenti, invece che semplici produttori di contenuti.

Premio sulla fiducia

Ci sono stati alcuni casi di errori di alto profilo causati dall’IA generativa, giustamente chiamati “allucinazioni”, in cui lo strumento crea qualcosa e un sito Web di notizie lo pubblica senza controllo.

I timori che l’IA generativa inonderà Internet di contenuti di bassa qualità sono fondati e sta già accadendo. Sebbene deprimente, questa è anche un’opportunità per i marchi di notizie di diventare una destinazione di contenuti affidabili e di qualità a cui il pubblico può rivolgersi per dare un senso al mondo.

Non ci si può nascondere dal fatto che il ruolo dei mezzi di informazione sta cambiando dall’aiutare le persone a rimanere aggiornate su ciò che sta accadendo nel mondo, a fornire contenuti di alta qualità affidabili e verificati da persone che aiutano le persone a prendere decisioni nella loro quotidianità vite.

Ma questo torrente di spazzatura generato dall’AI molto probabilmente ridurrà la qualità e danneggerà ulteriormente il coinvolgimento del pubblico. Quindi dobbiamo riconsiderare ciò che è veramente prezioso per i nostri lettori e spettatori e raddoppiare i contenuti di qualità, affidabili e originali che ci aiuteranno a differenziarci dai contenuti generati dall’intelligenza artificiale.

Fonte journalism.co.uk

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto