Salta al contenuto

L'adozione dell'IA è sollecitata con cautela nel giornalismo: il gruppo di esperti SABEW discute dei benefici, dei rischi e delle considerazioni morali nelle redazioni

Applicazioni dell'IA dimostrate nel lavoro quotidiano del giornalismo, con l'obiettivo di etiche pratiche per potenziare le indagini e le ricerche di contesto.

I professionisti della redazione incoraggiati ad adottare con cautela l'IA: la discussione della...
I professionisti della redazione incoraggiati ad adottare con cautela l'IA: la discussione della SABEW sottolinea il potenziale vantaggi, pericoli e considerazioni etiche nel campo del giornalismo.

L'adozione dell'IA è sollecitata con cautela nel giornalismo: il gruppo di esperti SABEW discute dei benefici, dei rischi e delle considerazioni morali nelle redazioni

In un panel organizzato dalla Society for Advancing Business Editing and Writing (SABEW) alla fine di giugno, un gruppo di giornalisti stimati ha discusso delle implicazioni etiche nell'utilizzo degli strumenti AI nel giornalismo. Il panel includeva Kylie Robison (corrispondente senior di Wired), Ben Welsh (redattore di applicazioni news di Reuters) e Greg Saitz (redattore delle indagini di FT Specialist US).

La discussione si è concentrata sui potenziali rischi dell'utilizzo degli strumenti AI con informazioni fonti importanti. Kylie Robison ha condiviso i suoi risultati su ChatGPT, rivelando che stava estraendo citazioni che non esistevano quando l'ha testato con centinaia di pagine di documenti su una causa legale che accusava Meta di violazione del copyright dei suoi modelli linguistici di grandi dimensioni (LLM).

I partecipanti hanno consigliato di non utilizzare strumenti AI con informazioni sensibili o classificate a causa di preoccupazioni per la privacy e l'etica della redazione. Ben Welsh, ad esempio, ha utilizzato uno strumento AI per una ricerca approfondita su una persona per un articolo, trovando informazioni sul web e fornendo una bibliografia. Tuttavia, ha sottolineato l'importanza di essere consapevoli delle domande inserite nell'strumento, poiché l'strumento è un computer, non un essere umano o una fonte affidabile.

Mentre la chat può essere resa anonima, può ancora essere a rischio di essere utilizzata per testare il comportamento del modello e quanto buone siano le risposte. Sviluppare la formula perfetta per gli strumenti AI può essere difficile, ma attraverso tentativi ed errori, è più facile identificare una formula efficace per ottenere le informazioni desiderate.

Lo strumento di ricerca approfondita, disponibile per entrambi Google Gemini e ChatGPT, può richiedere più tempo per recuperare e rivedere le informazioni rispetto ai rapporti più brevi e meno dettagliati. Robison incoraggia i giornalisti a rivedere le fonti e le informazioni fornite dagli strumenti AI per rimanere etici e assicurarsi che i fatti abbiano prove a supporto.

Sviluppare la fiducia dovrebbe essere una priorità assoluta per i giornalisti quando si utilizzano gli strumenti AI. È importante che i reporter siano onesti con i loro editori sull'utilizzo dell'AI, inclusa la volontà di utilizzarla e avere una conversazione al riguardo. In Reuters, c'è una politica chiara secondo cui l'utilizzo dell'AI deve essere dichiarato e gli strumenti AI non possono essere utilizzati con la fotografia.

I dati della chat resi anonimi possono ancora essere a rischio di riemergere e potenzialmente danneggiare la reputazione dell'azienda o del giornalista. La comunicazione con l'utilizzo dell'AI è importante non solo con i lettori, ma anche all'interno della redazione.

Il panel ha concluso che, sebbene gli strumenti AI possano aiutare i giornalisti a condensare il loro lavoro, acquisire conoscenze di base e

Leggi anche:

Più recente