Salta al contenuto

Contenuto creato dall'IA: la guida aggiornata di Wikipedia consente ai lettori di identificare gli articoli generati dall'AI

Distinguere tra i contenuti scritti dall'uomo e quelli generati dall'intelligenza artificiale su Wikipedia ora è possibile grazie a una nuova guida pubblicata dai suoi editorialisti.

Guida per identificare i Wikipedia articoli scritti dall'IA rilasciata dagli editori
Guida per identificare i Wikipedia articoli scritti dall'IA rilasciata dagli editori

Contenuto creato dall'IA: la guida aggiornata di Wikipedia consente ai lettori di identificare gli articoli generati dall'AI

Nell'era digitale, la piattaforma enciclopedica Wikipedia si impegna a mantenere la sua reputazione di fonte affidabile di informazioni obiettive, evitando opinioni e linguaggio promozionale. Questo impegno è particolarmente evidente negli sforzi continui per contrastare i contenuti di bassa qualità generati da AI, una sfida emersa con l'avvento dei chatbot AI avanzati.

La comunità di Wikipedia ha fatto un importante passo avanti nel 2023 con la creazione del WikiProject AI Cleanup. Questo progetto è un'iniziativa collaborativa, non il lavoro di una singola persona o istituzione. La Wikimedia Foundation sostiene questo progetto, con un coinvolgimento notevole da parte del cofondatore di Wikipedia Jimmy Wales e del direttore di prodotto della Wikimedia Foundation Marshall Miller in politiche e sorveglianza dei contenuti AI correlati.

Gli editori volontari sono stati in prima linea in questa battaglia, lavorando diligentemente per identificare i contributi scritti da AI dal momento dell'ascesa dei chatbot AI. Uno di questi volontari è Ilyas Lebleu, un editor di Wikipedia con base in Francia. Lebleu è stato fondamentale in questa lotta, sollevando preoccupazioni sull'esigenza di un maggiore scrutinio della scrittura AI.

I chatbot AI spesso presentano stili di scrittura distintivi, come la predilezione per la voce passiva e l'eccessiva dipendenza da certaini fraseggi, come "in sintesi" o "oltre a ciò". Gli editori hanno scoperto che questi contributi generati da AI contengono spesso errori, fonti false e persino persone inventate.

La vigilanza degli editori ha portato alla creazione di una pagina dedicata di Wikipedia, "Segni di scrittura AI", che funge da guida per l'identificazione di potenziali contributi scritti da AI. La pagina elenca segni come luoghi comuni, ricca eredità culturale e duratura legacy, che spesso mancano o sono enfatizzati in modo eccessivo nei contenuti scritti da AI.

I lettori si aspettano che gli articoli di Wikipedia siano scritti da volontari, non da AI. Pertanto, i contributi scritti da AI su Wikipedia non sono in linea con lo stile solito della piattaforma. Con l'avanzamento dell'AI, i segni dei contributi generati da AI sono diventati più sottili, richiedendo una maggiore attenzione per identificare i segnali meno ovvi.

Lebleu, una figura chiave del WikiProject AI Cleanup, non considera la scrittura AI intrinsecamente negativa, ma richiede maggiore attenzione. Egli suggerisce che, se il contenuto generato da AI viene scoperto, i lettori potrebbero rivolgersi a chatbot come ChatGPT invece di Wikipedia.

Per agevolare questa identificazione, gli editori utilizzano una "guida al tatto" per aiutare a identificare i contenuti generati da AI non dichiarati. Questa guida, sviluppata attraverso l'esperienza e l'osservazione collettive, serve come strumento essenziale per mantenere gli alti standard di qualità e affidabilità di Wikipedia.

Nel 2023, Lebleu e altri volontari hanno lanciato il WikiProject AI Cleanup, segnando un importante traguardo nella missione continua di Wikipedia per garantire che la piattaforma rimanga una fonte affidabile di informazioni obiettive. L'impegno della comunità in questo compito sottolinea l'importanza di mantenere l'integrità di Wikipedia di fronte all'avanzamento della tecnologia AI.

Leggi anche:

Più recente