Frazioni generate dall'IA che si diffondono dopo il terremoto in Afghanistan
A seguito del devastante terremoto in Afghanistan che ha causato almeno 1,400 morti e distrutto oltre 5.000 case, diversi video virali stanno circolando sui social media, apparentemente mostrano i danni del disastro. Tuttavia, un esame più attento rivela che questi video non sono ciò che sembrano.
Uno dei video virali, condiviso su diverse piattaforme, tra cui TikTok, è in realtà un footage generato da AI. Questo è stato confermato dai nostri fact-checker del sito, che hanno evidenziato diversi indizi ovvi nel video. Ad esempio, l'assenza di volti identificabili, movimenti innaturali e corpi trasportati senza bare o casse sono tutti indicativi di generazione AI.
Il video, della durata di 8 secondi, era originariamente collegato alle inondazioni in Pakistan dell'20 agosto. È importante notare che la massima durata di riprese continue che può essere generata dal tool di generazione testo-video Veo 3 è di circa 8 secondi. Altri modelli di generazione testo-video hanno limiti leggermente più lunghi, ma 8-10 secondi è tipico.
Un altro video virale, che afferma di mostrare i danni del terremoto, è anch'esso lungo 8 secondi. Questo video, che mostra centinaia di corpi portati al loro ultimo riposo, è stato smascherato come falso da diversi siti di fact-checking, tra cui Mimikama.
Le ombre in questi video sono proiettate sullo stesso lato della fonte di luce, un difetto indicativo di generazione AI. Questo, insieme al fatto che le persone nelle immagini sembrano indossare abiti invernali, nonostante il fatto che i locali della zona non siano vestiti in modo invernale, sostiene ulteriormente la conclusione che questi video sono generati da AI.
Il UN stima che il terremoto potrebbe interessare centinaia di migliaia di persone in totale. Di fronte a questa tragedia, è importante essere vigili e verificare le informazioni che riceviamo prima di condividerle. Hany Farid, un informatico dell'Università della California a Berkeley che si specializza in forensica digitale, ha evidenziato che la lunghezza dei video potrebbe essere un indizio per essere generati da AI.
È anche importante notare che diversi media mainstream, tra cui The Indian Express e TRT, sono caduti nell'immagine falsa e l'hanno utilizzata nel loro resoconto sull'Afghanistan. Questo sottolinea l'importanza di fact-checking e di verificare le informazioni prima di pubblicarle.
Il terreno montuoso rende difficili i soccorsi e il terremoto è stato seguito da diversi doposhock. I nostri pensieri sono con il popolo dell'Afghanistan in questo momento difficile e incoraggiamo tutti a essere cauti quando si condividono informazioni sul disastro.
Leggi anche:
- La fondazione dell'industrializzazione in Europa può dipendere dall'elettricità
- L'orologio misterioso Cartier di fascia alta si aspetta di vendere per oltre 6 milioni di dollari all'asta autunnale
- La più importante pubblicazione sportiva portoghese A BOLA fornirà copertura esclusiva per il Summit SBC, promette contenuti sportivi di alta qualità
- Esplorare le prospettive industriali del silicio nell'economia globale!