Salta al contenuto

Falsità dell'attore di "General Hospital" deepfake: professionista spiega i segni per riconoscere i video di IA fraudolenti

Indagine di 7 On Your Side sul raggiro video AI che coinvolge l'attore famoso Steve Burton della serie 'General Hospital'.

Attore falso 'General Hospital': esperto spiega i metodi per identificare i tratti falsi AI
Attore falso 'General Hospital': esperto spiega i metodi per identificare i tratti falsi AI

Falsità dell'attore di "General Hospital" deepfake: professionista spiega i segni per riconoscere i video di IA fraudolenti

Nell'era digitale, in cui la tecnologia avanza a un ritmo senza precedenti, è emersa una nuova minaccia: le truffe deepfake. Queste sofisticate illusioni, che utilizzano l'intelligenza artificiale (AI) per creare video e audio convincenti, rappresentano una crescente preoccupazione per le autorità e per i singoli individui.

Quest'anno, la California ha introdotto nuove leggi per contrastare la condotta illecita legata all'AI. Tuttavia, come sottolinea Kathleen Grace, chief strategy officer di Vermillio, il mondo online è un territorio vasto e imprevedibile. Qualsiasi cosa sia online può essere presa e utilizzata per truffe.

Un esempio di questo è avvenuto a South Los Angeles, dove una donna è stata truffata di oltre 80.000 dollari utilizzando un video deepfake che ritraeva Steve Burton, un attore della soap opera ABC "General Hospital". Il video, creato utilizzando software AI economici, ha abilmente clonato la voce e l'immagine di Burton.

La facilità con cui questi deepfake possono essere prodotti è allarmante. Secondo Grace, il video deepfake utilizzato nella truffa è stato probabilmente creato in circa 15 minuti. Questo rapido tempo di produzione sottolinea l'urgenza di creare i necessari controlli per proteggersi da queste truffe. Tuttavia, ci vorrà del tempo per istituire queste misure di sicurezza.

I truffatori non sono limitati dai confini geografici, rendendo difficile l'applicazione delle leggi. Loro operano fuori dal paese, sfruttando l'accessibilità e l'economicità della tecnologia AI. Ciò ha portato a un aumento delle truffe deepfake, con i truffatori che utilizzano queste illusioni per indurre le persone a credere che i loro cari siano in difficoltà e abbiano bisogno di denaro.

Anche i teenager stanno utilizzando i deepfake per il cyberbullismo, mentre i truffatori li utilizzano per ingannare le persone. Questa illusione digitale è un chiaro segno che ci troviamo in un'epoca in cui molte cose non saranno reali e non ci saranno molti controlli per prevenire questo tipo di truffe.

Tuttavia, c'è una spinta bipartisan al Congresso per far sì che il contenuto AI sia chiaramente segnalato sui social media. Questo passo, se coronato da successo, potrebbe rappresentare un primo passo per contrastare le truffe deepfake.

Nel frattempo, è importante restare vigili. Fate attenzione ai messaggi o alle richieste non richiesti, soprattutto quelli che riguardano transazioni finanziarie. Se qualcuno nei vostri DM cerca di spostare la conversazione su un'app di messaggistica

Leggi anche:

Più recente