Salta al contenuto

Sviluppo di tecnologie per l'autenticazione dei contenuti dei media ingannevoli

Coalizione di ricerca internazionale promuove immediati progressi nella tecnologia di identificazione dei deepfake, mettendo in evidenza significative debolezze nei metodi di rilevamento popolari. Uno studio CSIRO-SKKU ha analizzato 16 sistemi di rilevamento di spicco e ha concluso che tutti...

Miglioramento delle Tecnologie di Contrestasi dei Deepfake
Miglioramento delle Tecnologie di Contrestasi dei Deepfake

Sviluppo di tecnologie per l'autenticazione dei contenuti dei media ingannevoli

In un importante sviluppo, un team internazionale di ricercatori, guidato da Le Binh M. dell'agenzia scientifica nazionale australiana CSIRO e Alsharif Abuadbba dell'Università Sungkyunkwan di Seoul (SKKU), ha pubblicato un articolo pionieristico sulla rilevazione dei deepfake. Il documento, intitolato "SoK: Systematizzazione e confronto dei rilevatori di deepfake in un quadro unificato", è stato accettato al IEEE European Symposium on Security and Privacy 2025 e attualmente è disponibile come preprint su arXiv.

Il gruppo di ricerca, che include anche Jiwon Kim, Simon S. Woo, Kristen Moore e Shahroz Tariq (capo tecnico CSIRO), sta sviluppando modelli di rilevazione che integrano audio, testo, immagini e metadati per risultati più affidabili. La collaborazione con l'SKKU ha approfondito la comprensione delle vulnerabilità dei modelli di rilevazione, mentre un gruppo di ricerca dell'Università dell'Illinois a Urbana-Champaign ha indagato le vulnerabilità degli attuali strumenti di rilevazione dei deepfake.

I deepfake, media sintetici generati dall'intelligenza artificiale, stanno diventando sempre più realistici e capaci di diffondere disinformazione. Possono manipolare immagini, video o audio per creare contenuti iperrealistici ma falsi, come i deepfake di faceswap che sostituiscono il volto di una persona con quello di un'altra in un video, o i deepfake di reenactment che trasferiscono le espressioni facciali e i movimenti di una persona sul volto di un'altra in un video, fabbricando discorsi o reazioni che non sono mai avvenuti.

Lo studio ha valutato 16 tra i principali rilevatori e ha scoperto che nessuno era in grado di identificare in modo affidabile i deepfake del mondo reale. I ricercatori hanno sviluppato un quadro di cinque passaggi per valutare gli strumenti di rilevazione in base al tipo di deepfake, al metodo di rilevazione, alla preparazione dei dati, all'addestramento del modello e alla validazione. Hanno identificato 18 fattori che influenzano l'accuratezza nella rilevazione dei deepfake, tra cui l'elaborazione dei dati, l'addestramento del modello e il testing.

Uno dei risultati chiave è stata l'inefficacia del rilevatore ICT (trasformatore coerente con l'identità), addestrato sui volti delle celebrità, nell'identificare i deepfake che coinvolgono persone non celebri. Lo studio sottolinea l'urgenza di soluzioni più adattabili e resistenti per rilevare i deepfake, suggerendo che l'attenzione dovrebbe essere posta sul significato e sul contesto piuttosto che sull'aspetto da solo.

Strategie proattive, come le tecniche di fingerprinting che tracciano le origini dei deepfake, migliorano gli sforzi di rilevazione e mitigazione. Tuttavia, l'aumento rapido dei deepfake, alimentato dalla disponibilità dell'AI generativa, richiede un appello urgente per miglioramenti nelle tecnologie di rilevazione dei deepfake. Il team invita alla collaborazione e all'innovazione per affrontare questa questione pressante e tutelare l'integrità dei media digitali.

Leggi anche:

Più recente