Salta al contenuto

Secondo i recenti avvertimenti dei ricercatori, il sistema di intelligenza artificiale Gemini è stato violato attraverso inviti per calendari dannosi.

La ricerca ha rilevato che l'inserimento di inviti in un calendario ha il potenziale per innescare vere invasioni attraverso l'assistente di Google Gemini.

Sistema AI Gemini Subisce Violazione Tramite Invitazioni Riguardo al Calendario, Esperti Emettono...
Sistema AI Gemini Subisce Violazione Tramite Invitazioni Riguardo al Calendario, Esperti Emettono Allarmi

Secondo i recenti avvertimenti dei ricercatori, il sistema di intelligenza artificiale Gemini è stato violato attraverso inviti per calendari dannosi.

In uno studio recente intitolato "L'invito è tutto ciò di cui hai bisogno", è stata scoperta una vulnerabilità di sicurezza nell'assistente Google Gemini AI. Questa ricerca getta luce su una crescente preoccupazione riguardo ai possibili abusi degli agenti AI integrati nei sistemi IoT, se gli input avversari non vengono gestiti in modo adeguato.

Lo studio suddivide le minacce in cinque classi. La prima classe, Avvelenamento contestuale a breve termine, consente azioni immediate e uniche che prendono il controllo di una singola sessione. Gli attaccanti possono sfruttare questa vulnerabilità attraverso inviti al calendario, contenenti prompt dannosi. Un esempio di questo è un evento del calendario avvelenato che sfrutta Google Calendar per eseguire azioni fisiche come l'apertura delle finestre intelligenti o l'accensione dei boiler.

La seconda classe, Avvelenamento della memoria a lungo termine, influisce sulle informazioni "Salvate" di Gemini e consente istruzioni persistenti e azioni dannose tra le sessioni. Questa classe rappresenta una minaccia significativa, in grado di violare i principi di riservatezza, integrità e disponibilità (CIA).

La terza classe, Abuso degli strumenti, inganna Gemini per farlo eseguire azioni non autorizzate utilizzando i suoi strumenti integrati. La quarta classe, Richiama automatico dell'agente, consente il movimento laterale tra gli agenti di Gemini sfruttando un agente compromesso per attivare un altro.

Gli attacchi descritti in questa ricerca, noti come Attacchi mirati di promptware, sfruttano la consapevolezza contestuale dell'IA. I risultati dimostrati vanno dalla generazione di contenuti offensivi o spam alla realizzazione di azioni nel mondo reale, come l'apertura delle finestre intelligenti, l'attivazione dei boiler o l'avvio delle chiamate video.

Dopo la divulgazione responsabile, Google ha riconosciuto i risultati e ha implementato le mitigazioni, tra cui sistemi di rilevamento basati sul comportamento e strati di verifica dell'utente per le operazioni sensibili. I ricercatori hanno confermato che questi sforzi hanno notevolmente ridotto la minaccia in tutti i scenari, portando i livelli di rischio al range molto basso-medio.

La guida sull'IA e l'ML nella sicurezza IoT evidenzia il ruolo significativo di questi sistemi nella sicurezza IoT. Tuttavia, la presenza dell'IA nei sistemi IoT potrebbe essere una spada a doppio taglio, che consente la rilevazione delle minacce sofisticate mentre introduce anche nuove superfici di attacco.

Lo studio introduce un framework di Analisi delle minacce e Valutazione del rischio (TARA), che potrebbe essere uno strumento prezioso nella lotta continua contro le minacce per la sicurezza legate all'IA nel campo IoT. Man mano che sempre più dispositivi diventano interconnessi, è fondamentale rimanere vigili e proattivi nella sicurezza delle nostre case e luoghi di lavoro intelligenti.

Leggi anche:

Più recente