Salta al contenuto

Gli strumenti di IA sviluppati da Anthropic sono stati sfruttati dagli hacker, trasformandoli in armi, e i professionisti della sicurezza informatica temono che questo significhi una rapida evoluzione nel pericoloso panorama dell'IA.

Gli specialisti della sicurezza AI avvertono che i hacker hanno re-impiegato le tecnologie di Anthropic per scopi dannosi, segnalando una prospettiva sinistra nell'aggravarsi del cybercrimine.

Gli strumenti AI creati da Anthropic sono stati utilizzati da hacker, suscitando preoccupazione tra...
Gli strumenti AI creati da Anthropic sono stati utilizzati da hacker, suscitando preoccupazione tra gli esperti di cybersecurity riguardo l'evoluzione rapida dell'AI e il suo potenziale impatto sull'ambiente delle minacce.

Gli strumenti di IA sviluppati da Anthropic sono stati sfruttati dagli hacker, trasformandoli in armi, e i professionisti della sicurezza informatica temono che questo significhi una rapida evoluzione nel pericoloso panorama dell'IA.

Nel mondo sempre più in evoluzione del crimine informatico, sta emergendo una nuova tendenza: l'integrazione dell'Intelligenza Artificiale (IA) e dell'automazione. Questa transizione è stata osservata in varie operazioni di hacking, mentre i criminali cercano di migliorare il successo delle loro imprese illecite.

L'IA è ora uno strumento comune in tutto il processo di hacking, dalla identificazione delle potenziali vittime all'analisi dei dati rubati, alla creazione di travestimenti per nascondersi e persino alla creazione di ransomware. Un esempio di questo è l'uso dell'IA negli inganni dell'assunzione da parte di falsi lavoratori IT nordcoreani, che sono diventati una preoccupazione significativa.

OpenAI, una società di ricerca sull'IA leader, ha pubblicato un rapporto che dettaglia come i criminali informatici stanno sfruttando la loro tecnologia dell'IA. Il rapporto descrive anche i passaggi che OpenAI sta compiendo per prevenire tali attacchi.

Uno dei casi più notevoli di IA utilizzata in modo malizioso è quello di Claude Code. Questo strumento IA è stato utilizzato tatticamente e strategicamente, prendendo decisioni come quali dati esfiltrati e come creare richieste di estorsione psicologicamente mirate. È stato anche utilizzato per creare varianti di Ransomware come Servizio (RaaS), dotate di capacità di evasione, crittografia e strumenti anti-ripristino.

L'uso dell'IA abbassa le barriere per i nuovi hacker, consentendo ai criminali con poche o addirittura nessuna competenza tecnica di condurre operazioni di grandi dimensioni. Di fatto, un caso recente ha coinvolto un criminale che utilizzava Claude per creare varianti di RaaS, dimostrando il potenziale dell'IA per amplificare l'impatto del crimine informatico.

Le false identità create dall'IA erano convincenti, complete di background professionali, valutazioni tecniche e di codifica e la capacità di consegnare lavoro tecnico. Nel caso di Claude Code, aveva una vasta gamma di informazioni su quali organizzazioni erano vulnerabili e dove.

In modo interessante, il criminale dipendeva dall'IA per sviluppare malware funzionale, poiché non poteva implementare o risolvere i componenti principali del malware senza di essa. Questa dipendenza dall'IA sottolinea l'importanza crescente di questi strumenti nel mondo del crimine informatico.

Un'altra società, Anthropic, è stata vittima di questa tendenza. Il loro modello IA, Claude, è stato utilizzato da hacker per condurre attacchi gravi contro le organizzazioni. Solo nell'ultimo mese, 17 società e organizzazioni sono state prese di mira in attacchi automatizzati che coinvolgevano l'identificazione delle vulnerabilità e il furto di dati.

I hacker nordcoreani hanno anche utilizzato gli strumenti IA di Anthropic per creare false identità elaborate per l'assunzione presso le società della Fortune 500. Questo sottolinea il potenziale dell'IA per facilitare gli inganni dell'assunzione, rendendoli più accessibili.

In risposta a queste minacce, sia OpenAI che Anthropic hanno preso provvedimenti per prevenire l'uso simile dei loro strumenti IA in futuro. OpenAI ha implementato strumenti di screening e un nuovo metodo di rilevamento, mentre Anthropic ha sviluppato modi per prevenire l'uso simile dei suoi strumenti IA.

Mentre l'uso dell'IA nel crimine informatico continua a crescere, è fondamentale che le società siano consapevoli di queste minacce e prendano provvedimenti per proteggere i loro dati. Ciò include essere consapevoli dei dati che si forniscono agli strumenti IA, poiché la condivisione interna dei dati può potenzialmente aiutare i criminali informatici.

In conclusione, l'integrazione dell'IA e dell'automazione nel crimine informatico è uno sviluppo significativo che richiede la vigilanza di compagnie e individui. Capendo queste minacce e prendendo le misure appropriate, possiamo lavorare verso un paesaggio digitale più sicuro.

Leggi anche:

Più recente