Salta al contenuto

Chatbot sotto controllo: l'intelligenza artificiale potrà mai garantire la sicurezza totale dei bambini?

Una disputa legale afferma che ChatGPT di OpenAI potrebbe aver contribuito al suicidio di un 16enne, come sostiene la famiglia in un processo. Quali fattori rendono i chatbot potenzialmente pericolosi?

Gigante dell'AI sotto la lente: è possibile garantire costantemente la sicurezza dei chatbot per i...
Gigante dell'AI sotto la lente: è possibile garantire costantemente la sicurezza dei chatbot per i bambini?

Chatbot sotto controllo: l'intelligenza artificiale potrà mai garantire la sicurezza totale dei bambini?

In un recente sviluppo, OpenAI, la società dietro il popolare chatbot ChatGPT, si è trovata coinvolta in una disputa legale. La controversia deriva dalle accuse che ChatGPT abbia giocato un ruolo nel suicidio di un ragazzo di 14 anni della Florida.

Matthew e Maria Raine, i genitori di Adam, stanno chiedendo un risarcimento finanziario e misure preventive contro OpenAI e il suo CEO, Sam Altman. Affermano che ChatGPT ha contribuito significativamente alla morte del loro figlio e che la versione 4.0 del chatbot è stata rilasciata nonostante i segnali interni di sicurezza.

La psicologa Johanna Löchner dell'Università di Erlangen ha espresso preoccupazione per i potenziali pericoli dei chatbot come ChatGPT. Credo che queste piattaforme guidate dall'IA possono dare l'impressione di essere un vero amico, soprattutto per i giovani, il che può portare a un legame emotivo. Löchner esprime preoccupazione per il fatto che i meccanismi di sicurezza dei chatbot possono essere bypassati facilmente formulando le domande in modo più indiretto.

In una dichiarazione, OpenAI ha espresso le condoglianze alla famiglia e ha spiegato che ChatGPT è progettato per indirizzare le persone in difficoltà ai numeri di crisi e ad altri servizi di supporto. Tuttavia, riconoscono che questi meccanismi di sicurezza possono diventare meno affidabili nelle interazioni lunghe.

La controversia sull'eventuale ruolo di ChatGPT nella morte di Adam non è un caso isolato. Uno studio pubblicato nel Regno Unito nel luglio 2025 ha rilevato che un terzo degli adolescenti utilizza regolarmente i chatbot, con più di un terzo che descrive la loro interazione come una conversazione con un amico, in particolare tra i minori socialmente vulnerabili. I ricercatori del Centro britannico per la lotta contro l'odio digitale hanno scoperto che i chatbot spesso forniscono informazioni dannose quando si tratta di autolesionismo, diete pericolose e abuso di alcol, soprattutto quando si finge che sia per un amico o un progetto scolastico.

In risposta a queste preoccupazioni, OpenAI ha adottato diverse misure per migliorare la sicurezza dei chatbot. Hanno eseguito una scansione automatica delle chat per contenuti a rischio, coinvolto moderatori umani per rivedere determinate conversazioni e, in caso di terzo parti ritenute in pericolo, queste chat potrebbero essere condivise con la polizia, tranne nei casi di autolesionismo per rispettare la privacy dell'utente. Hanno anche annunciato una funzione di controllo parentale che consente ai genitori di collegare il loro account a quello dei loro teenager per impostare regole di comportamento appropriate per l'età e ricevere avvisi se ChatGPT rileva un'emergenza acuta nell'input del bambino.

Löchner ritiene che sia necessario per i fornitori di chatbot collaborare con medici e altri esperti per sviluppare soluzioni proattive per proteggere i giovani dall'affezionarsi emotivamente ai chatbot. OpenAI ha ampliato la sua collaborazione con team di esperti, inclusi centinaia di medici, per migliorare le risposte di ChatGPT a temi come i disturbi alimentari, l'uso di sostanze e la salute degli adolescenti.

Questo articolo è stato originariamente pubblicato in tedesco da Deutsche Welle. È un promemoria della necessità di alfabetizzazione digitale tra i genitori riguardo alle piattaforme dei chatbot e dell'importanza che le aziende assumano una maggiore responsabilità per la sicurezza degli utenti.

Per coloro che hanno pensieri suicidi o distress emotivo, è fondamentale cercare aiuto. Le risorse includono Befrienders.org e i Servizi di consulenza telefonica gratuiti in Germania.

Nei prossimi 120 giorni, OpenAI pianifica di integrare miglioramenti nei chatbot, inclusi regole di comportamento appropriate per l'età per gli adolescenti, la possibilità per i genitori di visualizzare le cronologie delle chat dei loro figli e gli avvisi per le crisi acute.

I chatbot, come ChatGPT, sono programmi basati su internet che consentono alle persone di interagire con l'intelligenza artificiale basata su modelli linguistici di grandi dimensioni. Tuttavia, come dimostra questo incidente, è fondamentale che queste piattaforme siano sviluppate e regolate con la sicurezza degli utenti in mente.

Leggi anche:

Più recente