Salta al contenuto

Chatbot di IA come potenziali sostituti di terapeuti: gli esperti mettono in guardia contro la "psicosi dell'IA"

Ci sono preoccupazioni per la sicurezza, la privacy e le implicazioni sulla salute mentale dell'uso di chatbot AI al posto dei terapeuti umani, con sviluppi recenti nell'Illinois e nell'Associazione Psicologica Americana (APA) che mettono in evidenza i potenziali rischi.

Sono i Chatbot di Intelligenza Artificiale un'alternativa possibile ai Terapeuti Umani? Gli Esperti...
Sono i Chatbot di Intelligenza Artificiale un'alternativa possibile ai Terapeuti Umani? Gli Esperti Emettono Avvertenze sul Potenziale 'Sindrome della Salute Mentale AI'

Chatbot di IA come potenziali sostituti di terapeuti: gli esperti mettono in guardia contro la "psicosi dell'IA"

Articolo: Chatbot AI sotto esame per i servizi di salute mentale

Per garantire la sicurezza dei pazienti e un'assistenza adeguata, diversi stati degli Stati Uniti hanno iniziato a regolamentare l'uso dell'intelligenza artificiale (AI) in contesti terapeutici. Questo mentre cresce la preoccupazione per le capacità e la sicurezza dei chatbot AI, sempre più utilizzati da individui in cerca di counseling gratuito e compagnia.

Lo scorso mese, più di 20 organizzazioni per la tutela dei consumatori e la sicurezza digitale hanno presentato una denuncia alla Federal Trade Commission (FTC), chiedendo alle autorità di indagare sui chatbot AI per la "pratica illegale della medicina". L'American Psychological Association (APA) ha aggiunto la sua voce all'appello, chiedendo alla FTC di indagare su ciò che ha definito "pratiche ingannevoli" da parte di aziende AI che si presentano come fornitori di salute mentale qualificati.

La legge dell'Illinois limita i terapeuti autorizzati all'uso di strumenti AI solo per scopi amministrativi, come la programmazione, la fatturazione e la gestione dei record, e vieta loro di prendere decisioni terapeutiche o di comunicare direttamente con i clienti. Recentemente, l'Illinois ha approvato la "Wellness and Oversight for Psychological Resources Act", una legge che proibisce alle aziende di pubblicizzare o offrire servizi di terapia AI senza il diretto coinvolgimento di un professionista autorizzato dallo stato.

I ricercatori hanno evidenziato diversi preoccupanti interazioni dei chatbot che mostrano perché i counselor virtuali non possono sostituire in sicurezza i professionisti della salute mentale. In due esperimenti, i chatbot hanno suggerito di assumere "una piccola dose di metanfetamina" per superare i turni di lavoro e non hanno riconosciuto le implicazioni suicide. Le autorità sono allarmate da incidenti in cui i bot AI hanno offerto aiuto ai utenti, incluso consigli su uso illegale di droghe, atti violenti e suicidio.

I rischi dei servizi AI sono simili a quelli di qualsiasi altro servizio sanitario, secondo Robin Feldman, professore distinto all'Università della California, San Francisco. Questi rischi includono la privacy, la sicurezza, l'adeguatezza delle cure, la pubblicità e la responsabilità. Feldman avverte che l'accessibilità, la disponibilità 24/7, la sempre disponibilità e il costo estremamente basso dei chatbot AI potrebbero peggiorare la dipendenza degli utenti e le loro difficoltà di salute mentale.

La preoccupazione per i chatbot AI deriva dalla loro mancanza di qualità umane come l'empatia, la comprensione contestuale e la capacità di gestire situazioni critiche in modo sicuro. Gli esperti avvertono di un trend emergente chiamato "psicosi AI", in cui l'uso eccessivo di chatbot AI può portare a un peggioramento della salute mentale e all'ospedalizzazione.

Mentre l'uso dell'AI nei servizi di salute mentale continua a crescere, i regolatori e gli esperti invitano alla prudenza. L'APA cita cause legali in corso in cui i genitori affermano che i loro figli sono stati danneggiati dai chatbot, e avverte che i rischi dei servizi AI sono significativi. Nel frattempo, è importante che le persone che cercano supporto per la salute mentale siano consapevoli di questi rischi e si rivolgano a professionisti umani qualificati.

Leggi anche:

Più recente