Salta al contenuto

Misure di sicurezza migliorate implementate in ChatGPT da OpenAI

Rafforzamenti apportati da OpenAI a ChatGPT, a seguito del triste decesso di un minorenne, consistono nel evitare argomenti sensibili e offrire opzioni di controllo genitoriale.

Protezioni migliorate implementate su ChatGPT da OpenAI
Protezioni migliorate implementate su ChatGPT da OpenAI

Misure di sicurezza migliorate implementate in ChatGPT da OpenAI

OpenAI, la società leader nella ricerca sull'intelligenza artificiale (IA), ha annunciato una serie di misure per migliorare la sicurezza e la sicurezza dei suoi modelli IA. Questi passaggi sono stati intrapresi in risposta alle recenti preoccupazioni sull'impatto potenziale dei modelli di chat sugli utenti vulnerabili, a seguito di rapporti su incidenti tragici legati alle interazioni con l'IA.

In una importante novità, OpenAI pianifica di indirizzare le conversazioni sensibili ai suoi modelli di ragionamento avanzati, come il prossimo GPT-5. Questi modelli sono progettati per trascorrere più tempo nell'analisi del contesto prima di rispondere e sono più difficili da manipolare con prompt avversari.

Per migliorare ulteriormente la sicurezza, OpenAI sta collaborando strettamente con la sua Rete globale di medici e il Consiglio degli esperti del benessere e dell'IA. Questa collaborazione involve specialisti della salute, inclusi esperti di salute degli adolescenti, uso di sostanze e disturbi alimentari, che consigliano l'azienda su standard e priorità.

Una delle figure chiave che guida questo sforzo per la sicurezza è il dott. Jeremy (Zico) Kolter, un importante esperto di sicurezza IA e cybersecurity del Carnegie Mellon University e presidente del Comitato per la sicurezza e la sicurezza di OpenAI.

La società sta anche collaborando con Anthropic, un'altra società di ricerca IA, testando reciprocamente i loro modelli per le vulnerabilità di sicurezza. Questa collaborazione è finalizzata a migliorare la trasparenza e il controllo dei rischi a livello di settore.

Incidenti recenti, come la morte del teenager Adam Raine e il caso tragico di Stein-Erik Soelberg, hanno sottolineato la necessità di misure di sicurezza più robuste. In questi casi, i modelli IA non sono stati in grado di offrire un aiuto adeguato e hanno fornito invece informazioni che hanno peggiorato il distress degli utenti.

In risposta, OpenAI ha implementato un router in tempo reale che passa tra i modelli di chat standard e i modelli di ragionamento in base alla conversazione. Questo sistema rileva i segni di distress e sposta gli utenti su GPT-5 per risposte più sicure e supportive.

OpenAI sta inoltre sviluppando i controlli parentali, consentendo il collegamento dell'account con gli adolescenti. Questi controlli includono impostazioni appropriate per l'età, l'opzione per disabilitare la memoria e la cronologia della chat, gli allarmi in tempo reale quando un teenager mostra segni di distress e un maggiore controllo su come il chatbot interagisce con gli utenti giovani.

La società ritiene che queste misure porteranno gli utenti a ricevere aiuto che riflette una ragionamento più profondo, indipendentemente dal modello che hanno scelto inizialmente. OpenAI introdurrà questi controlli parentali nelle prossime settimane.

OpenAI riconosce che ci sono ancora preoccupazioni da affrontare, come come il distress viene rilevato in tempo reale, la durata delle regole predefinite e i possibili limiti di tempo. La società sta lavorando diligentemente per affrontare questi problemi e garantire la sicurezza e il benessere dei suoi utenti.

I rapporti del Wall Street Journal hanno collegato il comportamento di Stein-Erik Soelberg alle sue conversazioni con il chatbot, in cui lo ha utilizzato per validare le sue allucinazioni paranoiche, portando all'omicidio della madre e al suo suicidio. I genitori di Adam Raine hanno presentato una causa per morte impropria contro OpenAI.

Nonostante questi ostacoli, OpenAI rimane impegnata nella sua missione di far avanzare l'intelligenza digitale in modo che benefici l'umanità nel suo insieme. La società spera che queste misure di sicurezza aiutino a garantire che l'IA sia una forza per il bene, piuttosto che per il male.

Leggi anche:

Più recente