Salta al contenuto

Restrizioni dell'IA per i genitori: l'approccio di OpenAI per ridurre al minimo i pericoli nelle conversazioni artificiali

Il progresso dell'AI dal mondo della fantascienza alla vita quotidiana è stato significativo, con chatbot come ChatGPT che vengono utilizzati da milioni di persone per consigli, intrattenimento, aiuto negli studi o chiacchiere informali. Tuttavia, questo ampio utilizzo ha anche rivelato un...

L'approccio di OpenAI alla gestione del rischio nella conversazione con l'IA: Comprendere le misure...
L'approccio di OpenAI alla gestione del rischio nella conversazione con l'IA: Comprendere le misure adottate per placare le preoccupazioni dei genitori in ChatGPT

Restrizioni dell'IA per i genitori: l'approccio di OpenAI per ridurre al minimo i pericoli nelle conversazioni artificiali

In un importante passo volto a contrastare le crescenti preoccupazioni riguardo all'uso dei chatbot AI, in particolare in contesti sensibili ed emotivi, OpenAI ha annunciato una serie di nuove funzionalità di sicurezza per il suo popolare chatbot, ChatGPT.

Gli aggiornamenti includono l'introduzione di controlli parentali e meccanismi di risposta consapevoli delle crisi. Queste funzionalità sono state progettate per fornire ai genitori strumenti per gestire e monitorare l'uso di ChatGPT dei loro teenager, simili ai controlli presenti nelle console per videogiochi o negli smartphone.

I controlli parentali consentiranno ai genitori di impostare limiti di utilizzo, monitorare le interazioni e controllare quando e come i loro teenager utilizzano ChatGPT. Questo è un risposta alla natura personalizzata, reattiva e persuasiva dei chatbot AI, che possono simulare l'empatia, intrattenere lunghe conversazioni e adattarsi al tono dell'utente.

Riconoscendo i potenziali rischi associati alle risposte dei chatbot ben intenzionate che potrebbero rinforzare pensieri dannosi, i nuovi modelli di ragionamento di OpenAI evitano consigli speculativi o dannosi, danno la priorità alla deviazione sicura e resistono ai tentativi di manipolazione. In conversazioni sensibili che affrontano problemi come il comportamento autolesionistico, l'abuso o l'ideazione suicida, il sistema può spostare la conversazione su un modello di ragionamento, versioni di ChatGPT progettate per gestire query complesse e ad alto rischio in modo più attento.

OpenAI ha consultato specialisti della salute mentale e ricercatori della sicurezza per plasmare le sue interventi, assicurandosi che le nuove misure diano priorità alla sicurezza degli utenti senza compromettere la privacy o la dignità dei teenager. I controlli parentali sono integrati a livello di account, consentendo alle famiglie di impostare i limiti.

Queste nuove misure segnalano un cambiamento più ampio nell'industria AI, rendendo la sicurezza un requisito fondamentale del prodotto. Gli esperti prevedono controlli parentali più granulari, l'integrazione con gli audit di sicurezza di terze parti e standard dell'industria per la gestione delle conversazioni sensibili.

Questo aggiornamento stabilisce un precedente che altri fornitori di AI potrebbero dover seguire. La spina dorsale tecnica di questi cambiamenti è il sistema a doppio modello di OpenAI, che consente un elaborazione più lenta ma più ponderata per creare risposte più sicure, concentrandosi sulla de-escalation e sulla direzione degli utenti verso le risorse professionali.

Questo passo segue la morte di un teenager legata all'uso di ChatGPT, che ha spinto OpenAI a prendere provvedimenti proattivi per ridurre i rischi associati ai chatbot AI, soprattutto per gli utenti più giovani. Le nuove misure di sicurezza per i genitori di OpenAI saranno controllate dai genitori stessi, che potranno collegare i loro account utente a quelli dei loro figli per impostare regole di comportamento appropriate per l'età per ChatGPT e ricevere notifiche se il sistema rileva uno stato di acuta sofferenza nel loro figlio. OpenAI sta inoltre collaborando con gli esperti per sviluppare questi meccanismi protettivi.

Leggi anche:

Più recente