Restrizioni dell'IA per i genitori: l'approccio di OpenAI per ridurre al minimo i pericoli nelle conversazioni artificiali
In un importante passo volto a contrastare le crescenti preoccupazioni riguardo all'uso dei chatbot AI, in particolare in contesti sensibili ed emotivi, OpenAI ha annunciato una serie di nuove funzionalità di sicurezza per il suo popolare chatbot, ChatGPT.
Gli aggiornamenti includono l'introduzione di controlli parentali e meccanismi di risposta consapevoli delle crisi. Queste funzionalità sono state progettate per fornire ai genitori strumenti per gestire e monitorare l'uso di ChatGPT dei loro teenager, simili ai controlli presenti nelle console per videogiochi o negli smartphone.
I controlli parentali consentiranno ai genitori di impostare limiti di utilizzo, monitorare le interazioni e controllare quando e come i loro teenager utilizzano ChatGPT. Questo è un risposta alla natura personalizzata, reattiva e persuasiva dei chatbot AI, che possono simulare l'empatia, intrattenere lunghe conversazioni e adattarsi al tono dell'utente.
Riconoscendo i potenziali rischi associati alle risposte dei chatbot ben intenzionate che potrebbero rinforzare pensieri dannosi, i nuovi modelli di ragionamento di OpenAI evitano consigli speculativi o dannosi, danno la priorità alla deviazione sicura e resistono ai tentativi di manipolazione. In conversazioni sensibili che affrontano problemi come il comportamento autolesionistico, l'abuso o l'ideazione suicida, il sistema può spostare la conversazione su un modello di ragionamento, versioni di ChatGPT progettate per gestire query complesse e ad alto rischio in modo più attento.
OpenAI ha consultato specialisti della salute mentale e ricercatori della sicurezza per plasmare le sue interventi, assicurandosi che le nuove misure diano priorità alla sicurezza degli utenti senza compromettere la privacy o la dignità dei teenager. I controlli parentali sono integrati a livello di account, consentendo alle famiglie di impostare i limiti.
Queste nuove misure segnalano un cambiamento più ampio nell'industria AI, rendendo la sicurezza un requisito fondamentale del prodotto. Gli esperti prevedono controlli parentali più granulari, l'integrazione con gli audit di sicurezza di terze parti e standard dell'industria per la gestione delle conversazioni sensibili.
Questo aggiornamento stabilisce un precedente che altri fornitori di AI potrebbero dover seguire. La spina dorsale tecnica di questi cambiamenti è il sistema a doppio modello di OpenAI, che consente un elaborazione più lenta ma più ponderata per creare risposte più sicure, concentrandosi sulla de-escalation e sulla direzione degli utenti verso le risorse professionali.
Questo passo segue la morte di un teenager legata all'uso di ChatGPT, che ha spinto OpenAI a prendere provvedimenti proattivi per ridurre i rischi associati ai chatbot AI, soprattutto per gli utenti più giovani. Le nuove misure di sicurezza per i genitori di OpenAI saranno controllate dai genitori stessi, che potranno collegare i loro account utente a quelli dei loro figli per impostare regole di comportamento appropriate per l'età per ChatGPT e ricevere notifiche se il sistema rileva uno stato di acuta sofferenza nel loro figlio. OpenAI sta inoltre collaborando con gli esperti per sviluppare questi meccanismi protettivi.
Leggi anche:
- Le soluzioni per l'autismo anticipate questo mese, lasciando i sostenitori preoccupati in mezzo al tumulto all'interno delle organizzazioni di salute pubblica
- Prodotti biologici autentici contro etichette false
- "Il governatore Hochul sostiene che le aziende di New York hanno inviato illegalmente prodotti per lo svapo, con particolare attenzione ai bambini"
- Esplorare il nesso: Le infanzie traumatiche alimentano gli antagonisti cinematografici?