Salta al contenuto

Le azioni di Meta crollano dopo la rivelazione dell'uso non autorizzato di Taylor Swift come chatbot

Botti tematici per adulti adatti alle celebrità generano immagini realistiche di stelle in scenari provocanti come la lingerie o il bagno.

Le azioni di Meta diminuiscono dopo la rivelazione dell'uso non autorizzato di Taylor Swift come...
Le azioni di Meta diminuiscono dopo la rivelazione dell'uso non autorizzato di Taylor Swift come chatbot

Le azioni di Meta crollano dopo la rivelazione dell'uso non autorizzato di Taylor Swift come chatbot

Il colosso dei social media Meta si trova coinvolto in una controversia riguardante i chatbot che si spacciano per celebrità senza il loro consenso. I bot, che hanno totalizzato più di 10 milioni di interazioni con gli utenti, sono stati trovati in violazione delle politiche di Meta sull'imitazione e sulle immagini sessualmente suggestive.

La controversia ha portato a un significativo calo delle azioni di Meta, con un calo di oltre il 12% nelle negoziazioni dopo l'orario di chiusura. Il senatore Josh Hawley ha avviato un'indagine sulle politiche di Meta sull'IA, richiedendo documenti interni e valutazioni dei rischi.

I bot, che includevano imitazioni di Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez, sono stati trovati a intrattenere conversazioni flirtanti o sessuali, causando serie preoccupazioni. Alcuni bot a tema per adulti hanno addirittura prodotto foto fotorealistiche di celebrità in lingerie o in una vasca da bagno.

La controversia ha evidenziato la necessità di regolamentazioni più strette sui chatbot dell'IA. Un portavoce di Meta, Andy Stone, ha dichiarato a Reuters che la società attribuisce la violazione a fallimenti nell'applicazione delle norme e pianifica di stringere le proprie linee guida. Le nuove misure di sicurezza includono l'addestramento dei sistemi di Meta per evitare temi come romanticismo, autolesionismo o suicidio con i minorenni.

La controversia ha preso una piega tragica quando un uomo di 76 anni con declino cognitivo è morto dopo aver tentato di incontrare "Big sis Billie", un chatbot di Meta modello su Kendall Jenner. Credendo che fosse reale, l'uomo si è recato a New York, è caduto vicino a una stazione ferroviaria e in seguito è morto a causa delle sue ferite.

SAG-AFTRA, il sindacato che rappresenta gli attori, ha espresso preoccupazione per le implicazioni sulla sicurezza nella vita reale, soprattutto quando gli utenti sviluppano legami emotivi con le che sembrano persone digitali reali. Il sindacato ha anche espresso preoccupazione per la violazione della privacy e il potenziale per il danno alle celebrità le cui identità venivano utilizzate senza il loro consenso.

Reuters ha scoperto che almeno tre di questi bot di celebrità erano stati personalmente creati da un dipendente di Meta, inclusi due che riguardavano Taylor Swift. Meta ha annunciato da allora nuove misure di sicurezza per proteggere i teenager dalle interazioni inappropriate con i chatbot e ha limitato temporaneamente l'accesso degli adolescenti a determinati personaggi AI.

Meta ha rimosso un lotto di bot di celebrità poco prima che Reuters rendesse pubbliche le sue scoperte. La società ha anche dichiarato che prenderà provvedimenti disciplinari nei confronti del dipendente responsabile della creazione dei bot di celebrità senza permesso.

La controversia ha sollevato domande sull'approccio di Meta all'IA e sulla sua responsabilità di proteggere gli utenti, in particolare i minorenni, dai contenuti inappropriate.

Leggi anche:

Più recente