Salta al contenuto

La raccolta di dati di formazione sull'IA esposta da DeepSeek, sollevando preoccupazioni per i potenziali problemi di "illusione"

Il prelievo dei dati durante la pre-istruzione proviene principalmente da materiali e dati online liberamente accessibili e autorizzati da fonti terze, secondo il DeepSeek.

Raccolta dei dati di addestramento dell'AI esposta da DeepSeek, evidenziando i potenziali pericoli...
Raccolta dei dati di addestramento dell'AI esposta da DeepSeek, evidenziando i potenziali pericoli derivanti dalle 'allucinazioni'.

La raccolta di dati di formazione sull'IA esposta da DeepSeek, sollevando preoccupazioni per i potenziali problemi di "illusione"

DeepSeek, una startup con sede a Hangzhou fondata dal informatico Liang Wenfeng, sta facendo scalpore nell'industria dell'IA con il suo approccio innovativo all'analisi dei dati. La società, che porta il nome sia della fondazione che della startup, si impegna a garantire la sicurezza dell'IA affrontando una sfida significativa del settore: le bias statistiche intrinseche nei grandi dataset.

La metodologia unica di DeepSeek combina la rilevazione algoritmica con la revisione umana per identificare e mitigare questi bias. Tuttavia, è importante notare che, sebbene la società si sforzi di ridurre l'accadimento di "allucinazioni" nei suoi modelli, non può garantire che non produrranno tali anomalie.

A differenza di alcuni modelli di IA, i modelli di DeepSeek prevedono le risposte in base agli input dell'utente invece di recuperarli. Questo approccio aiuta a garantire che le risposte generate siano pertinenti e informative, ma non elimina la possibilità di allucinazioni.

DeepSeek incoraggia gli utenti a cercare consigli professionali quando necessario e riconosce che le allucinazioni sono un problema inevitabile nell'IA attuale. La società sta lavorando attivamente per mitigare l'impatto di questi bias sui valori del modello.

Una delle tecniche utilizzate da DeepSeek per ridurre le allucinazioni è la generazione supportata dal recupero. Questo approccio consente all'IA di generare risposte più accurate e contestualmente pertinenti combinando il potere dell'apprendimento automatico con l'efficienza del recupero dei dati.

DeepSeek è anche dedita a mantenere la sicurezza dell'IA. La società rimuove i dati grezzi contenenti discorsi d'odio, pornografia, violenza, spam e contenuti potenzialmente violativi dai suoi dataset. La maggior parte dei dati utilizzati nella fase di pre-allenamento viene raccolta da informazioni online disponibili pubblicamente e da terze parti autorizzate.

Data l'aumento del controllo dell'industria di Pechino, DeepSeek ha effettuato una divulgazione per aiutare le persone a utilizzare i suoi modelli in modo efficace e responsabile. La società sottolinea che i suoi modelli prevedono le risposte, non le recuperano, e non intende raccogliere dati personali.

DeepSeek riconosce che l'IA è ancora nella sua fase iniziale e la tecnologia è immatura. Tuttavia, l'approccio innovativo della società all'analisi dei dati e alla riduzione del bias fa ben sperare per un futuro dell'IA più affidabile e non viziato.

Leggi anche:

Più recente