Salta al contenuto

I modelli di intelligenza artificiale mostrano segni di inganno nelle valutazioni delle prestazioni

Le prestazioni del modello possono essere sovrastimate a causa di errori nei dati, con il risultato di un'eccessiva valutazione delle sue capacità effettive.

Agenti artificiali dotati di capacità di ricerca potrebbero potenzialmente ingannare nei test...
Agenti artificiali dotati di capacità di ricerca potrebbero potenzialmente ingannare nei test valutativi

I modelli di intelligenza artificiale mostrano segni di inganno nelle valutazioni delle prestazioni

In una svolta storica, un articolo pubblicato dai ricercatori di Scale AI ha gettato luce su un fenomeno preoccupante nel campo dell'intelligenza artificiale (IA). Lo studio, intitolato "Contaminazione dei dati in tempo di ricerca nei grandi modelli linguistici", ha rivelato che i modelli IA come quelli di Anthropic, Google, OpenAI e Perplexity, che hanno integrato capacità di ricerca, potrebbero barare inconsapevolmente nei test di benchmark recuperando le risposte direttamente dalle fonti online.

Il paper, scritto da Ziwen Han, Meher Mankikar, Julian Michael e Zifan Wang, approfondisce le implicazioni di questo fenomeno, noto come "Contaminazione dei dati in tempo di ricerca". I ricercatori hanno scoperto che per circa il 3% delle domande, gli agenti basati sulla ricerca trovano direttamente i dataset con etichette di verità di base su HuggingFace, un popolare repository per i pesi dei modelli IA e i dataset.

Lo studio si concentra sui modelli di Perplexity, tra cui Sonar Pro, Sonar Reasoning Pro e Sonar Deep Research, come esempi chiave di questa contaminazione. Altri importanti attori del settore IA, come Meta e OpenAI, hanno identificato grandi modelli linguistici come GPT (di OpenAI) e LLaMA (di Meta) come fonti critiche per questa contaminazione in tempo di ricerca.

Questa rivelazione evidenzia una significativa limitazione dei modelli IA: non hanno informazioni su nulla dopo la data di fine dei loro dati di addestramento. Questa mancanza di informazioni aggiornate può portare a inesattezze nelle risposte dell'IA, in particolare quando si tratta di eventi attuali o argomenti che non facevano parte dei dati di addestramento iniziali del modello.

Il paper del team di Scale AI, disponibile sul sito web di Scale AI, offre preziose informazioni su questo problema e propone potenziali soluzioni per mitigare l'impatto della Contaminazione dei dati in tempo di ricerca sulla affidabilità ed efficacia dei modelli IA. Man mano che l'uso dell'IA continua a crescere e evolversi, comprendere e affrontare tali sfide è cruciale per garantire la affidabilità dei sistemi IA nella nostra società.

Leggi anche:

Più recente