OpenAI spiega la causa delle allucinazioni AI

OpenAI spiega la causa delle allucinazioni AI

I ricercatori di OpenAI hanno descritto la possibile causa delle allucinazioni (risposte sbagliate) e suggerito di creare modelli AI più umili.
OpenAI spiega la causa delle allucinazioni AI
I ricercatori di OpenAI hanno descritto la possibile causa delle allucinazioni (risposte sbagliate) e suggerito di creare modelli AI più umili.

OpenAI ha pubblicato i risultati di una ricerca che descrive la causa delle allucinazioni dei modelli di intelligenza artificiale generativa. Nonostante diventino sempre più potenti rimane ancora il loro difetto principale, ovvero rispondere in maniera sbagliata. L’azienda californiana ha proposto una possibile soluzione.

Perché i modelli AI hanno allucinazioni?

OpenAI scrive che “le allucinazioni sono sono affermazioni plausibili ma false generate da modelli linguistici“. Si manifestano anche per domande apparentemente semplici. Ad esempio, quando è stato chiesto ad un chatbot molto popolare (non è noto quale) il titolo della tesi di dottorato di Adam Tauman Kalai (uno degli autori della ricerca), sono state fornite tre risposte diverse, nessuna delle quali era corretta. Tre risposte sbagliate anche quando è stata chiesta la data del suo compleanno.

Secondo i ricercatori di OpenAI, le allucinazioni derivano da “incentivi sbagliati“. I sistemi di valutazione delle prestazioni spingono i modelli a indovinare la risposta. Nessun chatbot risponde “non lo so“. In pratica manca l’umiltà da parte dei modelli.

Ovviamente anche i modelli di OpenAI hanno allucinazioni. Il vecchio modello o4-mini offre una migliore accuratezza (risposte corrette) rispetto al nuovo modello gpt-5-thinking-mini, ma la percentuale di errori (risposte sbagliate) è tre volte maggiore. Il nuovo modello è anche più umile (non fornisce la risposta).

Secondo i ricercatori, le allucinazioni sono causate dal processo di pre-addestramento. I modelli pre-addestrati raramente commettono errori di ortografia o sbagliano a mettere le parentesi. Dato che non viene applicata l’etichetta vero/falso ad ogni testo, i modelli non hanno esempi sbagliati come riferimento, non distinguono il vero dal falso e cercano di indovinare la risposta corretta.

Una possibile soluzione è ridurre il processo di pre-addestramento e migliorare i sistemi di valutazione, assegnando punteggi negativi per le risposte sbagliate, invece di premiare solo le risposte corrette indovinate. Non ci sarà mai un’accuratezza del 100%, ma le allucinazioni possono essere eliminate. I modelli devono solo essere più umili e ammettere di non conoscere la risposta.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
8 set 2025
Link copiato negli appunti