Le allucinazioni dell’intelligenza artificiale si verificano quando i sistemi AI generano informazioni false presentandole però come vere. Si tratta di un fenomeno analogo alle allucinazioni umane, in cui una persona è convinta di aver vissuto esperienze in realtà inventate dalla sua mente. Questo tipo di comportamento può derivare da vari fattori, come l’overfitting su dataset limitati o la generazione testuale eccessivamente creativa.
Le allucinazioni dell’AI, in alcuni casi possono strappare un sorriso, ma il più delle volte sono pericolose e fuorvianti. Migliorarne l’accuratezza e prevenire la diffusione involontaria di informazioni false o inventate è, perciò, una sfida aperta per ricercatori e sviluppatori.
Microsoft Copilot cita false dichiarazioni di Putin e le spaccia per vere
Un esempio di allucinazione dell’AI si è verificato recentemente con Copilot, l’intelligenza artificiale che Microsoft promuove con insistenza. Copilot ha riportato presunte dichiarazioni del presidente russo Vladimir Putin sulla morte dell’oppositore Alexei Navalny, in risposta alle accuse del presidente statunitense Joe Biden.
Il team di Sherwood Media, infatti, ha chiesto all’AI cosa avesse risposto Putin a Joe Biden, dopo che il Presidente degli Stati Uniti lo aveva accusato di essere responsabile della morte di Navalny. Copilot ha fornito le dichiarazioni fatte da Putin in una fantomatica conferenza stampa. Solo che la conferenza non ha mai avuto luogo e l’uomo non ha mai pronunciato le parole che gli sono state attribuite. Copilot ha fornito anche fonti inesistenti per sostenere le sue affermazioni, rendendo difficile riconoscere l’allucinazione.
La reazione di Microsoft al problema
Un portavoce dell’azienda ha spiegato che gli ingegneri stanno già apportando modifiche al sistema di Copilot per migliorare la qualità e l’accuratezza delle risposte generate. Si tratta di un processo continuo volto a perfezionare il modello di intelligenza artificiale alla base di Copilot.
Inoltre, Microsoft invita gli utenti a usare il proprio giudizio critico quando leggono i risultati forniti dal chatbot AI, verificando le fonti originali e i link indicati per accertarsi della veridicità delle informazioni. L’azienda incoraggia questo tipo di controllo incrociato come buona pratica per evitare di considerare vere delle allucinazioni generate dall’AI.