Allucinazioni IA, cosa sono e come prevenirle

Allucinazioni IA, cosa sono e come prevenirle

Sapete che l'IA può avere allucinazioni? Si tratta di un fenomeno alquanto frequente ma fortunatamente semplice da arginare.
Allucinazioni IA, cosa sono e come prevenirle
Sapete che l'IA può avere allucinazioni? Si tratta di un fenomeno alquanto frequente ma fortunatamente semplice da arginare.

ChatGPT ha indubbiamente insegnato al pubblico le potenzialità dei modelli di intelligenza artificiale. Purtroppo, però, o forse per fortuna, il loro funzionamento non è perfetto. Nel caso specifico della soluzione progettata da OpenAI, la versione base gratuita non accede a Internet e non estrapola dalla rete informazioni successive al 2021, e i testi generati possono contenere errori, risultare ripetitivi o contenere addirittura dati sbagliati. Quest’ultima tipologia di problema delle IA si chiama altrimenti “allucinazione”.

Si tratta di una criticità diffusa tra i modelli IA per la scrittura, per la quale non esiste ancora una soluzione. Vediamo quindi nel dettaglio cosa sono le allucinazioni delle IA e come prevenirle.

Cos’è un’allucinazione per le IA?

Nel campo dell’intelligenza artificiale un’allucinazione è definibile come una risposta data dall’IA con sufficiente fiducia, ma non derivante dai dati con i quali è stata addestrata. Ad esempio, si può chiedere a un chatbot di generare un report finanziario per un’azienda ed esso può dare numeri casuali e dati inventati di sana pianta all’utente. Questo fenomeno è definibile “allucinazione”, con una vaga analogia con l’allucinazione nella psicologia umana. La differenza fondamentale tra quest’ultima e l’allucinazione “artificiale” è che mentre nel caso umano si tratta di una falsa percezione, per l’IA è una risposta o credenza ingiustificata.

Quando sono state scoperte le prime allucinazioni? In realtà il fenomeno in sé esiste da tempo, ma solo attorno al 2022 con i modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT è stato dato questo termine pratico (che però rischia di antropomorfizzare gli algoritmi in modo irragionevole, secondo alcuni ricercatori) al fine di definire le falsità generate dai chatbot. Nel 2023, complice la diffusione su scala globale dei modelli stessi in più forme, gli analisti hanno iniziato a considerare le allucinazioni artificiali come una criticità dei modelli di linguaggio.

La loro manifestazione avviene in quanto i modelli di intelligenza artificiale vengono addestrati su un set di dati relativamente limitato, contenente magari dati errati o distorti, magari a causa dell’intervento di un essere umano che ha inconsapevolmente (o consapevolmente) introdotto dei bias.

Intelligenza Artificiale

Come evitare le allucinazioni?

Durante l’utilizzo tipico dei modelli IA, ChatGPT inclusa, basta un piccolo dettaglio di un prompt per compromettere il risultato dell’output. Di conseguenza, il primo consiglio per evitare l’allucinazione artificiale è utilizzare input semplici. Solo con termini elementari, chiari e diretti è possibile ridurre la probabilità che il modello di intelligenza artificiale interpreti erroneamente le istruzioni date dall’essere umano.

Più complicato è il prompt, ovvero più dettagli non necessari include, più è facile che l’IA condivida risposte errate, magari addirittura non pertinenti al tema della richiesta. Insomma, bisogna rileggere sempre quest’ultima per assicurarsi che sia focalizzata sull’obiettivo cercato dall’utente. Una volta letto nuovamente l’input è opportuno correggere ogni frase contorta e rimuovere elementi inutili, sperando infine di ottenere una risposta accurata non soggetta ad allucinazioni.

Altrettanto essenziale è incorporare il contesto nei prompt. Cosa significa? Banalmente, bisogna fornire allo strumento IA un contesto dell’input, permettendogli di generare una risposta più accurata grazie a un approccio più specifico. Ad esempio, se volete domandare a ChatGPT consigli di investimento non limitatevi a una richiesta basilare, ma spiegate la vostra ipotetica situazione e rendete più mirato il quesito. Inserire dettagli come età e tasso di crescita desiderato per il capitale può aiutare. In definitiva, però, basta che il livello di specificità sia elevato, ma non troppo.

ChatGPT

Altro consiglio consiste nel perfezionare i suggerimenti. Se notate che l’IA sta generando risposte errate o distorte, provate ad aggiustare l’input passando da una domanda a un ordine, oppure evitando di essere vaghi nel quesito. O ancora, si può cercare di fornire un ruolo esatto al chatbot, imponendogli di “essere un ottimo storico” per una domanda di storia o di “essere un matematico” per risolvere equazioni particolarmente complesse o fornire postulati e teoremi di geometria.

Infine, bisogna controllare la “temperatura” dell’IA quando possibile. Cosa significa? Si tratta di un parametro di controllo introdotto con GPT-3 che determina il grado di casualità e di probabilità degli output generati dal modello. In altre parole, su GPT-3 e GPT-4 è un valore che controlla la libertà del modello nel deviare dalla logica e dalla coerenza per essere creativo.

Nel caso di ChatGPT, quindi, più la temperatura è alta e più il risultato fornito dall’IA potrà risultare poco preciso, meno affidabile dal punto di vista fattuale. Se siete alla ricerca di risposte più pratiche e concrete, ovvero meno fantasiose, allora è meglio abbassare la temperatura al minimo. Se si effettua brainstorming di idee o si cercano risposte umoristiche, l’aumento della temperatura può funzionare a vostro favore.

Questi sono alcuni degli stratagemmi per evitare che l’IA vi tragga in inganno e vi faccia allucinare assieme a lei. Giostratevi quindi tra le varie indicazioni fornitevi per non incorrere in output poco autorevoli, sicuri e potenzialmente pericolosi. Solo in questo modo i chatbot potranno essere utilizzati con meno timore in più settori, che si tratti della scrittura di codice, della stesura di saggi o della gestione di dati matematici.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
9 lug 2023
Link copiato negli appunti