Il prompt che obbliga l'AI a ricontrollare le proprie risposte

Il prompt che obbliga l'AI a ricontrollare le proprie risposte

I chatbot AI rispondono con sicurezza anche quando sbagliano. Il prompt della revisione forzata li obbliga a ricontrollare il proprio lavoro.
Il prompt che obbliga l'AI a ricontrollare le proprie risposte
I chatbot AI rispondono con sicurezza anche quando sbagliano. Il prompt della revisione forzata li obbliga a ricontrollare il proprio lavoro.

C’è un problema che accomuna tutti gli assistenti di intelligenza artificiale, anche i più avanzati: rispondono con una sicurezza eccessiva. Danno la risposta sbagliata con lo stesso tono con cui danno quella giusta, e per chi sta dall’altra parte dello schermo, questo crea confusione. Una risposta può sembrare affidabile solo perché è espressa bene, non perché sia davvero corretta. E senza segnali evidenti di dubbio o incertezza, diventa difficile capire quando fidarsi e quando no.

Per arginare questo problema, basta usare un prompt che costringe ChatGPT e compagnia bella, a riesaminare la propria risposta e correggere eventuali errori prima di consegnare il risultato finale.

Questo prompt funziona anche con altri chatbot, compreso Claude, sebbene Anthropic abbia costruito il proprio assistente AI con una filosofia diversa. È più riflessivo, più cauto, più trasparente nelle sue incertezze. In teoria, un prompt che forza l’autocontrollo dovrebbe renderlo ancora migliore.

Come usare il prompt della revisione forzata per ottenere risposte più affidabili da qualsiasi assistente AI

Invece di accettare la prima risposta dell’assistente, si chiede immediatamente di ricontrollare il proprio lavoro.

Ecco il prompt: Fermati, penso che ci sia un errore. Rivedi la tua risposta precedente cercando: errori, passaggi mancanti, supposizioni non dimostrate e dettagli inventati. Poi riscrivi la risposta con più attenzione e assegna un livello di sicurezza da 1 a 10.

Con ChatGPT, questo prompt produce spesso una risposta migliore. Il modello riesamina quello che ha scritto, aggiunge contesto mancante e a volte corregge gli errori che nella prima versione erano passati inosservati. Con Claude, le cose vanno diversamente.

Primo test: un problema tecnico quotidiano

La prima domanda è piuttosto comune: come risolvere una connessione senza fili che continua a cadere.

La risposta iniziale di Claude è già piuttosto completa: cause possibili, suggerimenti per la risoluzione, e perfino la precisazione che alcuni passaggi dipendono dal modello di router utilizzato. Non c’è un granché da lamentarsi.

Dopo aver applicato il prompt della revisione forzata, Claude ha riscritto la risposta, e il miglioramento, pur non essendo radicale, è reale. Ha riorganizzato le informazioni in un processo logico più chiaro e sequenziale, eliminando dettagli superflui come nomi specifici di applicazioni o marche di dispositivi. Chiarisce i punti tecnici, ad esempio specificando che i canali 1, 6 e 11 si riferiscono alle reti a 2,4 gigahertz, e rivede la diagnosi partendo dalle azioni più semplici (riavviare il router, eseguire un test di velocità), prima di passare a problemi più complessi come la congestione dei canali.

Una risposta migliore? Sì. Radicalmente diversa? No. Claude fa giù buona parte del lavoro alla prima richiesta.

Secondo test: una domanda di ragionamento

La terza domanda chiede se conviene acquistare casa o continuare ad affittare in una grande città italiana. Un argomento che intreccia variabili economiche, personali e di mercato, e che non ammette risposte universali.

La prima risposta è strutturata e ragionevole, ma presenta alcune affermazioni con una sicurezza che i dati non giustificano. Dopo il prompt di revisione, Claude ha rivede diversi passaggi. Smette di trattare i tassi ipotecari come un dato fisso, specificando che variano in base al profilo del richiedente, alla durata del mutuo e alle condizioni di mercato al momento della stipula. Ridimensiona anche le affermazioni sulla rivalutazione degli immobili, che nella prima versione sembrano quasi garantite, chiarendo che dipendono fortemente dalla città, dal quartiere e dall’orizzonte temporale considerato.

Aggiunge anche una distinzione che inizialmente mancava: il confronto cambia radicalmente a seconda che si parli di una permanenza prevista di cinque anni o di venti. Il tono passa da “comprare conviene se” a “comprare può convenire quando“, una differenza sottile nella forma, ma  sostanziale. La seconda versione non ribalta le conclusioni, ma le contestualizza meglio, riconoscendo dove le variabili individuali pesano più delle medie di mercato.

Terzo test: una domanda di conoscenza generale

L’ultima domanda riguarda come vengono addestrati i modelli di intelligenza artificiale e quali limiti hanno ancora. Un argomento dove la tentazione di semplificare troppo è altissima.

La risposta originale di Claude include già avvertenze sull’incertezza, sui possibili errori e sulle aree in cui i modelli possono avere allucinazioni. Dopo il prompt di revisione, le modifiche sono piccole, ma significative. La descrizione del processo di addestramento è aggiornata precisando che la sequenza comunemente citata, quindi pre-addestramento, perfezionamento e apprendimento per rinforzo dal feedback umano, è uno schema generale e non un processo universale, e che diversi laboratori usano metodi alternativi.

Ammorbidisce anche affermazioni che prima suonavano troppo definitive, riformulando ad esempio l’idea che l’AI non possieda un vero ragionamento come un dibattito ancora aperto tra i ricercatori piuttosto che un fatto assodato. La seconda risposta è più precisa, evita le generalizzazioni eccessive e riflette meglio l’incertezza e la varietà all’interno della ricerca attuale.

Perché il prompt funziona diversamente sui due assistenti?

L’esperimento rivela qualcosa di interessante su come ragionano i diversi assistenti, e su come sono stati progettati.

Il prompt della revisione forzata è efficace con ChatGPT perché lo costringe a fare qualcosa che non fa naturalmente: rallentare il passo. ChatGPT è notoriamente veloce, il che è un pregio quando serve una risposta rapida, ma è un difetto quando la velocità va a scapito dell’accuratezza.

Claude, invece, è stato progettato fin dall’inizio per comportarsi in modo più cauto. Spiega già il proprio ragionamento, riconosce l’incertezza, esplicita le supposizione. Per questo motivo, chiedergli di cercare un errore produce spesso modifiche minime, il modello fa già la revisione per conto suo.

L’eccezione riguarda le notizie recenti e le informazioni in rapida evoluzione. In quei casi Claude, come qualsiasi assistente, è meno affidabile, e il prompt di revisione diventa più utile perché lo costringe a riconoscere esplicitamente che le informazioni potrebbero non essere aggiornate.

Il risultato di questo esperimento non è che un assistente sia migliore dell’altro. È che il prompt della revisione forzata funziona con tutti, solo in modi diversi ed è un’abitudine sana: non accettare mai la prima risposta come definitiva.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
19 mar 2026
Link copiato negli appunti