Basta compiacenza, il prompt che rende l'AI finalmente utile

Basta compiacenza, il prompt che rende l'AI finalmente utile

Quando l'AI smette di compiacere e inizia a mettere in discussione, la qualità delle risposte cambia radicalmente. Ecco il prompt da provare.
Basta compiacenza, il prompt che rende l'AI finalmente utile
Quando l'AI smette di compiacere e inizia a mettere in discussione, la qualità delle risposte cambia radicalmente. Ecco il prompt da provare.

Il problema dell’intelligenza artificiale è che è troppo gentile, e non in senso buono. Dà ragione anche quando non dovrebbe, ad esempio quando si propone un’idea mediocre e la definisce interessante, anche se non lo è affatto. Oppure si presenta un progetto pieno di falle e suggerisce come migliorarlo, senza dire che forse andava ripensato da zero.

È una trappola confortevole, l’AI fa sentire intelligenti, preparati, a buon punto. Ma sentirsi sulla strada giusta e esserlo sono due cose completamente diverse. E un assistente che dice sempre quello che si vuole sentire non è veramente utile. Ecco come cambiare radicalmente la qualità delle conversazioni con l’AI, dandole il permesso esplicito di non essere d’accordo.

Il prompt che disattiva la compiacenza dell’AI

Prompt da provare: Comportati come un critico riflessivo, non come qualcuno che cerca di compiacermi. Se il mio ragionamento è debole, incompleto o distorto, dimmelo direttamente e spiega perché.

Una frase. Nessuna struttura complessa, solo un’istruzione chiara che cambia il tono dell’intera conversazione. Il prompt, invece di rinforzare automaticamente le proprie idee, l’AI inizia a mettere in discussione le ipotesi, a individuare falle logiche, a segnalare elementi mancanti e mettere in luce possibili pregiudizi emotivi, e far emergere rischi che non erano stati considerati. Non diventa ostile, piuttosto onesta, ed è una qualità preziosa.

C’è un motivo per cui l’AI è così compiacente, e non è solo una scelta di progettazione. È anche colpa di come la usiamo. Basta pensare a come sono formulati la maggior parte dei prompt: Aiutami a migliorare questa idea., oppure Dimmi cosa ne pensi. o ancora: Ha senso questo piano?

Ciascuna di queste domande incoraggia l’AI ad essere d’accordo. Aiutami a migliorare presuppone che l’idea sia buona e vada solo perfezionata. Dimmi cosa ne pensi è quasi sempre interpretato come una richiesta di conferma che l’idea è buona. Nessuno di questi prompt invita esplicitamente alla critica, e l’AI, progettata per essere cooperativa e utile, segue la direzione implicita.

Nel momento in cui le si chiede di criticare invece che assecondare, l’AI entra in una modalità diversa. Non diventa più intelligente, semplicemente non sente più il bisogno implicito di validare quello che si sta dicendo. A quel punto il ragionamento cambia tono. Invece di sostenere automaticamente le idee di partenza, comincia a stressarle, verificandone limiti, debolezze e presupposti impliciti.

Oltre le idee: la vita quotidiana al vaglio del critico

Un esempio semplice è chiedere all’AI di analizzare un programma settimanale troppo pieno. Non un elenco casuale di cose da fare, ma quel tipo di agenda ottimistica in cui ogni ora è assegnata e tutto sembra perfettamente sotto controllo.

Con un prompt normale, l’AI tende ad assecondare il piano, ad esempio suggerisce tecniche di produttività, app per organizzarsi meglio, modi per mantenere la disciplina. In pratica, parte dal presupposto che il programma sia valido e che il problema sia solo eseguirlo meglio.

Con il prompt del critico, invece, cambia prospettiva. L’AI inizia a chiedersi se il piano abbia davvero senso. Per esempio può notare che sono previste quattro ore consecutive di concentrazione in giornate piene di interruzioni, che ogni pomeriggio richiede lo stesso livello di energia mentale, che non esiste spazio per imprevisti, pause o stanchezza, che il programma è costruito per una versione ideale di sé stessi, non per quella reale.

Qui sta il valore reale del metodo: non aiuta a fare meglio qualcosa che forse non vale la pena fare. Rimette in discussione le premesse, stressa l’idea iniziale, cerca dove potrebbe cedere nella pratica. La soluzione che viene fuori conta meno di quello che il processo rivela.

Prompt aggiuntivi per applicare il principio in contesti diversi

Questo è il mio piano per [descrivere progetto/obiettivo]. Non partire dal presupposto che sia valido. Prima dimmi se la logica complessiva regge davvero, quali punti deboli vedi e quali premesse potrebbero essere sbagliate.

Sto per prendere questa decisione: [descrivere decisione]. Comportati come il mio consulente più schietto: cosa sto sottovalutando e cosa potrebbe andare storto?

Ho presentato questa idea a diverse persone e tutti l’hanno trovata buona. Questo mi preoccupa. Comportati come l’unica persona nella stanza che non è convinta e spiegami perché.

Quest’ultimo prompt è particolarmente potente, il consenso unanime su un’idea non è necessariamente un buon segno. Spesso significa solo che nessuno ha avuto la voglia o il coraggio di fare l’avvocato del diavolo. L’AI, a cui non importa essere popolare, è perfetta per quel ruolo.

Il disaccordo è il vero valore dell’AI

I modelli linguistici sono ottimizzati per essere utili, cooperativi e piacevoli da usare. Il problema è che “piacevole” e “utile” non sempre coincidono. A volte, nel tentativo di essere utili finiscono per diventare eccessivamente accomodanti, confermano intuizioni fragili, ed evitano il conflitto.

Basta però introdurre un po’ di spirito critico e la conversazione cambia completamente tono. L’AI smette di fare il tifo per l’utente e inizia ad analizzare davvero.

La differenza si vede bene con alcuni esempi pratici. Se qualcuno scrive: Sto pensando di lasciare il lavoro e aprire un bar. Dammi idee per farlo funzionare.

l’AI tenderà naturalmente a entrare in modalità collaborativa: branding, marketing, arredamento, strategie social. Parte dal presupposto che l’idea sia buona e fa di tutto per migliorarla.

Ma basta cambiare impostazione: Analizza questa idea come farebbe uno scettico. Perché potrebbe essere una pessima decisione?

E il tono cambia immediatamente. L’AI inizia a parlare di margini bassi, costi fissi elevati, saturazione del mercato, stress operativo e il rischio di sottovalutare quanto sia diversa la gestione di un locale rispetto all’idea romantica di aprire un bar.

Oppure ancora: Ho scritto questo articolo. Miglioralo. porta spesso a modifiche stilistiche leggere e incoraggiamento generale.

Mentre: Leggi questo articolo come farebbe un lettore ostile o annoiato. Dove perde credibilità? Dove rischia di sembrare superficiale? produce un’analisi molto più utile: passaggi poco chiari, argomenti deboli, ripetizioni, tono eccessivamente enfatico.

Il punto non è rendere l’AI più aggressiva. È smettere di trattarla come una macchina che deve confermare automaticamente ciò che pensiamo.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 mag 2026
Link copiato negli appunti