ChatGPT, Claude o Gemini sono diventati così bravi, che è quasi impossibile distinguere se un testo sia stato scritto da una persona o da una macchina. Quasi. Per quanto possa sembrare impeccabile in superficie, i chatbot AI lasciano ancora delle tracce (per fortuna!). Esiste un linguaggio specifico che “puzza” di AI. Non perché le parole siano sbagliate in sé, ma perché nessun essere umano parla così, a meno che non stia cercando di ottenere un lavoro nel marketing…
Ci sono parole che spuntano continuamente nei testi generati dall’AI. E non è un caso. ChatGPT e company sono stati addestrati su enormi quantità di contenuti online, molti dei quali sono testi pubblicitari e promozionali. Quindi, quando l’AI genera un testo, tende a ricadere in questi modelli linguistici, anche se non sempre sono appropriati al contesto.
Intelligenza artificiale o essere umano? 5 segnali linguistici per riconoscere un testo generato dall’AI
1. Frasi spezzate e ripetitive
L’AI sembra avere una predilezione per le frasi spezzate, separate da un punto interrogativo. Ad esempio: “E cosa c’è di peggio? Rende le persone pigre.” oppure “Il problema? Microsoft non fa quello che dovrebbe.”
Mentre queste costruzioni possono aggiungere enfasi e suspense quando usate con parsimonia, l’AI tende a esagerare. Il risultato è un testo che suona artificioso e ripetitivo. La tendenza a ripetere parole o frasi, infatti, è un altro segno distintivo dei testi generati dall’AI. Ad esempio, un testo potrebbe utilizzare frequentemente espressioni come “In conclusione“, “In sintesi” o “In definitiva“. Questa ripetitività è frutto della mancanza di una reale consapevolezza del contesto, ma anche della mancanza di creatività tipica dell’essere umano.
Non dimentichiamo un fatto fondamentale: l’AI scrive per previsione, non per comprensione. Quando un modello come ChatGPT o Gemini risponde, sta essenzialmente giocando a “indovina la parola successiva”. Non c’è un cervello che ragiona, ma un sistema statistico incredibilmente sofisticato che ha imparato quali sequenze di parole hanno più senso dopo altre. Stop.
Ecco perché l’AI può sembrare brillante un momento e incredibilmente stupida subito dopo. Ecco perché può scrivere una poesia commovente e poi non capire una battuta elementare. Non ha un modello del mondo, ha solo modelli di linguaggio.
2. Abuso di forme implicite
Un’altra caratteristica tipica dei testi generati dall’AI è l’uso eccessivo di forme implicite. Si tratta di frasi introdotte da un participio presente (-ando, -endo) o da un participio passato (-ato, -uto, -ito), separate dalla frase principale da una virgola (es. Pensando alla risposta giusta, Roberto si è distratto).
Facciamo un esempio di testo generato dall’AI: “Analizzando i dati raccolti, l’algoritmo ha identificato un pattern ricorrente, suggerendo un cambiamento nella strategia, migliorando così le prestazioni complessive.”
Analizzando, suggerendo e migliorando in una sola frase sono proprio troppe! Nessun essere umano parlerebbe o scriverebbe in questo modo di sua spontanea volontà. Nei testi umani, queste strutture possono esserci, ma sono più rare e consapevoli. Nei testi generati dall’AI invece, diventano automatismi ripetitivi.
Anche se le frasi sono corrette dal punto di vista grammaticale, queste costruzioni appesantiscono il testo e lo rendono meno scorrevole. Un essere umano tenderebbe a usare connettivi logici (congiunzioni) più semplici o a dividere il pensiero in due frasi separate.
3. Antitesi forzate
L’antitesi è una figura retorica bellissima e potente, che funziona attraverso una negazione seguita da un’affermazione per enfatizzare un concetto. Gli scrittori usano spesso una costruzione in due parti per aumentare il dramma: prima liquidano qualcosa come ordinario, poi lo dichiarano straordinario.
La struttura generale è “Questo non è solo X. È Y”. Ecco alcuni esempi: “Non fu solo una sconfitta. Fu un massacro.” oppure “Non era solo stanco. Era completamente distrutto.”
Questo elemento stilistico usato con parsimonia, funziona. Ma ChatGPT e compagnia bella, spesso non sanno cosa significhi la parola “parsimonia”… Il problema dell’intelligenza artificiale è che tende ad abusarne perché ha imparato che questa struttura riceve spesso feedback positivi. È diventata quasi una firma involontaria dell’AI.
Mentre uno scrittore umano usa questa figura retorica in momenti specifici per amplificarne l’impatto, l’AI la piazza qua e là con frequenza meccanica, svuotandola del suo potere. È come un musicista che usa continuamente lo stesso crescendo: alla fine, invece di emozionare, annoia.
4. Trattini (troppi e senza senso)
Un un segno di punteggiatura che sembra essere particolarmente amato dall’AI è il trattino (—). Si usa per introdurre una pausa forte o un cambio di pensiero, e può rendere un testo più dinamico ed enfatico. Purtroppo l’AI tende a usarlo in modo eccessivo e spesso improprio, come in questo esempio: “Pianificare un weekend fuori porta — che si tratti di una gita in montagna, una visita a una città d’arte o una fuga al mare — richiede un’attenta organizzazione — dalla scelta della destinazione alla prenotazione dell’alloggio — per assicurarsi un’esperienza piacevole e senza stress.”
L’uso eccessivo di trattini rende il testo frammentato e difficile da seguire. Molte di queste pause potrebbero essere sostituite da virgole o punti, che renderebbero il testo subito più scorrevole.
5. Mancanza di autenticità
Questo, è in assoluto, il difetto più grosso dell’AI. L’intelligenza artificiale può descrivere perfettamente il dolore di una perdita, ma non ha mai pianto per la morte di qualcuno. Può analizzare la chimica dell’amore, ma non ha mai sentito i brividi sulla pelle guardando negli occhi la persona amata. Questo limite fondamentale si manifesta nei testi in modi sottili ma riconoscibili.
Quando un’AI descrive la gioia, tende a ricorrere a cliché come “il cuore che batte forte” . Manca quella connessione viscerale che permette a uno scrittore umano di dire invece: “Il mio cuore era una stanza in disordine. La felicità all’improvviso, come un temporale estivo“.
Le emozioni nei testi AI rimangono descrizioni di emozioni, non evocazioni genuine. È come la differenza tra leggere la ricetta di una torta e sentirne l’odore mentre cuoce, manca completamente l’esperienza sensoriale ed emotiva. È questa assenza di vissuto autentico che rende i testi AI riconoscibili quando parlano di esperienze profondamente umane, per quanto siano ben scritti.
Naturalmente, nessuno di questi elementi da solo è una prova inconfutabile che un testo sia stato generato dall’AI. Anche gli scrittori umani possono cadere in simili errori. Ma quando questi segnali iniziano ad accumularsi uno sull’altro, è il momento in cui dovrebbe scattare il campanello d’allarme.