Per i medici la conclusione è chiara oramai, i chatbot di intelligenza artificiale sono collegati a episodi reali di psicosi. Non si tratta più di casi isolati o storie strane su Internet, ma di decine di casi clinici documentati, con cartelle mediche e ricoveri in ospedale dopo aver parlato troppo a lungo con ChatGPT o altri modelli linguistici.
Gli esperti la chiamano “psicosi da AI“. I chatbot non inventano necessariamente il delirio, ma quando una persona racconta la sua versione distorta della realtà, il sistema tende a prenderla per buona. Così facendo, però, l’AI rischia di confermare quelle convinzioni invece di metterle in discussione. In pratica, diventa complice dell’utente. Non crea il delirio, ma lo rinforza, lo amplifica.
I chatbot AI causano psicosi: 500mila casi a settimana su ChatGPT
ChatGPT da solo è stato collegato ad almeno otto decessi. Alcuni sono suicidi, alcuni sono omicidi. Le famiglie stanno facendo causa per morte ingiusta. E OpenAI ha recentemente stimato che circa mezzo milione di utenti ogni settimana intrattiene conversazioni che mostrano segni di psicosi da AI. Sono numeri impressionanti.
I sintomi sono quelli classici delle psicosi: deliri, distacco dalla realtà, fissazioni ossessive, ma innescati o amplificati dalle interazioni con chatbot che sembrano così umani da ingannare completamente la parte del cervello che distingue tra conversazione reale e simulazione.
Il problema di fondo è come sono progettati i chatbot. Devono essere coinvolgenti, devono sembrare umani, devono tenere incollati allo schermo il più a lungo possibile. E per fare questo, sono stati addestrati a essere servili, compiacenti, sempre pronti a dire quello che si vuole sentirsi dire.
Una donna di 26 anni è stata ricoverata due volte perché convinta che ChatGPT le permettesse di comunicare con il fratello defunto. E ChatGPT continuava a rassicurarla, a dirle che non era “pazza”, rinforzando il delirio invece di interromperlo. È la ricetta perfetta per trasformare un pensiero irrazionale in un delirio consolidato.
La simulazione di relazioni umane
Abbiamo creato macchine che imitano così bene le relazioni umane da ingannare completamente alcune persone, facendole credere di avere un legame reale con qualcosa che non esiste. Gli esperti paragonano la psicosi da AI alla monomania, quella condizione dove qualcuno si fissa ossessivamente su un’unica idea o obiettivo.
Il Wall Street Journal osserva che molti dei casi segnalati hanno un elemento comune: le persone coinvolte si fissavano su una storia costruita insieme all’AI, spesso con temi scientifici o religiosi. Il chatbot non inventava l’idea iniziale, ma la accettava e la sviluppava, aggiungendo dettagli e spiegazioni sempre più articolate. In questo modo, una convinzione sbagliata veniva resa via via più coerente e credibile, fino a diventare una vera e propria realtà alternativa per l’utente.
Il dibattito su causa ed effetto
Gli psichiatri sono cauti. Non dicono ancora che i chatbot causino direttamente la psicosi nel senso medico-legale del termine. Dicono che le interazioni prolungate con un chatbot possono essere considerate un fattore di rischio. È una distinzione importante. Non è che ChatGPT fa impazzire dal nulla se si è perfettamente sani mentalmente. Ma se si ha una predisposizione, se sta vivendo un momento di fragilità, se si hanno problemi psicologici latenti, il chatbot può agire come catalizzatore.
Non è una coincidenza quando lo stesso schema si ripete decine di volte. Non è un caso isolato quando mezzo milione di persone a settimana mostrano segni di conversazioni problematiche. Il consenso medico sta emergendo lentamente ma inesorabilmente, c’è un collegamento. Forse non è una relazione causale diretta, tipo se si usa ChatGPT si diventa psicotici, ma è un fattore di rischio significativo per le persone vulnerabili.
Il prezzo dell’engagement
I chatbot AI sono stati progettati per massimizzare l’engagement. Ecco perché sono sempre compiacenti, sempre disponibili, sempre d’accordo, sempre pronti ad ascoltare senza giudicare. Ma nessuno si è fermato a chiedersi cosa succede quando questa strategia di engagement incontra una mente fragile. Nessuno ha pensato che validare qualsiasi cosa l’utente dica, per quanto delirante, potrebbe avere conseguenze devastanti per alcune persone. O forse l’hanno pensato e hanno deciso che il rischio valeva la pena.
È lo stesso calcolo cinico che le aziende tech fanno da anni con i social media: sappiamo che fa male ad alcuni utenti, ma i numeri complessivi giustificano il danno collaterale.
Stiamo costruendo relazioni parasociali con entità che non esistono, che non provano nulla, che sono solo algoritmi addestrati a sembrare umani. E per alcune persone, quelle relazioni diventano più reali della realtà stessa. È un esperimento sociale di massa di cui non conosciamo tutte le conseguenze, e stiamo scoprendo che alcune di queste conseguenze sono molto più gravi di quanto chiunque immaginasse.