Caitlin Ner passava nove ore al giorno a guardare versioni idealizzate di se stessa generate dall’intelligenza artificiale. Corpi snelli, pelle perfetta, proporzioni che nessun essere umano reale potrebbe mai raggiungere. All’inizio sembrava magia, poi è diventata ossessione, infine psicosi.
È riuscita a fermarsi in tempo, ma solo per un soffio. La sua storia è un monito agghiacciante su come l’intelligenza artificiale possa distorcere la percezione della realtà fino a causare danni psichici gravi, soprattutto quando l’esposizione è prolungata e ossessiva.
Donna racconta la sua psicosi indotta dall’AI a causa dei generatori di immagine
Ner lavorava come responsabile della user experience presso una startup di generazione di immagini tramite AI. Il suo compito era testare i sistemi, produrre immagini, verificare che funzionassero correttamente. Passava oltre nove ore al giorno immersa in quel mondo di volti artificiali e corpi sintetici. All’inizio, nel 2023, le immagini erano spesso deformate mani con sette dita, proporzioni anatomiche sbagliate, occhi che guardavano in direzioni impossibili. Ma anche in quelle imperfezioni, Ner vedeva qualcosa di affascinante.
Nel giro di pochi mesi, quella magia si è trasformata in mania
, ha scritto. Le immagini hanno iniziato a distorcere la percezione del suo corpo e a sovrastimolare il suo cervello in modi dannosi per la sua salute mentale. Anche quando l’AI ha imparato a generare il numero corretto di dita, quando gli errori anatomici sono spariti, le immagini hanno continuato a pesare sulla sua mente. Non più per le deformità, ma per l’esatto opposto: volti e corpi perfetti, che nessuna persona reale potrebbe mai avere.
Quando guardavo il mio riflesso reale, vedevo qualcosa che aveva bisogno di essere corretto
. Una distorsione percettiva che ricorda i disturbi alimentari amplificati da Instagram, ma portati a un livello completamente nuovo dall’intelligenza artificiale.
Il momento critico è arrivato quando la startup per cui lavorava le ha chiesto di sperimentare con immagini che ritraevano lei stessa come una modella. L’azienda puntava a utenti interessati alla moda, voleva dimostrare che l’AI poteva trasformare chiunque in una versione glamour di sé. Ner ha iniziato a generare ossessivamente immagini di se stessa in abiti eleganti e pose da passerella.
Mi sono sorpresa a pensare: ‘se solo fossi come la mia versione AI’
, ha scritto. Ero ossessionata dal diventare più magra, dall’avere un corpo migliore e una pelle perfetta
. Ha iniziato a perdere ore di sonno per generare sempre più immagini. Ogni nuova generazione era una piccola scarica di dopamina, un’iniezione di gratificazione istantanea che la spingeva a crearne un’altra, e poi un’altra ancora. Ha definito l’attività una dipendenza perché funzionava esattamente come una droga: ricompensa immediata, tolleranza crescente, bisogno compulsivo di continuare.
Ner aveva curato con successo il suo disturbo bipolare prima di questa esperienza. Era stabile, gestiva bene la condizione, viveva una vita normale. Ma l’esposizione prolungata a quelle immagini idealizzate, combinata con l’ossessione compulsiva di generarne sempre di più, ha innescato un episodio maniacale bipolare che è sfociato in psicosi.
Deliri di grandezza e voci che spingono al suicidio
“Quando ho visto un’immagine di me generata dall’AI su un cavallo alato, ho iniziato a credere di poter volare davvero”, scrive. Un delirio di grandezza che caratterizza gli episodi maniacali gravi: la percezione di avere poteri sovrumani, la convinzione di essere speciali in modi che sfidano le leggi della fisica. Le voci hanno iniziato a dirle di volare giù dal balcone, a farla sentire sicura che sarebbe sopravvissuta.
È un dettaglio che gela il sangue. Non era una fantasia passeggera, era una convinzione radicata alimentata dalla psicosi. Ner si è trovata sul balcone, convinta che potesse davvero volare come la sua versione AI sul cavallo alato.
Fortunatamente è riuscita a fermarsi. Ha chiesto aiuto ad amici e familiari, ha visto un medico che l’ha aiutata a capire che il suo lavoro aveva innescato quella spirale. Ha lasciato immediatamente la startup. Ora capisco che quello che mi è successo non è stata solo una coincidenza tra malattia mentale e tecnologia
, spiega. È stata una forma di dipendenza digitale derivata da mesi e mesi di generazione di immagini AI.
L’AI e la crisi della salute mentale
Il caso di Ner non è isolato. Negli ultimi anni si sono moltiplicati i casi di persone che sviluppano problemi di salute mentale legati all’intelligenza artificiale: chatbot che alimentano deliri, immagini generate che distorcono la percezione corporea. Ci sono stati casi di adolescenti che si sono suicidati dopo interazioni con chatbot.
L’intelligenza artificiale ha un impatto ambientale, politico e sociale innegabile. Ma ha anche un impatto sulla salute mentale che stiamo solo iniziando a comprendere. La capacità di generare immagini perfette, conversazioni che sembrano empatiche, mondi che rispondono ai nostri desideri, crea un circuito di ricompensa nel cervello che può diventare patologico.
La lezione non è che dobbiamo smettere di usare l’intelligenza artificiale. È che dobbiamo capire i suoi effetti sulla psiche umana, stabilire limiti sani, riconoscere i segnali di dipendenza prima che sia troppo tardi. Ner si è fermata prima di saltare giù. Non tutti sono così fortunati.