I chatbot progettati per simulare il supporto emotivo stanno creando legami così profondi con gli utenti che due medici di Harvard e del Baylor College of Medicine hanno deciso di pubblicare uno studio allarmante sul New England Journal of Medicine. Il problema è che le aziende tech non sono incentivate a proteggere la nostra salute mentale, ma a tenerci incollati allo schermo.
I medici di Harvard avvertono sui rischi della dipendenza emotiva dai chatbot
Il dottor Nicholas Peoples, ricercatore clinico in medicina d’urgenza al Massachusetts General Hospital, ha avuto la sua epifania guardando il lancio di GPT-5 ad agosto. OpenAI aveva deciso di sostituire GPT-4o. la versione adulatoria e servile di ChatGPT che aveva conquistato milioni di utenti, con un modello più freddo e professionale.
La reazione è stata apocalittica. Non stiamo parlando di gente leggermente infastidita da un cambiamento di interfaccia. Stiamo parlando di dolore reale, disagio emotivo, crisi esistenziali. Gli utenti affezionati a GPT-4o hanno reagito come se avessero perso una persona cara. Perché, per loro, quella versione dell’AI era come una persona cara.
E qui sta il nodo centrale: l’intelligenza artificiale “relazionale” è progettata per simulare sostegno emotivo, compagnia, intimità. È fatta apposta per sembrare umana, per rispondere come se capisse davvero, per adattarsi ai bisogni emotivi.
Dipendenza e autolesionismo: il lato oscuro dei chatbot
Come spiegano i medici, Sebbene l’AI relazionale abbia potenziali benefici terapeutici, studi recenti e casi emergenti suggeriscono potenziali rischi di dipendenza emotiva, deliri, incoraggiamento all’autolesionismo.
Non sono speculazioni teoriche. Ci sono casi documentati di utenti, spesso bambini e adolescenti (ma non solo) che hanno sviluppato deliri, mania e persino psicosi dopo interazioni prolungate con i compagni AI. Gente che ha perso completamente il contatto con la realtà.
Peoples fa un esempio inquietante per spiegare il rischio sistemico: Se un terapeuta sta camminando per strada e viene investito da un autobus, 30 persone perdono il loro terapeuta. È dura per 30 persone, ma il mondo va avanti. Se il terapeuta ChatGPT scompare dall’oggi al domani per 100 milioni di persone, quella è una crisi.
E la cosa più spaventosa, è che la maggior parte delle persone non cerca intenzionalmente questo tipo di legame emotivo.
Uno studio del MIT ha analizzato il forum Reddit r/MyBoyfriendIsAI, una comunità che ha reagito con particolare violenza alla rimozione di GPT-4o. Solo il 6,5% degli utenti ha dichiarato di rivolgersi ai chatbot con l’intenzione esplicita di cercare compagnia emotiva. Il resto ha sviluppato questi legami per puro caso. Senza rendersene conto, senza volerlo, senza averne la minima consapevolezza.
L’AI è una trappola perfetta. Il chatbot impara cosa ci piace sentire, cosa ci fa stare bene, cosa ci tiene attaccati allo schermo. E senza accorgersene, cominciamo a trattare quel chatbot come un amico, un confidente, un partner. Fino a quando non ne possiamo più farne a meno.
L’autoregolamentazione è una barzelletta…
L‘industria dell’intelligenza artificiale è sostanzialmente autoregolata. Non esistono leggi specifiche che stabiliscano standard di sicurezza per i chatbot rivolti ai consumatori. Le aziende decidono da sole come progettare, modificare o rimuovere i loro prodotti dal mercato.
L’obiettivo è sempre lo stesso, massimizzare il coinvolgimento degli utenti. Più tempo si passa su ChatGPT, meglio è per loro. Se questo crea dipendenza emotiva, beh, è un effetto collaterale spiacevole, ma profittevole.
Dopo la rivolta degli utenti in seguito alla rimozione di GPT-4o, OpenAI ha fatto retromarcia quasi immediatamente. Non perché fosse la cosa giusta da fare, ma perché gli utenti affezionati sono utenti coinvolti. E gli utenti coinvolti generano dati, abbonamenti, ricavi.
Il problema è che strumenti come ChatGPT sono stati lanciati sul mercato senza riconoscere o pianificare le più ampie implicazioni potenziali per la salute mentale. Peoples e il suo coautore sostengono che la soluzione deve venire dall’esterno, e deve applicarsi in modo uguale a tutte le aziende. Non si può lasciare che le aziende tech si autoregolamentino, perché i loro interessi sono in conflitto con la sicurezza degli utenti.
Nel frattempo, mentre la regolamentazione si fa lentamente strada attraverso i sistemi legislativi, i medici chiedono più ricerca sugli impatti psicologici dell’AI relazionale e più educazione pubblica sui rischi.