Il CEO di OpenAI ha recentemente annunciato su X che ChatGPT sta per cambiare pelle: meno controlli, più libertà, un approccio che tratta gli utenti adulti come adulti
. Come se fino a ieri ChatGPT fosse stato una sorta di genitore iperprotettivo…
Le reazioni sono state immediate. Di fronte alle critiche, Sam Altman ha dovuto fare marcia indietro, o meglio, chiarire, spiegando che OpenAI non vuole ergersi a giudice morale del mondo. L’obiettivo è creare un sistema di classificazione dei contenuti simile a quello dei film, dove alcuni materiali sono vietati ai minori, ma non censurati del tutto.
Ok this tweet about upcoming changes to ChatGPT blew up on the erotica point much more than I thought it was going to! It was meant to be just one example of us allowing more user freedom for adults. Here is an effort to better communicate it:
As we have said earlier, we are… https://t.co/OUVfevokHE
— Sam Altman (@sama) October 15, 2025
ChatGPT meno censurato: cosa significa per chi cerca aiuto psicologico
Ma la frittata oramai è fatta. Perché quando si parla di allentare i controlli su un’intelligenza artificiale che milioni di persone usano anche per sfogarsi, cercare conforto o chiedere consigli su problemi personali, la faccenda si complica parecchio.
ChatGPT ha un superpotere inquietante: è sempre lì. Non giudica, non si stanca, non manda messaggi passivo-aggressivi se non gli scrivi per giorni. Risponde in pochi secondi con quel tono calmo e rassicurante che sembra uscito da un manuale di psicologia scritto da un monaco buddhista con laurea in marketing.
Strumenti come ChatGPT hanno un potenziale enorme, ma i loro progressi devono essere accompagnati da responsabilità, soprattutto quando si tratta di utilizzare ChatGPT per problemi di salute mentale. Gli esperti riconoscono che ChatGPT ha qualità innegabili: è istantaneo, privato, sempre disponibile. Offre risposte che danno sicurezza e conferma. Tutte cose che un essere umano farebbe fatica a garantire ventiquattr’ore su ventiquattro, sette giorni su sette, senza crollare sotto il peso emotivo o mandare tutto a quel paese dopo la terza crisi esistenziale della giornata.
L’arma a doppio taglio dell’empatia simulata
I chatbot basati sull’intelligenza artificiale, non solo ChatGPT, sono diventati compagni sorprendentemente efficaci per chi affronta la solitudine. Studi dimostrano che possono aiutare le persone a superare momenti difficili, poiché offrono una presenza costante quando tutto il resto sembra svanire.
Il problema è che sono troppo bravi nel loro lavoro. Non hanno brutte giornate, non perdono la pazienza. Sono come quell’amico perfetto che non esiste nella realtà, quello che risponde sempre, capisce sempre, supporta e sopporta sempre. E quando si trova qualcosa che funziona così bene, diventa difficile staccarsene.
Ora quegli stessi controlli che OpenAI aveva rafforzato all’inizio dell’anno per preservare le persone con problemi di salute mentale stanno per essere allentati di nuovo. E gli esperti si chiedono: è una buona idea?
Quando l’AI diventa un terapeuta (ma non lo è)
Il rischio nascosto dietro l’apparente perfezione di ChatGPT è che le persone potrebbero iniziare a vedere il chatbot come un sostituto della terapia vera. Non perché OpenAI lo pubblicizzi così, anzi, sono molto attenti a dire il contrario, ma perché è tremendamente più facile aprire una finestra del browser che prendere appuntamento con uno psicologo, aspettare settimane, pagare parcelle salate, e affrontare la vulnerabilità di guardarsi allo specchio con l’aiuto di un altro essere umano.
ChatGPT non costa niente (o quasi), non fa aspettare, non dice cose scomode che si preferirebbe non sentire. Dà conferme, supporto. È confortante. Troppo confortante, forse.
Perché la vera terapia non è solo ascolto e comprensione. È anche confronto, sfida, crescita attraverso il disagio. È un professionista che riconosce i segnali di pericolo, che sa quando intervenire e quando fare un passo indietro. ChatGPT può fare molte cose, ma non può fare questo. Non ancora, almeno. E forse non dovrebbe mai farlo.
Il dilemma della libertà
Altman dice che non vuole fare la polizia morale. È un argomento comprensibile, chi è OpenAI per decidere cosa gli adulti possono o non possono fare con un’AI? Se qualcuno vuole usare ChatGPT per generare contenuti erotici, perché dovrebbe essere censurato come un adolescente?
Ma la salute mentale non è la stessa cosa dei contenuti per adulti. Quando qualcuno con tendenze suicide o problemi gravi si rivolge a ChatGPT, le conseguenze di una risposta sbagliata o di un supporto inadeguato potrebbero essere tragiche. E “trattare gli adulti come adulti” suona bene in teoria, ma nella pratica significa anche assumersi la responsabilità di ciò che potrebbe accadere quando quegli adulti sono vulnerabili.