ChatGPT avrà un contatto di fiducia per le crisi psicologiche

ChatGPT avrà un contatto di fiducia per le crisi psicologiche

ChatGPT permetterà agli utenti di indicare una persona cara da avvisare in caso di crisi psicologica. La novità arriva dopo diverse cause legali.
ChatGPT avrà un contatto di fiducia per le crisi psicologiche
ChatGPT permetterà agli utenti di indicare una persona cara da avvisare in caso di crisi psicologica. La novità arriva dopo diverse cause legali.

OpenAI ha 900 milioni di utenti settimanali su ChatGPT. Secondo le stime interne dell’azienda, molti di loro mostrano segnali di crisi, ideazione suicidaria, psicosi, ecc. La risposta dell’azienda è una funzione che consente di indicare un contatto di fiducia, qualcuno che viene avvisato se il sistema rileva che qualcosa non va. Non un avvertimento prima di usare il prodotto, né un limite all’uso prolungato, ma solo un numero da chiamare quando la situazione potrebbe già essere fuori controllo.

ChatGPT avviserà una persona cara se si è in crisi, come funziona

I dettagli sono scarsi. OpenAI ha annunciato la funzione la settimana scorsa in un post sul blog, descrivendola come un aggiornamento sul nostro lavoro legato alla salute mentale. La funzione permetterà agli utenti adulti di indicare qualcuno che riceverà notifiche quando potrebbero aver bisogno di supporto aggiuntivo.

L’azienda non ha ancora definito cosa attiverà concretamente l’allarme. Un utente dovrebbe dichiarare esplicitamente l’intenzione di farsi del male? Oppure il sistema cercherà segnali meno espliciti, come indizi di mania, deliri, psicosi? È una domanda di policy molto complessa, a cui OpenAI non ha ancora dato una risposta.

La funzione è destinata agli adulti, distinta dai controlli parentali e dagli strumenti per la protezione dei minori. OpenAI sta lavorando a stretto contatto con il suo Council on Well-Being and AI e il Global Physicians Network, due gruppi di esperti creati internamente dopo che le segnalazioni di crisi mentali legate all’AI hanno cominciato ad accumularsi, e dopo la notizia del suicidio di Adam Raine, un utente sedicenne di ChatGPT, emersa in una causa legale l’agosto scorso.

Il paradosso del consenso

C’è però un problema di fondo che nessuna funzione può risolvere facilmente. Molte persone usano ChatGPT per parlare di pensieri che non vogliono condividere con nessun altro. Per alcuni, il chatbot è più accessibile e meno intimidatorio di un terapeuta in carne e ossa. Per altri, è l’unico interlocutore con cui si sentono al sicuro nel rivelare idee deliranti o pensieri pericolosi, proprio perché non è un essere umano.

Se un utente parla con ChatGPT di cose che non vuole dire a nessuno, è poco probabile che attivi volontariamente una funzione che avvisa qualcun altro. E se il sistema di monitoraggio interno di OpenAI rileva che un utente è in crisi, ma quell’utente non ha indicato un contatto di fiducia, cosa se ne fa l’azienda di quella informazione?

Ancora oggi, OpenAI non avverte i nuovi utenti di ChatGPT che l’uso intensivo potrebbe avere effetti negativi sulla salute mentale. Il contatto di fiducia presuppone che l’utente sappia già che i chatbot possono rappresentare un rischio, e che voglia essere monitorato. È sicuramente un passo avanti, ma resta la sensazione che le misure di sicurezza di OpenAI arrivino sempre dopo… dopo le crisi, le cause legali, dopo le morti, e mai prima.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 mar 2026
Link copiato negli appunti