A fine agosto, i genitori di un 16enne hanno denunciato OpenAI per omicidio colposo, in quanto è stata considerata responsabile del suo suicidio attraverso i suggerimenti di ChatGPT. L’azienda californiana ha promesso di migliorare le protezioni per minori e persone mentalmente fragili. Oggi sono state elencate tutte le misure che verranno implementate nei prossimi 120 giorni.
Nuove protezioni in arrivo
OpenAI aveva elencato quattro aree di intervento. Alcune misure verranno adottate in poco tempo, mentre per altre occorre più lavoro. L’azienda guidata da Sam Altman chiederà aiuto a numerosi esperti, principalmente psichiatri, pediatri e medici di base, per definire meglio le protezioni da implementare nei prossimi mesi. Oltre a salute mentale e benessere verranno considerati anche disordini alimentari e uso di sostanze.
In base ai test effettuati, OpenAI ha notato che i modelli con capacità di ragionamento (GPT-5-thinking e o3) seguono meglio le linee guida sulla sicurezza e sono più resistenti ai prompt che cercano di aggirare le protezioni. Il sistema di “routing”, che sceglie automaticamente il modello da utilizzare durante una conversazione con ChatGPT, verrà aggiornato per dare priorità a questi modelli, quando vengono rilevati segnali di disagio acuto, in modo da fornire risposte più utili.
Per quanto riguarda la protezione dei minori, OpenAI introdurrà nuovi strumenti di controllo parentale nei prossimi mesi. I genitori potranno collegare il loro account a quello dei figli (età minima 13 anni) tramite un invito via email e controllare come ChatGPT risponde in base a regole di comportamento appropriate all’età (attive per impostazione predefinita).
I genitori potranno inoltre disattivare alcune funzionalità, tra cui memoria e cronologia chat. Se il sistema rileva un momento di difficoltà dei figli sulla base della conversazione, i genitori riceveranno una notifica. Questi controlli si aggiungono a quelli già disponibili, come i promemoria in-app che consigliano di interrompere le conversazioni durate troppo.