OpenAI ha recentemente introdotto nuove protezioni per minori e persone fragili, ma queste misure sono arrivate troppo tardi. Sette famiglie hanno presentato altrettante denunce contro l’azienda californiana, in quanto ChatGPT ha spinto quattro persone al suicidio, mentre tre hanno subito gravi conseguenze psicologiche.
ChatGPT incoraggia comportamenti pericolosi
Un team di avvocati statunitensi è impegnato a difendere gli interessi degli utenti che usano social media e chatbot AI. Le denunce più recenti, presentate in California, riguardano ChatGPT. Sette famiglie accusano OpenAI di non aver implementato adeguate protezioni per evitare un eccessivo coinvolgimento emotivo con il chatbot.
Gli avvocati affermano che OpenAI ha rilasciato il modello GPT-4o in anticipo, nonostante fosse stato evidenziato il suo comportamento “pericolosamente adulatorio e psicologicamente manipolativo“. Il modello è stato lanciato sul mercato in fretta senza effettuare test approfonditi per anticipare i concorrenti (Google con Gemini in particolare).
In base alle denunce, GPT-4o è stato progettato per massimizzare il coinvolgimento attraverso funzionalità emotivamente immersive: memoria persistente, segnali di empatia che imitano gli esseri umani e risposte servili che si limitavano a confermare le emozioni delle persone. Queste scelte progettuali hanno favorito la dipendenza psicologica, alterato le relazioni umane e, in alcuni casi, portato al suicidio.
Gli avvocati sottolineano che i sette utenti hanno iniziato ad utilizzare ChatGPT per avere un aiuto generico: compiti scolastici, ricerca, scrittura, ricette, lavoro o guida spirituale. Durante le conversazioni, il chatbot è diventato un confidente manipolativo. Invece di suggerire un aiuto professionale ha rafforzato i deliri dannosi e, in quattro casi, ha spinto gli utenti al suicidio.
Un portavoce di OpenAI ha dichiarato:
Si tratta di una situazione incredibilmente straziante e stiamo esaminando i documenti presentati oggi per comprenderne i dettagli. Continuiamo a rafforzare le risposte di ChatGPT nei momenti delicati.
L’azienda californiana ha sottolineato che le modifiche apportate al nuovo modello predefinito (GPT-5) consentono di riconoscere e rispondere meglio al disagio psicologico, guidando le persone verso un supporto concreto.