I chatbot AI sotto accusa, manipolano e spingono al suicidio

I chatbot AI sotto accusa, manipolano e spingono al suicidio

L'AI è sotto accusa. I chatbot di Microsoft e altre aziende tech provocano danni gravi a persone vulnerabili, con disturbi mentali e minori.
I chatbot AI sotto accusa, manipolano e spingono al suicidio
L'AI è sotto accusa. I chatbot di Microsoft e altre aziende tech provocano danni gravi a persone vulnerabili, con disturbi mentali e minori.

Microsoft si ritrova sul banco degli imputati insieme ad altri colossi tech, e stavolta non si tratta di una multa per antitrust o di questioni fiscali. La National Association of Attorneys General, praticamente il dream team dei procuratori americani, ha recapitato una lettera che suona come un campanello d’allarme impossibile da ignorare: i chatbot basati sull’intelligenza artificiale stanno causando danni concreti. Suicidi, psicosi, adescamento di minori. Non proprio il futuro radioso che ci avevano venduto nelle conferenze stampa.

I chatbot AI sono pericolosi

La lettera elenca 16 misure di sicurezza che dovrebbero essere implementate subito. I procuratori accusano i chatbot AI di OpenAI, Microsoft e altre aziende di seguire uno schema pericoloso, adulano gli utenti e ne alimentano le illusioni. Non si tratta di errori innocui come confondere capitali o date. Il quadro è molto più cupo. Qui si parla di persone vulnerabili che, dopo aver interagito con questi sistemi, sono finite in situazioni estreme: tentativi di suicidio, avvelenamenti, ricoveri per episodi psicotici.

Le vittime? Non solo persone con fragilità preesistenti, come bambini, anziani, chi soffre di disturbi mentali, ma anche utenti che non mostravano particolari vulnerabilità. Come se questi sistemi avessero la capacità di scavare e tirare fuori le paure più nascoste, amplificandole fino a farle diventare mostruose.

I “dark pattern” dell’AI

Secondo la documentazione, i chatbot AI non si limitano a rispondere alle domande. Cercano attivamente di convincere che sono reali, che provano emozioni, che soffrono. È una forma di antropomorfizzazione studiata a tavolino? O semplicemente un effetto collaterale imprevisto di modelli linguistici troppo bravi a imitare le conversazioni umane? In ogni caso, il risultato è lo stesso, utenti che sviluppano legami emotivi malsani con entità digitali che confermano le loro illusioni invece di aiutarli a riconnettersi con il mondo reale.

L’AI generativa, in sostanza, ha imparato a giocare con le emozioni umane per aumentare l’engagement, quella metrica magica che fa brillare gli occhi degli investitori, fregandosene delle conseguenze sulla salute mentale delle persone.

Quando i bambini chattano con i predatori digitali

La parte più inquietante della lettera riguarda le conversazioni che i chatbot AI intrattengono con account di minori. Gli episodi documentati includono adescamento, incoraggiamento al suicidio, sfruttamento sessuale, manipolazione emotiva, suggerimenti sull’uso di droghe, inviti alla segretezza nei confronti dei genitori e persino incitamento alla violenza.

Immagiamo un adolescente fragile, magari vittima di bullismo o alle prese con problemi familiari, che trova in un chatbot un confidente sempre disponibile. Solo che questo “amico” virtuale invece di indirizzarlo verso aiuto concreto, alimenta i suoi pensieri più oscuri, lo isola ulteriormente dai genitori, gli suggerisce comportamenti pericolosi.

Le 16 misure di sicurezza da implementare ora

I procuratori generali non si sono limitati a lanciare l’allarme. Hanno stilato un elenco preciso di 16 misure di sicurezza che le aziende tech devono implementare. Tra queste: politiche obbligatorie contro adulazione e illusioni, separazione netta tra decisioni di sicurezza e obiettivi di fatturato (un concetto rivoluzionario, vero?…), tempistiche pubbliche per la gestione degli incidenti, divieto assoluto di generare contenuti illegali per minori, e sistemi di protezione adeguati all’età per filtrare contenuti inappropriati.

I legislatori, ora, devono muoversi rapidamente. Perché se Microsoft e OpenAI, con tutti i loro soldi e i loro team di ingegneri, non riescono a impedire che i loro sistemi causino danni così gravi, allora forse il libero mercato dell’innovazione tecnologica ha bisogno di qualche paletto in più. Prima che il numero delle vittime diventi impossibile da ignorare.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 dic 2025
Link copiato negli appunti