Chatbot AI e suicidi: la FTC indaga sull'impatto sui minori

Chatbot AI e suicidi: la FTC indaga sull'impatto sui minori

La FTC ordina a sette aziende AI, tra cui OpenAI e Meta, di fornire i dati sull'impatto dei chatbot sui minori, dopo i casi di suicidio.
Chatbot AI e suicidi: la FTC indaga sull'impatto sui minori
La FTC ordina a sette aziende AI, tra cui OpenAI e Meta, di fornire i dati sull'impatto dei chatbot sui minori, dopo i casi di suicidio.

La Federal Trade Commission ha appena lanciato un’indagine sull’impatto dei chatbot AI sui minori. Sette giganti della tecnologia, tra cui OpenAI, Meta, Snap, Alphabet, xAI e Character.AI, dovranno fornire dettagli su come i loro chatbot interagiscono con bambini e adolescenti.

L’obiettivo è capire se questi “compagni virtuali” siano davvero sicuri per gli utenti più giovani, e come le aziende intendano gestire i rischi emotivi e psicologici legati a queste interazioni.

Chatbot AI e minori: la FTC chiede trasparenza alle Big Tech

Le aziende avranno molte cose da spiegare… Come monetizzano le conversazioni con gli utenti; quali strategie usano per fidelizzare i più giovani; quali misure adottano per prevenire danni psicologici; come informano gli utenti sui rischi; e se rispettano le normative sulla privacy dei minori.

La richiesta rientra in uno studio conoscitivo, ma la FTC ha chiarito che non esiterà ad intervenire se emergessero violazioni gravi.

L’indagine arriva dopo alcuni episodi tragici. Un sedicenne californiano ha condiviso i suoi pensieri suicidi con ChatGPT, ricevendo, secondo quanto riportato dal New York Times, consigli che lo avrebbero aiutato a mettere in atto il gesto. Un altro caso riguarda un quattordicenne in Florida, che si è tolto la vita dopo settimane di interazioni con un chatbot di Character.AI.

Questi eventi hanno sollevato interrogativi urgenti sulla responsabilità delle aziende e sull’efficacia delle protezioni attuali.

Verso nuove regole

Nel frattempo, l’assemblea legislativa della California ha approvato un disegno di legge che impone standard di sicurezza per i chatbot destinati ai minori. Le aziende dovranno garantire sistemi di controllo, limitazioni tematiche e trasparenza nell’uso dei dati. Un primo passo verso una regolamentazione più severa, che potrebbe presto estendersi a livello federale (e speriamo in tutto il mondo).

Fonte: FTC
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 set 2025
Link copiato negli appunti