La FTC (Federal Trade Commission) degli Stati Uniti ha ordinato a sette aziende di fornire informazioni sulle misure implementate per valutare l’impatto negativo dei chatbot AI su bambini e adolescenti. L’agenzia governativa vuole verificare il rispetto del Children’s Online Privacy Protection Act (COPPA). Quasi contemporaneamente, il senatore Ted Cruz (repubblicano) ha presentato un disegno di legge per facilitare lo sviluppo delle nuove tecnologie AI.
I chatbot non sono sicuri per i minori
Negli ultimi mesi sono accaduti diversi eventi tragici a causa dell’interazione prolungata con i chatbot. I genitori di un 16enne californiano hanno denunciato OpenAI in seguito al suicidio del figlio. L’azienda guidata da Sam Altman ha annunciato nuove protezioni, ma potrebbero non essere sufficienti per ottenere l’approvazione della ristrutturazione.
Un altro suicidio (un 14enne della Florida) è avvenuto in seguito all’interazione con i “compagni virtuali” di Character.AI. Meta ha invece permesso conversazioni romantiche con i minori. L’azienda di Menlo Park ha promesso modifiche ai modelli AI. I Procuratori generali di 44 stati hanno avvisato 12 aziende sulle conseguenze delle azioni dei rispettivi chatbot. Ora è intervenuta la FTC.
La commissione sottolinea che i chatbot sono progettati per comunicare come un amico o confidente, quindi bambini e adolescenti possono instaurare una relazione “quasi umana”. In base all’ordine inviato a sette aziende (Alphabet/Google, Character.AI, Instagram, Meta, OpenAI, Snap e xAI) devono essere fornite informazioni su come viene limitato l’impatto negativo sui minori.
Le aziende devono inoltre comunicare (entro il 25 settembre) se l’interazione con i chatbot viene monetizzata, se i genitori sono informati e se i dati degli utenti vengono condivisi con terze parti. In caso di violazione del COPPA, la FTC avvierà un’indagine formale.
Esenzione per le aziende AI?
Il senatore repubblicano Ted Cruz ha presentato un disegno di legge che sembra in contraddizione con l’intervento della FTC. In base al SANDBOX Act, le aziende possono sviluppare nuove tecnologie AI con meno controlli federali. L’esenzione verrebbe applicata per un periodo di due anni, prorogabile fino a dieci.
Le aziende dovranno però comunicare le misure per mitigare i rischi per la sicurezza. Secondo Public Citizen, se approvata dal Congresso, la legge permetterebbe di violare le altre norme in vigore (anche a livello statale) sfruttando la “scusa” dell’innovazione.