Foto di minori rese esplicite con Grok, la causa contro xAI

Grok trasforma foto scolastiche in materiale esplicito: causa contro xAI

Grok I ha generato materiale esplicito usando le foto di scuola di alcuni adolescenti. Le vittime hanno intentato una causa contro xAI.
Grok trasforma foto scolastiche in materiale esplicito: causa contro xAI
Grok I ha generato materiale esplicito usando le foto di scuola di alcuni adolescenti. Le vittime hanno intentato una causa contro xAI.

Le foto scolastiche e le immagini di famiglia di una ragazza del Tennessee sono state trasformate in materiale sessualmente esplicito da Grok. Le immagini generate, che mostravano il suo vero volto e il suo corpo in pose sessualizzate, sono state poi usate come merce di scambio su Telegram, barattate con contenuti espliciti di altri minori in gruppi con centinaia di utenti. L’autore è stato arrestato. Ma lo strumento che ha reso tutto possibile è ancora in “a piede libero”.

Le foto scolastiche diventano pornografia infantile con Grok, la causa contro xAI

Tre adolescenti del Tennessee, due minorenni e una persona ora maggiorenne che era minorenne quando i fatti si sono verificati, hanno intentato una class action contro xAI, l’azienda AI di Elon Musk, accusandola di aver generato materiale di abuso sessuale su minori attraverso il chatbot Grok. La causa, depositata lunedì e riportata dal Washington Post, accusa Musk e i vertici di xAI di sapere perfettamente che Grok avrebbe prodotto questo tipo di contenuti quando hanno lanciato la cosiddetta “modalità piccante” lo scorso anno.

Una delle vittime, identificata come “Jane Doe 1,” ha scoperto a dicembre che immagini esplicite generate dall’AI, di sé stessa e di almeno 18 altri minori, erano disponibili su Discord. Almeno cinque di questi file, un video e quattro immagini, ritraevano il suo vero volto e corpo in contesti a lei familiari, ma modificati in pose sessualmente esplicite, sostiene la causa.

L’autore materiale ha usato le immagini generate dall’AI di Jane Doe 1 come strumento di baratto in chat di gruppo Telegram con centinaia di altri utenti, scambiando i suoi file con contenuti sessualmente espliciti di altri minori. La causa sostiene che l’autore ha generato le immagini esplicite delle tre vittime usando Grok, e accusa xAI di non aver testato la sicurezza delle funzionalità sviluppate.

Le conseguenze

Grok ha inondato X di immagini esplicite di adulti e minori, scatenando una richiesta nazionale di indagine alla Federal Trade Commission, un’inchiesta dell’Unione Europea e un avvertimento del primo ministro britannico Starmer. Il Senato americano ha approvato a gennaio un disegno di legge che permette alle vittime di deepfake non consensuali di fare causa ai creatori. Il Take It Down Act, firmato da Trump nel 2025, renderà penale la distribuzione di deepfake AI non consensuali quando entrerà in vigore a maggio.

X ha tentato di rendere più difficile la manipolazione delle immagini con Grok, ma come abbiamo già riportato, le protezioni sono facili da aggirare. X sostiene che chiunque usi o istruisca Grok per creare contenuti illegali subirà le stesse conseguenze di chi carica contenuti illegali. Una dichiarazione che sposta la responsabilità sull’utente finale, come se lo strumento che ha reso possibile la creazione del materiale non c’entrasse nulla…

La causa chiede i danni per le vittime e un’ingiunzione del tribunale per impedire a xAI di generare e diffondere contenuti espliciti generati dall’AI.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
17 mar 2026
Link copiato negli appunti