Immagini di bambini usate per addestrare l'AI: la denuncia

Immagini di bambini usate per addestrare l'AI: la denuncia

Secondo un rapporto di Human Rights Watch, alcuni strumenti AI sono stati addestrati con le immagini di bambini prese da Internet, senza consenso.
Immagini di bambini usate per addestrare l'AI: la denuncia
Secondo un rapporto di Human Rights Watch, alcuni strumenti AI sono stati addestrati con le immagini di bambini prese da Internet, senza consenso.

Dietro le straordinarie potenzialità dell’intelligenza artificiale si cela un elemento comune a tutti gli strumenti che ne fanno uso: la necessità di “allenarsi” utilizzando un’enorme mole di dati. Internet rappresenta, in tal senso, una fonte inesauribile di informazioni. Sempre più aziende e servizi, come Slack, Google e Adobe, non nascondono le proprie ambizioni: ciò che gli utenti condividono online potrebbe essere utilizzato per l’addestramento dei loro sistemi AI.

Denunce e preoccupazioni sulla privacy

Queste pratiche hanno suscitato l’intervento di associazioni per la tutela della privacy degli utenti, che hanno presentato denunce in diversi Paesi europei. La situazione diventa ancor più critica quando i dati utilizzati dalle sistemi AI vengono utilizzati senza consenso, specialmente quando si tratta di categorie vulnerabili come i bambini. Human Rights Watch ha condotto un’indagine in merito, portando alla luce scoperte allarmanti per i genitori.

LAION-5B: un database di immagini sotto accusa

L’analisi si concentra su LAION-5B, un database creato dall’organizzazione non-profit tedesca LAION, liberamente accessibile e contenente 5,85 miliardi di foto con relative didascalie. Diversi strumenti AI, come il generatore di immagini Stable Diffusion di Stability AI, attingono da questa risorsa. Human Rights Watch ha scoperto che LAION-5B include link a immagini di bambini brasiliani, ottenute illegalmente e senza consenso, corredate da informazioni personali dettagliate.

Violazione della privacy e rischi per i minori

Una delle foto rinvenute ritrae una bambina di 2 anni che tocca le dita della sorellina appena nata, un momento intimo che la famiglia non avrebbe voluto condividere pubblicamente. L’immagine riporta anche i nomi dei bambini e l’indirizzo esatto dell’ospedale dove la madre ha partorito 9 anni prima. La maggior parte delle foto erano online anni prima della creazione di LAION-5B e sono state raccolte da blog personali, siti dedicati alla maternità e persino da video su YouTube, originariamente pensati per essere condivisi solo con amici e familiari.

Le foto di bambini utilizzate per addestrare gli strumenti AI possono essere impiegate per scopi illeciti. L’intelligenza artificiale è in grado di riprodurre le immagini che le vengono fornite, esponendo potenzialmente i minori presenti nel database LAION-5B al rischio di essere sfruttati per creare deepfake a scopo di molestia.

In Brasile, almeno 85 ragazze hanno denunciato di essere state molestate da compagni di classe che hanno utilizzato strumenti AI per creare deepfake sessualmente espliciti a partire da foto dei loro profili sui social network, diffondendo poi queste immagini false online.

Necessità di una regolamentazione specifica

LAION ha dichiarato di aver rimosso i link incriminati dal suo database, sottolineando la responsabilità di bambini e genitori nella pubblicazione di foto online. Human Rights Watch chiede tuttavia misure più incisive, tra cui l’introduzione di una legislazione specifica. Secondo Hye Jung Han, proteggere fin d’ora la privacy dei dati dei minori contribuirà a orientare lo sviluppo dell’AI generativa verso la promozione, anziché la violazione, dei diritti dei bambini.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
10 giu 2024
Link copiato negli appunti