Meta, la società madre di Facebook, WhatsApp e Instagram, è al centro di diverse denunce in 11 Paesi europei, tra cui l’Italia. L’azienda, infatti, è accusata di voler utilizzare i dati degli utenti in modo improprio per addestrare i suoi modelli AI.
L’associazione NYOB lancia l’allarme
Le denunce provengono dall’associazione NYOB, nota per la sua lotta attiva contro quelli che considera pericolosi abusi della privacy degli utenti di Internet. L’organizzazione chiede un intervento “urgente” da parte delle autorità competenti per impedire che Meta modifichi la sua politica sulla privacy.
Max Schrems, fondatore della ONG, ha espresso preoccupazione riguardo alle modifiche proposte, sostenendo che Meta potrebbe utilizzare “qualsiasi dato da qualsiasi fonte per qualsiasi scopo e renderlo accessibile a chiunque nel mondo“, a condizione che ciò avvenga tramite “tecnologia AI“.
Secondo il NYOB, Meta potrebbe prendere tutti i dati raccolti dalle sue piattaforme dal 2007 e utilizzarli come parte di una “tecnologia AI sperimentale senza limiti” il cui scopo non è specificato. Questo potrebbe includere un semplice bot, pubblicità aggressive e personalizzate o addirittura droni assassini. L’associazione ritiene che Meta non sia conforme al RGPD e che le sue azioni siano quindi illegali.
La questione solleva importanti interrogativi sulla privacy degli utenti e sulla necessità di un consenso chiaro per l’uso dei loro dati. Facebook, essendo una fonte quasi inesauribile di informazioni, rappresenta una risorsa preziosa per l‘addestramento dei modelli di intelligenza artificiale di Meta. Tuttavia, il consenso dell’utente non sembra essere chiaramente richiesto, sollevando preoccupazioni riguardo alla trasparenza e alla protezione dei dati personali.
Prossimi passi e azioni legali
L’associazione NYOB ha annunciato che avvierà un nuovo procedimento in Europa nei prossimi giorni per affrontare la questione. Resta da vedere come le autorità competenti risponderanno alle denunce e se interverranno per impedire a Meta di modificare la sua politica sulla privacy.
La vicenda mette in luce la necessità di un dibattito più ampio sull’uso dei dati personali per l’addestramento dell’intelligenza artificiale e sulla responsabilità delle aziende tech nel garantire la privacy e la trasparenza.