Meta AI spia già 500 milioni di persone nel mondo

Meta AI spia già 500 milioni di persone nel mondo

Meta AI sta raccogliendo già i dati di 500 milioni di persone nel mondo, anche informazioni sensibili, per la profilazione pubblicitaria.
Meta AI spia già 500 milioni di persone nel mondo
Meta AI sta raccogliendo già i dati di 500 milioni di persone nel mondo, anche informazioni sensibili, per la profilazione pubblicitaria.

Oggi molti di noi usano i chatbot AI per cercare informazioni come farebbero con Google. Alcuni si spingono addirittura un po’ troppo oltre, rivelando informazioni che dovrebbero rimanere nella sfera dell’intimità.

AI e riservatezza non camminano proprio a braccetto. Ormai sappiamo perfettamente che ciò che otteniamo in cambio delle conversazioni con questi chatbot non è mai gratuito. Ma non tutti i chatbot sono uguali. Surfshark, una società di cybersicurezza specializzata in VPN, ha analizzato le pratiche dei dieci principali assistenti AI presenti sul mercato. Il verdetto: prendono molto più di quanto danno. In cima alla lista c’è un chiaro campione: Meta AI.

Meta AI spia milioni di persone nel mondo

Il grafico pubblicato da Surfshark, mostra che Meta AI sta letteralmente schiacciando la concorrenza. Mentre la maggior parte degli assistenti analizzati raccoglie in media 13 tipi di dati, Meta ne raccoglie 32 su 35 possibili. Quando si tratta di raccogliere dati personali, il gigante di Menlo Park non ha rivali… Purtroppo, non stiamo parlando solo di dati tecnici. Stiamo parlando di tutto ciò che ci identifica – il nostro DNA digitale, in breve: nome, indirizzo, cronologia di navigazione, contenuti generati, interazioni e posizione geografica.

Un altro aspetto inquietante è che raccoglie anche dati altamente sensibili, dati su cui la maggior parte degli altri competitor non osa metterci le mani: stato di salute, situazione finanziaria, orientamento sessuale, credo religioso, opinioni politiche, persino dati biometrici. L’intero pacchetto!

A differenza di altre AI, che si accontentano di utilizzare questi scambi per migliorare i loro modelli, Meta si riserva anche il diritto di condividere questi dati con terzi, in particolare per inviare pubblicità mirata. Che sorpresa! Meta non è mai stata una buona allieva quando si tratta di riservatezza, e dall’anno scorso è oggetto di diverse denunce.

Meta AI è l’unica intelligenza artificiale che tocca praticamente tutte le categorie di dati sensibili e li usa per scopi commerciali. Gemini si avvicina parecchio. Anche Google raccoglie 22 tipi di dati diversi, posizione GPS e contatti compresi, ma non arriva ai livelli di Meta. Il punto è questo: ogni volta che chiacchieriamo con Meta AI, le nostre parole finiscono dritte nel tritacarne pubblicitario. Tutto quello che diciamo viene masticato e sputato fuori sotto forma di profilo commerciale da vendere al miglior offerente.

Non è una sorpresa: Meta non ha mai campato vendendo app carine, ma sulla raccolta e lo sfruttamento massiccio di dati grezzi. Che si usi regolarmente WhatsApp per telefonare, Facebook o Instagram: si sta alimentando la stessa macchina.

Assistenti AI, macchine per la profilazione

ChatGPT se la cava un po’ meglio. Il famoso chatbot di OpenAI si limita a dieci tipi di dati raccolti su trentacinque e offre una funzione di conversazione temporanea, presumibilmente per limitare la persistenza degli scambi nella sua memoria. Perché sì, ChatGPT ha una memoria lunga, lunga da aprile!

All’altra estremità del grafico, ci sono anche alcuni operatori che destano preoccupazione. DeepSeek, ad esempio, ospita i suoi dati in Cina, un paese in cui l’accesso alle informazioni personali può essere richiesto dallo Stato senza un ordine del tribunale e in cui le garanzie offerte agli utenti stranieri sono teoriche nel migliore dei casi. Inoltre, l’azienda è già stata coinvolta in una serie di incidenti di sicurezza che, insieme alla sua politica aggressiva di raccolta dei dati, sono fonte di grande preoccupazione.

Naturalmente Meta non è sola in questa corsa alla profilazione. Anche altri chatbot come Jasper, Poe e Copilot raccolgono dati, a volte per scopi di tracciamento pubblicitario. Le informazioni che recuperano (identificatori di dispositivi, cronologia di utilizzo, dati comportamentali) possono essere incrociate con quelle di altre piattaforme, rivendute ai data broker o utilizzate per esporre l’utente a pubblicità personalizzate.

L’AI sicura non esiste

Quello che emerge dallo studio di Surfshark è semplice: l’AI perfetta per la privacy non esiste. Ci sono solo aziende che fanno le cose in modo diverso: alcune raccolgono meno dati, ma poi si perdono in politiche sulla privacy poco chiare; altre puntano a essere più trasparenti, ma operano in aree grigie dal punto di vista normativo.

Il punto è che tutte le AI conversazionali, ChatGPT, Gemini, Meta AI, vivono dei nostri dati personali. È il loro pane quotidiano. L’idea di un’intelligenza artificiale “etica” al momento dipende solo da due cose: la buona fede delle aziende, oppure leggi che le costringano a comportarsi bene. E né l’una né l’altra stanno funzionando granché.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
23 mag 2025
Link copiato negli appunti