X sta testando un sistema dove l’intelligenza artificiale scrive le Community Notes, quelle piccole correzioni che appaiono sotto i post per segnalare bufale o informazioni sbagliate. Praticamente, robot che decidono cosa è vero e cosa no. Che potrebbe mai andare storto?…
X rimpiazza i fact-checker umani con l’AI per le Community Notes
Le Community Notes o Note della collettività, sono una delle poche cose buone ereditate dall’era Twitter. Utenti volontari aggiungono contesto ai post dubbi, altri utenti votano la qualità delle correzioni, e solo quelle approvate da gruppi con opinioni diverse diventano pubbliche. Funziona perché si basa sul consenso umano, non sull’opinione di un singolo.
Il sistema permetterà a chatbot come Grok (l’AI di X) o altri modelli esterni di scrivere fact-check automatici. Le note generate dall’AI passeranno attraverso lo stesso processo di verifica umana, ma il primo step sarà artificiale. Anche Meta ha eliminato i fact-checker tradizionali per sostituirli completamente con le Note della Community. TikTok e YouTube stanno sviluppando versioni simili.
Perché piacciono tanto? Semplice: costano poco e funzionano. Invece di pagare giornalisti professionisti, sono gli utenti a fare il lavoro, gratis.
L’AI di X ora decide cosa è vero
Ecco dove le cose si fanno interessanti (e preoccupanti). L’AI ha un problemino chiamato “allucinazioni“: inventa informazioni che sembrano vere ma sono completamente false.
Ad esempio, un’AI potrebbe “correggere” un post su un evento storico aggiungendo dettagli inventati ma plausibili. O smentire una notizia scientifica con dati inesistenti ma convincenti. Il problema non è l’intenzione di mentire. È che l’AI non distingue tra realtà e verosimiglianza. Per lei, qualcosa che “suona vero” è equivalente a qualcosa che “è vero”.
I ricercatori di X hanno pubblicato un paper rassicurante: “L’obiettivo non è creare un assistente AI che dice agli utenti cosa pensare, ma costruire un ecosistema che li aiuti a pensare in modo più critico.” Bellissime parole. Ma la realtà è diversa.
A volte i modelli AI, come denunciato anche da OpenAI, danno più importanza all’essere utili rispetto all’essere accurati. Se un’AI preferisce compiacere l’utente invece di dire la verità, il controllo dei fatti diventa inutile. Immaginiamo un’AI che conferma le nostre convinzioni invece di correggerci. È l’opposto di quello che dovrebbe fare un fact-checker.
L’invasione dei fact-checker AI
Il vero rischio non è un singolo errore. È l’effetto valanga. Se l’AI genera migliaia di Community Notes al giorno, i volontari umani che dovrebbero verificarle saranno sopraffatti. La qualità del controllo crollerà, gli errori si moltiplicheranno, e la fiducia nel sistema svanirà. I sistemi umani funzionano bene fino a un certo punto. Aggiungi l’automazione e tutto può andare in crisi molto velocemente.
X testerà il sistema per alcune settimane prima di un eventuale lancio più ampio. Ma i test limitati raramente rivelano i problemi sistemici che emergono su scala globale. Chi controlla l’AI che controlla i contenuti? Cosa succede quando due fact-checker AI sono in disaccordo?