Immaginiamo di scrollare X, imbatterci in una notizia che puzza di fake a chilometri di distanza e pensare: Qualcuno dovrebbe scrivere una Community Note
. Bene, adesso quel qualcuno potrebbe essere l’intelligenza artificiale…
Attenzione alle Community Notes su X: ora le scrive anche Grok
X ha appena lanciato le “note collaborative“, dove l’AI scrive la prima bozza delle Community Notes e gli umani si limitano a dare un’occhiata, aggiustare il tiro, magari aggiungere un pizzico di sale. Il tutto orchestrato da Grok, il chatbot di casa Musk che già si fa invocare nei thread come un oracolo con la sintassi “@grok, è vero?”.
Questa non è la prima incursione dell’AI nel mondo delle Community Notes. L’anno scorso X aveva già lanciato un programma pilota per sviluppatori esterni, permettendo loro di creare scrittori automatici dedicati. Keith Coleman, il responsabile delle Community Notes, racconta con un certo orgoglio che uno di questi autori artificiali ha sfornato oltre 1.000 note giudicate utili dalla comunità.
La differenza con le note collaborative è sostanziale. Quando un contributore (rigorosamente umano, per ora) richiede una nota su un post sospetto, il sistema non si limita a registrare la segnalazione. Attiva immediatamente Grok, che redige una bozza. Gli altri contributori possono poi valutarla, suggerire modifiche, affinare la forma.
Secondo Coleman le note collaborative dovrebbero migliorare man mano che arrivano feedback. Il sistema analizza i suggerimenti, valuta se la nuova versione rappresenta un salto di qualità e decide autonomamente se pubblicare l’aggiornamento. Ma basta fare un giretto su X per trovare esempi di Grok che perde completamente il contatto con la realtà, sparando risposte surreali, inventandosi fatti o semplicemente capendo fischi per fiaschi. Le “allucinazioni” dei modelli linguistici sono un problema noto. E ora X vuole affidargli il compito delicato di fact-checking pubblico.
Velocità contro accuratezza: il dilemma delle Community Notes
Uno dei talloni d’Achille delle Community Notes è sempre stato il tempo. Il sistema funziona bene quando funziona, ma spesso arriva tardi. Una bufala può fare il giro della piattaforma, accumulare milioni di visualizzazioni e cristallizzarsi nella mente delle persone prima che qualcuno pubblichi una nota di correzione. L’AI, in teoria, potrebbe risolvere questo collo di bottiglia.
Ma c’è un “ma”. La velocità senza accuratezza non vale un fico secco. E se Grok iniziasse a sfornare note sbagliate, fuorvianti o parziali? Chi controlla il controllore?
Per ora, X ha messo dei paletti, solo i Top Writer, i contributori con status elevato e track record comprovato, possono attivare le note collaborative. Una sorta di filtro umano per evitare il caos totale. L’azienda promette di estendere gradualmente l’accesso più avanti.
Coleman lascia intendere che, se l’esperimento funzionerà, il modello potrebbe allargarsi anche alle API esterne, permettendo ad altri sviluppatori di integrare questo ciclo di feedback nei loro scrittori AI. Ma il rischio vero non è solo che Grok sbagli, è che le persone inizino a fidarsi ciecamente delle note scritte dall’AI.
X sta giocando una partita complicata: da una parte vuole accelerare il fact-checking e rendere la piattaforma meno tossica (almeno sulla carta), dall’altra rischia di creare un mostro di Frankenstein dove l’AI sostituisce progressivamente il giudizio umano in ambiti dove il giudizio umano è esattamente ciò che serve.