Esiste un’enciclopedia online dove ogni voce è una bugia, ogni citazione è apocrifa, ogni nota a piè di pagina rimanda a libri che nessuno ha mai scritto, anche se sembra tutto credibile. Almeno per qualche secondo.
Halupedia: l’enciclopedia AI dove ogni voce è una bugia perfetta
Si chiama Halupedia, è costruita su allucinazioni generate dall’intelligenza artificiale, e funziona così: si scrive una parola nella barra di ricerca, si clicca su uno dei collegamenti, e un modello linguistico nel retrobottega cuce in tempo reale una voce enciclopedica usando, per ammissione stessa dei suoi creatori, il tono compassato di una casa editrice accademica dell’Ottocento.
Ogni collegamento porta a una pagina che non esiste finché qualcuno non decide di seguirla. Nel momento esatto in cui si clicca, l’articolo viene partorito dall’AI con tutti gli orpelli del caso: citazioni inventate, riferimenti bibliografici a riviste che nessuna biblioteca conserva, perfino le note a piè di pagina, perché un’allucinazione che si rispetti non lesina sui dettagli.
La home page non nasconde nulla. Lo dice apertamente: qui dentro è tutto finto. Ma basta entrare in una qualsiasi delle voci per dimenticarsene. Il linguaggio è quello giusto, la struttura pure, e gli articoli si rimandano gli uni agli altri come in una vera enciclopedia, costruendo un universo parallelo che si regge sulla coerenza interna delle sue fandonie.
I nomi propri sono cliccabili, naturalmente. È possibile approfondire la storia di chiunque, e da lì rimbalzare in altre pagine altrettanto immaginarie, in una specie di tana del Bianconiglio dove la rete dei collegamenti non finisce mai perché nasce mentre si percorre.
Gli sviluppatori non volevano un generatore di sciocchezze a caso. Volevano un generatore di sciocchezze coerenti. Per questo hanno introdotto un meccanismo di scrittura prospettica: i collegamenti verso articoli ancora da generare contengono metadati nascosti che il modello legge prima di produrre il testo, in modo da fissare date, eventi e fatti canonici dell’universo finto.
In pratica Halupedia ha un’intelligenza artificiale istruita a non contraddirsi mai. Cosa che, va detto, le riesce con un certo margine di errore. La Royal Society for Avian Enumeration risulta sciolta nel 1927 secondo la sua pagina, ma il Censimento dei Piccioni del 1887 sostiene che si sia dissolta formalmente nel 1891. Una svista che in un universo finto è praticamente una crisi costituzionale.
Vedere un modello AI applicare il registro austero della saggistica vittoriana a richieste palesemente trollesche ha sicuramente un effetto comico. Quando qualcuno prova a forzare la mano con termini razzisti o offensivi, l’AI tende a ignorarne il significato e a produrre qualcosa di goffamente innocuo nel suo stile altisonante. Non è proprio un sistema di moderazione, ma funziona.
Il paragone con Grokipedia
Inevitabile il confronto con Grokipedia, la versione anti-woke di Wikipedia voluta da Elon Musk, che però commette il peccato di citare fonti vere e tossiche, inclusi siti neonazisti, presentandole come materiale informativo legittimo. Halupedia, almeno, ha l’onestà di dichiararsi una finzione integrale. Sa di essere falsa, lo dice, e dentro questa cornice esplicita gioca le sue carte.
Il valore del progetto, ammesso che ce ne sia uno oltre il puro divertimento, sta proprio in questo gesto: mettere in vetrina l’attitudine allucinatoria dei modelli linguistici invece di nasconderla sotto la patina di autorevolezza che troppe applicazioni AI cercano di vendere.
La community che litiga sul nulla
Naturalmente esiste già un subreddit dedicato, perché qualsiasi cosa su Internet finisce in un subreddit. È lì che cominceranno i dibattiti più surreali… In un’epoca in cui la verità online vacilla, l’idea di un’enciclopedia dichiaratamente falsa risulti quasi rilassante.