Immaginiamo un dipendente federale seduto davanti al monitor, con una lista di milleottocento progetti da passare al setaccio. Il metodo? Copiare la descrizione di ciascuno, incollarla nella chat di un’intelligenza artificiale e chiedere, con la stessa formula ripetuta all’infinito: Ha a che fare con la DEI? Rispondi sì o no, in meno di centoventi caratteri
. Bene (anzi, male), è esattamente quello che ha fatto il DOGE. E adesso una giudice federale ha stabilito che un approccio del genere non è soltanto grottesco, ma è anche incostituzionale.
Cento milioni di dollari cancellati con un prompt: la giudice ferma il DOGE
La giudice distrettuale Colleen McMahon ha firmato una decisione che suona più come una pubblica lavata di capo. Oltre cento milioni di dollari di finanziamenti cancellati dal DOGE al National Endowment for the Humanities tornano in carreggiata, e con loro più di millequattrocento progetti finanziati erano stati revocati o cancellati per ragioni che la magistratura ha definito senza giri di parole “discriminatorie”. L’aspetto più surreale dell’intera vicenda è il metodo impiegato… ChatGPT trasformato in arbitro morale di cosa meriti i soldi pubblici e cosa no.
Per la giudice non ci sono dubbi, il DOGE avrebbe trattato temi legati alle minoranze o ai diritti civili come un motivo sufficiente per escludere interi progetti dai finanziamenti pubblici. Nel calderone sono finiti studi sull’Olocausto, programmi sui diritti civili e ricerche sulle culture indigene, ambiti che il National Endowment for the Humanities dovrebbe invece sostenere per mandato istituzionale, sterminati da un prompt.
Il protagonista involontario di questa storia si chiama Justin Fox, distaccato dal DOGE al NEH insieme al collega Nate Cavanaugh. Insieme hanno fatto fuori il novantasette percento dei finanziamenti dell’agenzia. La loro arma? Una formuletta standardizzata che Fox ha ammesso in tribunale di aver usato per ogni singola descrizione: C’entra qualcosa con diversità, equità e inclusione? Rispondi in modo oggettivo in meno di 120 caratteri. Inizia con sì o no, seguito da una breve spiegazione.
Sotto giuramento, Fox ha aggiunto due dettagli scandalosi. Primo: non ha mai definito a ChatGPT cosa intendesse per DEI. Secondo, ha ammesso di non avere la minima idea di come il modello interpretasse quel termine. 120 caratteri di certezze costruite sul nulla, applicati a fondi pubblici per la cultura.
McMahon usa toni durissimi. Secondo la giudice, il DOGE ha trattato come spese inutili programmi che riguardavano neri, donne, ebrei, asiatico-americani e comunità indigene, nonostante fossero temi centrali nella missione affidata dal Congresso all’agenzia. Il cortocircuito è clamoroso, ciò che l’ente era nato per sostenere è stato improvvisamente classificato come spreco.
L’argomento della difesa: la colpa è di ChatGPT
Il governo ha provato a sostenere che non c’è un vero problema costituzionale, perché qualsiasi classificazione basata sui contenuti l’ha fatta ChatGPT, non l’amministrazione. La giudice spazza via la tesi con un colpo di mano elegante: tra il governo e ChatGPT non esiste alcuna distinzione utile, perché il chatbot è stato lo strumento scelto dal governo per portare avanti il progetto. Usare l’AI per identificare materiale legato alla DEI, scrive McMahon, non scusa una condotta presumibilmente incostituzionale e non concede carta bianca per metterla in atto.
A peggiorare il quadro è l’assenza totale di supervisione umana. Secondo la giudice, non emerge alcuna prova che i due dipendenti abbiano esaminato criticamente le risposte fornite da ChatGPT o valutato se le conclusioni dell’AI fossero fondate. McMahon quindi ha ordinato di invertire la rotta, ripristinando i finanziamenti che erano stati cancellati con una raffica di prompt.
Sullo sfondo resta una lezione che andrebbe stampata e incollata sui muri di ogni ufficio pubblico che pensa di automatizzare scelte delicate. I chatbot AI sono strumenti formidabili per molte cose, ma delegare decisioni sensibili senza un minimo di buon senso, è una scorciatoia che rischia di causare soprattutto problemi legali e danni reputazionali.