L’intelligenza artificiale è assetata, e non di conoscenza. Ma di acqua, quella che serve per raffreddare i server che ospitano i modelli linguistici e impedire che si trasformino in forni industriali. Uno studio dell’Agenzia Internazionale dell’Energia ha quantificato il fenomeno e i numeri sono impressionanti. Nel 2023, l’AI ha consumato 560 miliardi di litri d’acqua. Per mettere questa cifra in prospettiva, è più del consumo di acqua in bottiglia dell’intera umanità nello stesso periodo, che si attesta a 446 miliardi di litri. L’intelligenza artificiale ha bevuto più di noi tutti messi insieme.
Non è nemmeno acqua di recupero o riciclata da qualche processo industriale. Spesso viene attinta da Paesi già in regime di stress idrico, posti dove l’acqua scarseggia per gli esseri umani, ma abbonda per i data center che raffreddano chip impegnati a generare immagini di gatti con cappelli da cowboy o rispondere a domande esistenziali su quale sia il senso della vita. È il paradosso del progresso tecnologico: costruiamo macchine sempre più intelligenti che consumano risorse sempre più scarse.
L’AI ha consumato 560 miliardi di litri d’acqua per raffreddare i server, studio choc
Dei 560 miliardi di litri totali stimati dall’AIE, 373 miliardi sono stati utilizzati direttamente per raffreddare i data center. È una quantità d’acqua che potrebbe riempire più di 200.000 piscine olimpioniche. Serve perché i chip che fanno girare modelli come ChatGPT, Gemini, Claude producono un calore mostruoso quando elaborano miliardi di parametri simultaneamente. Senza raffreddamento costante, si fonderebbero.
Altri 140 miliardi di litri sono serviti per produrre l’elettricità di cui i data center hanno bisogno. Perché sì, anche le centrali elettriche consumano acqua, specialmente quelle termoelettriche che usano vapore per generare energia. E poi ci sono 47 miliardi di litri per il resto dell’hardware, produzione, manutenzione, tutto il resto che tiene in piedi l’ecosistema AI.
È un circolo vizioso, l’AI consuma elettricità che richiede acqua per essere prodotta, e poi consuma altra acqua per raffreddarsi mentre usa quell’elettricità.
Nuovo studio
Un nuovo studio condotto dal data scientist Alex de Vries-Gao cerca di ridefinire queste stime. Secondo la sua ricerca, il consumo d’acqua dell’intelligenza artificiale si collocherebbe in una forbice tra i 312,5 miliardi di litri e i 764,6 miliardi di litri. In altre parole, potrebbe essere “solo” due terzi del consumo di acqua in bottiglia mondiale, oppure potrebbe essere quasi il doppio. Un margine di incertezza così ampio però non è rassicurante.
Anche prendendo la stima più bassa, 312,5 miliardi di litri, stiamo parlando di un consumo d’acqua equivalente a quello di una nazione di medie dimensioni. E la stima più alta, 764,6 miliardi di litri, supera abbondantemente il consumo di acqua in bottiglia globale. L’impronta di carbonio associata ammonta a 32,6 milioni di tonnellate di CO2, con il rischio di raggiungere le 79,7 milioni di tonnellate. Per contestualizzare, 79,7 milioni di tonnellate di CO2 sono più o meno le emissioni annuali di un paese come il Portogallo.
Chi paga davvero questi costi?
Attualmente è la società a farsi carico di questi costi, non le aziende tech, come fa notare de Vries. Ma è giusto? Se traggono i benefici da questa tecnologia, perché non dovrebbero farsi carico di una parte dei costi? OpenAI, Google, Anthropic, Microsoft, tutte queste aziende stanno costruendo imperi miliardari sull’intelligenza artificiale, ma i costi ambientali vengono esternalizzati sulla società.
I data center attingono acqua da falde pubbliche, consumano elettricità prodotta con combustibili fossili sovvenzionati dai contribuenti, ma non pagano un centesimo per l’acqua che consumano o per il carbonio che emettono.
Il pozzo senza fondo dell’intelligenza artificiale
Dall’arrivo di ChatGPT, l’intelligenza artificiale è sotto i riflettori. Tra le critiche più ricorrenti c’è quella sul consumo di acqua, e onestamente è difficile da contestare. Il paradosso è evidente. L’AI viene proposta come strumento per risolvere problemi globali, incluso il cambiamento climatico, ma contribuisce essa stessa al problema.
Alcuni ricercatori usano l’AI per ottimizzare i consumi energetici o studiare il clima, ma l’energia e l’acqua richieste per addestrare e far girare quei modelli rischiano di annullare i benefici prodotti. Intanto i colossi tech costruiscono data center sempre più grandi per reggere la domanda di AI. Ogni nuovo modello richiede più potenza computazionale, genera più calore, beve più acqua. È un pozzo senza fondo, dove ogni innovazione costa risorse che il pianeta non può permettersi di sprecare all’infinito.