Sam Altman ha trovato un modo creativo per rispondere alle critiche sull’impatto ambientale dell’intelligenza artificiale: paragonarla agli esseri umani. Parlando a un evento organizzato da The Indian Express durante un summit sull’AI in India, il CEO di OpenAI ha detto che confrontare il consumo energetico di ChatGPT con quello di un essere umano è più equo di quanto si pensi, perché anche addestrare un umano costa parecchio.
Altman difende i consumi dell’AI
Secondo Altman, l’intelligenza umana non nasce all’improvviso, richiede anni di crescita individuale e miliardi di anni di evoluzione collettiva. Ogni persona è il risultato di un enorme patrimonio biologico e culturale costruito nel tempo, non solo dei propri 20 anni di vita (il livello cognitivo di un adulto).
Quindi, nella sua visione, il confronto giusto non è quanto costa addestrare un modello AI, ma quanta energia serve a ChatGPT per rispondere a una singola domanda una volta addestrato, rispetto a quanta ne serve a un umano. E probabilmente, misurata così, l’ai ha già raggiunto la parità in termini di efficienza energetica… a detta di Altman.
I consumi d’acqua di ChatGPT sarebbero falsi
Altman è stato molto più diretto sulla questione dell’acqua. Le voci secondo cui ogni query di ChatGPT consumerebbe 17 galloni d’acqua (circa 64 litri) sarebbero completamente false, totalmente folli, senza alcun collegamento con la realtà. Ha riconosciuto che il consumo d’acqua era un problema reale quando i data center usavano il raffreddamento evaporativo, ma ha affermato che quella tecnologia è stata superata.
Sul consumo energetico ha concesso un punto. È giusto preoccuparsi, ha detto, non tanto per la singola ricerca quanto per l’impatto complessivo dell’AI. La via d’uscita secondo lui? Accelerare la transizione verso nucleare, eolico e solare.
Quando l’intervistatore ha citato una conversazione con Bill Gates, chiedendogli se è vero che una singola query di ChatGPT consumi l’equivalente di 1,5 cariche di batteria di un iPhone, Altman ha liquidato il numero come assolutamente esagerato.
Il problema? Nessuno ha i dati veri
Il punto è che non esistono obblighi legali per le aziende tech di dichiarare quanta energia e acqua consumano i loro data center. I dati circolano attraverso stime indipendenti di ricercatori che cercano di ricostruire i consumi dall’esterno, e le aziende possono smentire qualsiasi cifra senza essere costrette a fornire le proprie.
Quando Altman dice che i 17 galloni per query sono falsi, potrebbe avere ragione, ma sta chiedendo di fidarci della sua parola in assenza di dati verificabili. E quando paragona il costo energetico di ChatGPT a quello di addestrare un essere umano per 20 anni, sta usando una metafora suggestiva, ma ingiusta: un essere umano vive, lavora, crea, si riproduce e contribuisce alla società in modi che nessun modello linguistico può replicare. Ridurre una vita umana a un costo energetico di addestramento è un esercizio retorico, non un confronto scientifico.
Intanto, i data center continuano a far salire i prezzi dell’elettricità nelle aree circostanti, un impatto molto concreto che nessun paragone evolutivo riesce a mitigare.