I servizi di intelligenza artificiale evolvono e il loro percorso di crescita genera un impatto significativo, ma in quali termini? Quello sotto agli occhi di tutti in queste settimane è il forte aumento dei prezzi della RAM, ma ce n’è un altro di cui si discute da molto più tempo e che rischia di trasformarsi in un problema di lungo termine: il consumo di energia. Ad esempio, quanta ne assorbe ChatGPT?
Quanta energia consuma ChatGPT?
Tanta, anzi tantissima. Sempre di più, considerando la complessità dei modelli più recenti e l’imponente infrastruttura cloud allestita da OpenAI per mantenerlo operativo. Uno studio condotto da Best Brokers (link a fondo articolo) descrive il fenomeno in numeri.
Il laboratorio AI della University of Rhode Island stima che ogni query assorba dai 2 ai 45 W, mediamente 18,9 Wh prendendo in esame GPT-5, che rispetto al predecessore è molto più energivoro (fino a otto volte). Calcolatrice alla mano, tenendo conto del numero di utenti (810 milioni) e delle richieste elaborate (2,5 miliardi ogni giorno), si arriva a 47,2 GWh quotidiani.
Il valore si traduce in 17.228 GWh all’anno. Per capire meglio a cosa corrispondono, sono l’ammontare sufficiente per fare il pieno a tutte le auto elettriche presenti negli Stati Uniti per 36 volte, per soddisfare il fabbisogno annuale di 1,64 milioni di famiglie o per ricaricare ben 3,29 miliardi di iPhone 17 per dodici mesi. Ancora, è quanto serve ad alimentare tutti gli USA per un giorno e mezzo.

Ancora, ChatGPT consuma più energia di alcuni paesi come Slovenia, Georgia, Kenya, Lituania, Costa Rica, Mongolia, Lettonia e Lussemburgo. Una questione che i suoi responsabili devono affrontare anche tenendo conto dell’impatto in termini di sostenibilità.
Chi segue queste pagine da anni non faticherà a ricordare articoli simili in merito al mining di Bitcoin e al suo fabbisogno energetico. Ora le criptovalute sembrano essere state messe in secondo piano. A ogni trend, il suo report.