ChatGPT consuma energia come 17000 famiglie americane

ChatGPT consuma energia come 17000 famiglie americane

L'impiego sempre più esteso di servizi e strumenti IA come ChatGPT può diventare un problema in relazione al crescente consumo di energia.
ChatGPT consuma energia come 17000 famiglie americane
L'impiego sempre più esteso di servizi e strumenti IA come ChatGPT può diventare un problema in relazione al crescente consumo di energia.

Secondo un noto studio continuamente aggiornato della University of Cambridge, l’infrastruttura decentralizzata su cui poggia Bitcoin consuma 173,2 TWh all’anno. Si tratta di un quantitativo di energia enorme, più elevato rispetto a quello richiesto da un paese intero come l’Egitto. E un servizio di intelligenza artificiale come ChatGPT, invece, quanto assorbe?

Quanta energia consuma ChatGPT?

A renderlo noto è il risultato di uno studio appena pubblicato da New Yorker. Il chatbot brucia oltre 500.000 kWh in un giorno, per rispondere a circa 200 milioni di richieste inviate dagli utenti. Considerando il fabbisogno medio di un nucleo familiare statunitense (pari 29 kWh), si tratta della stessa energia utilizzata da più di 17.200 famiglie d’oltreoceano.

Il problema è noto, ma ad oggi non sono state messe in campo iniziative tali da poterlo contrastare in modo efficace. Dovrà essere affrontato anche se questo dovesse scontrarsi con gli interessi economici di un settore letteralmente esploso nel corso dell’ultimo anno e mezzo e la cui corsa non accenna a rallentare. A chiederlo sono in primis gli addetti ai lavori. Durante un recente intervento a Davos, Sam Altman ha sollevato la questione.

Penso che non siamo ancora consapevoli del fabbisogno energetico di questa tecnologia.

Il CEO di OpenAI ha invocato una svolta decisiva, senza la qual non sarà possibile garantire la sostenibilità dell’intelligenza artificiale.

Abbiamo bisogno della fusione nucleare o di un solare con batterie molto più economico, applicato su scala, un progetto che nessuno sta pianificando.

Ogni prompt sottoposto all’IA genera un impatto

Ogni volta che interpelliamo ChatGPT (ma lo stesso vale per qualsiasi altro servizio IA), chiediamo a un server remoto di eseguire operazioni complesse. Questo richiede inevitabilmente energia. Prendendo in considerazione esclusivamente gli Stati Uniti, i data center sono attualmente responsabili di consumi per il 4% circa della quota complessiva, ma la previsione è quella di poter assistere a un incremento significativo, fino al 6% entro il 2026.

Rispetto a quanto accade con Bitcoin e all’impatto generato dal dover mantenere operativa la macchina crypto, sul fronte dell’intelligenza artificiale dovrebbe essere più semplice poter intervenire con misure ad hoc. Non si tratta infatti di infrastrutture decentralizzate, né distribuite in tutto il mondo, ma localizzate in modo ben preciso e sottoposte a normative specifiche.

Questo può rappresentare il punto da cui partire. Considerando come i big del settore, da Microsoft a Google, siano da sempre attenti al tema della sostenibilità, anche per le conseguenze che questo genera in termini reputazionali, è lecito attendersi garanzie sul fatto che, interpellando ChatGPT o un altro strumento della categoria, si possa contare su un funzionamento il più possibile attento all’ambiente e responsabile per quanto riguarda l’impiego dell’energia, un bene più che mai prezioso.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
11 mar 2024
Link copiato negli appunti