Sam Altman, il CEO di OpenAI, ha ammesso candidamente che la società non ha abbastanza potenza di calcolo per soddisfare la domanda del suo nuovo modello, GPT-4.5.
GPT-4.5: un gigante affamato di GPU
GPT-4.5, descritto da Altman come “gigantesco e costoso“, richiederà decine di migliaia di GPU aggiuntive prima che altri utenti di ChatGPT possano accedervi. Per ora, solo gli abbonati a ChatGPT Pro potranno mettere le mani sul nuovo modello. La settimana prossima, toccherà ai clienti di ChatGPT Plus. E gli altri? Beh, a quanto pare dovranno mettersi in fila…
Ma non è solo la fame di GPU a far tremare i polsi. Anche i costi di utilizzo di GPT-4.5 sono decisamente elevati. Parliamo di cifre da capogiro: 75 dollari per ogni milione di token in input (circa 750.000 parole) e 150 dollari per ogni milione di token generati in output. Per rendersi conto della batosta, basta fare un confronto con GPT-4o, finora il fiore all’occhiello dell’azienda. Il costo di inserimento dei dati è 30 volte superiore rispetto a quello di GPT-4o, mentre il costo di generazione è 15 volte più alto.
Altman ha ammesso che la carenza di GPU sta creando non pochi grattacapi all’azienda. “Siamo cresciuti molto e siamo rimasti senza GPU“, ha scritto su X. Non è solo un’ammissione di colpa, ma anche una promessa. Il CEO di OpenAI, infatti, ha assicurato che nelle prossime settimane verranno aggiunte decine di migliaia di nuove GPU, per gli utenti del piano Plus.
GPT-4.5 is ready!
good news: it is the first model that feels like talking to a thoughtful person to me. i have had several moments where i've sat back in my chair and been astonished at getting actually good advice from an AI.
bad news: it is a giant, expensive model. we…
— Sam Altman (@sama) February 27, 2025
chip AI proprietari e data center
OpenAI si ritrova a fare i conti con il suo stesso successo. Questa, infatti, non è la prima volta che Altman lamenta la mancanza di capacità di calcolo. Ma l’azienda ha un piano per uscire da questo impasse. Nei prossimi anni, l’azienda punta a sviluppare i chip AI proprietari e a costruire una vasta rete di data center. Sarà un’impresa titanica, ma necessaria per tenere il passo con la domanda sempre crescente di intelligenza artificiale.