Dopo aver sottoscritto accordi miliardari con NVIDIA, AMD, Samsung e SK per la fornitura di GPU e memorie HBM da installare nei data center, OpenAI ha annunciato una collaborazione con Broadcom per la progettazione dei suoi chip AI. L’azienda californiana ha quindi confermato l’indiscrezione di inizio settembre.
Chip custom per una potenza di 10 GW
OpenAI utilizza principalmente i data center di Microsoft per addestramento e inferenza dei modelli di intelligenza artificiale. Nei server dell’azienda di Redmond ci sono soprattutto le GPU di NVIDIA (il CEO Satya Nadella ha recentemente mostrato un cluster con oltre 4.600 GPU GB300).
In vista della trasformazione in Public Benefit Corporation, OpenAI ha sottoscritto una serie di accordi per la fornitura di GPU, memorie e risorse cloud. L’ultimo, annunciato oggi, prevede la progettazione di chip custom in collaborazione con Broadcom. L’obiettivo a lunga scadenza dell’azienda guidata da Sam Altman è quindi ridurre la dipendenza da NVIDIA, seguendo la strada di Meta, Microsoft e Google.
La progettazione “in house” consentirà inoltre una maggiore integrazione tra hardware e software. Broadcom fornirà anche le soluzioni di connettività. Il piano prevede l’uso di chip AI per un totale di 10 GW di potenza (equivalenti a circa 10 centrali nucleari). Le realizzazione dovrebbe essere affidata a TSMC. I primi rack verranno installati nella seconda metà del 2026, mentre gli ultimi entro il 2029.
Considerando gli accordi con NVIDIA e AMD, la potenza complessiva è 26 GW. Altman ha recentemente comunicato ai dipendenti che l’obiettivo è raggiungere una capacità di calcolo di 250 GW entro il 2033. La spesa totale supererà i 10.000 miliardi di dollari.