Meta sviluppa primo chip AI per ridurre la dipendenza da Nvidia

Meta sviluppa primo chip AI per ridurre la dipendenza da Nvidia

Meta ha sviluppato il suo primo chip AI internamente, con l'obiettivo di ridurre la dipendenza da fornitori esterni come Nvidia.
Meta sviluppa primo chip AI per ridurre la dipendenza da Nvidia
Meta ha sviluppato il suo primo chip AI internamente, con l'obiettivo di ridurre la dipendenza da fornitori esterni come Nvidia.

Meta ha deciso di mettersi dietro ai fornelli… e sfornare il suo primissimo chip per l’addestramento dell’AI. Secondo Reuters, Un assaggio lo ha già dato con un piccolo lotto di prova, ma se il “sapore” convincerà, il colosso dei social ne ordinerà altri. Il chip è prodotto da TSMC.

Primo chip AI proprietario per Meta

Dietro questa mossa c’è la voglia di svincolarsi da fornitori terzi come Nvidia, che ormai spadroneggia nel mercato delle GPU per L’AI. Tanto che Meta prevede di sborsare la bellezza di 119 miliardi di dollari entro il 2025, principalmente per crearsi un’infrastruttura AI tutta sua.

Il chip griffato Meta è un acceleratore AI monouso: è specializzato per i compiti legati all’AI rispetto al calcolo generale. Questa architettura specializzata può rendere il chip più efficiente dal punto di vista energetico rispetto alle GPU attualmente utilizzate per l’addestramento dei modelli. Inizialmente, Meta lo userà per gli algoritmi che decidono cosa mostrarci su Facebook e Instagram. Ma l’obiettivo finale è sguinzagliarlo anche nei prodotti di AI generativa, come il chatbot Meta AI.

Finora, Meta ha avuto alti e bassi con i chip proprietari. Un precedente modello per l’inferenza è stato un flop, costringendo l’azienda a ripiegare su GPU Nvidia a suon di miliardi. Ma stavolta sembra aver fatto centro, superando la cruciale fase di “tape-out”.

OpenAI non sta a guardare: chip AI in arrivo

Ma Meta non è sola in questa corsa ai chip AI. Anche OpenAI sta ultimando il suo primo chip AI per l’addestramento, che probabilmente sfoggerà un’architettura a matrix sistolica e memoria ad alta larghezza di banda, sulla falsariga degli ultimi acceleratori Nvidia.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 mar 2025
Link copiato negli appunti