Anthropic e Google hanno annunciato la sottoscrizione di un accordo che prevede l’uso dei chip TPU (Tensor Processing Unit) per l’addestramento dei modelli Claude. La startup californiana sfrutterà fino ad un milione di chip per ottenere una potenza di calcolo di 1 GW entro il 2026. I costi sono dell’ordine di decine di miliardi di dollari.
Anthropic e Google sempre più unite
A differenza di OpenAI, che utilizza principalmente i servizi Azure di Microsoft e le GPU di NVIDIA, Anthropic si affida a più aziende per cloud e chip AI. Per l’addestramento dei modelli Claude e il successivo uso da parte degli utenti sfrutta le risorse di Google Cloud e Amazon Web Services, insieme ai chip Trainium di Amazon, le GPU di NVIDIA e appunto le TPU di Google.
La startup californiana ha ricevuto 8 miliardi di dollari da Amazon e 3 miliardi di dollari da Google. La collaborazione con l’azienda di Mountain View si rafforza quindi con l’uso di un milione di TPU che consentiranno di raggiungere una capacità di 1 GW entro il 2026.
Nel comunicato stampa è scritto che l’accordo ha una valore di decine di miliardi di dollari. In base alle stime degli esperti, una data center da 1 GW costa circa 50 miliardi di dollari, di cui circa 35 miliardi sono relativi ai chip AI.
Anthropic ha scelto un approccio multi-piattaforma per ottimizzare i costi e limitare la dipendenza da un singolo fornitore. Può inoltre scegliere i chip più adatti per specifici compiti. Thomas Kurian (CEO di Google Cloud) afferma che le TPU sono le migliori per efficienza e prestazioni in rapporto al prezzo.
Anthropic sottolinea che Amazon rimane il principale provider cloud. Le due aziende collaborano per sviluppare Project Rainier, un cluster di calcolo con migliaia di chip Trainium 2 che verranno installati in diversi data center negli Stati Uniti.