Samsung ha annunciato l’avvio della produzione di massa delle nuove HBM4 (High Bandwidth Memory 4) per chip AI. Sono la quarta generazione delle memorie che hanno causato un aumento dei prezzi delle comuni memorie DDR5 e GDDR6/6X/7. L’azienda coreana ha già inviato le prime unità ai clienti, tra cui c’è sicuramente NVIDIA.
Miglioramenti rispetto alle HBM3E
Come riporta Reuters, Samsung è stata anticipata dai concorrenti. Sia SK hynix (leader del mercato) che Micron Technology hanno già avviato la produzione di massa. Prima di raggiungere questo obiettivo è necessario ottenere un’elevata resa produttiva (numero di chip funzionanti sul totale).
Le HBM4 verranno utilizzate da NVIDIA per i futuri chip Vera Rubin formati da CPU Vera e GPU Rubin (sono i successori degli attuali chip Blackwell). Consentiranno quindi di incrementare la velocità di addestramento dei modelli AI. Le nuove memorie di Samsung raggiungono prestazioni di 11,7 Gbps, quindi il 46% superiori a quelle standard (8 Gbps) e 1,22 volte superiori a quelle delle precedenti HBM3E (9,6 Gbps).
Samsung sottolinea che la velocità massima può arrivare a 13 Gbps. La larghezza di banda massima per singolo stack è 3,3 Tbps, superiore ai 2.048 Gbps dello standard e circa 2,7 volte superiore a quella delle precedenti HBM3E (1.229 Gbps). Grazie alla tecnologia di stacking a 12 strati, l’azienda coreana offre HBM4 con capacità da 24 a 36 GB. Utilizzando in futuro stacking a 16 strati arriverà a 48 GB.
Samsung prevede che le vendite di HBM triplicheranno nel 2026 rispetto al 2025, quindi aumenterà la sua capacità produttiva di HBM4. Quest’ultima non è ovviamente una buona notizia per gli utenti consumer che sperano in una riduzione dei prezzi per le tradizionali memorie DDR5.
L’azienda coreana ha infine comunicato i primi campioni di HBM4E saranno disponibili nella seconda metà del 2026, mentre le consegne di quelli custom ai clienti inizieranno nel 2027, in base alle rispettive specifiche.