COMPTOIR
register

Ça y est, la HBM3 est officiellement un standard du JEDEC

Elle avait été teasée par SK Hynix en juin dernier et le coréen fut aussi le premier à en produire la première vraie puce, la HBM3 est depuis hier officiellement un standard de JEDEC et une évolution de la High Bandwitch Memory ! On connait déjà un paquet de choses sur cette 3e génération HBM, un bon nombre de ses caractéristiques avait été cité dans les actualités précédentes, il n'y a donc aucune vraie surprise au programme, mais rafraîchissons-nous tout de même un peu la mémoire.

 

Comme toute évolution qui se respecte, l'objectif premier fut d'améliorer les performances. Ainsi, chaque pin de la HBM3 possédera un taux de transfert de 6,4 Gb/s, ce qui permettra à chaque stack d'atteindre le joli total de 819 Go/s ! Mais ça ne s'arrêtera pas là, le but ultime étant d'obtenir 8,4 Gb/s et 1075 Go/s, SK Hynix y travaillerait déjà ! À titre de comparaison, c'était de l'ordre de 1 Gb/s et 128 Go/s pour la HBM, puis 2,4 Gb/s et 307 Go/s avec la HBM2, et SK Hynix a poussé la chose à 3,6 Gb/s et 460 Go/s avec sa HBM2E, un peu mieux par rapport aux 3,2 Gb/s de l'alternative chez Samsung.

 

skhynix hbm3

 

Simultanément, la capacité de stockage a elle aussi encore augmenté. D'un maximum de 8 avec la HBM2E, la HBM3 permettra d'avoir 4, 8 ou 12 couches de DRAM, en sachant que 16 couches sont déjà au programme pour un peu plus tard. Par conséquent, la HBM3 pourra un jour proposer des capacités allant de 4 à 64 Go ! Avec ceci, la tension baisse d'un cran et passe à seulement 1,1V, ce qui fait qu'elle sera toujours bien plus économe (et rapide) que de la GDDR. Enfin, ECC intégré à la puce et détection d'erreurs en temps réel sont aussi de la partie pour une fiabilité accrue.

 

En voilà une bien belle mémoire ! Mais à qui est-elle donc destinée ? Compte tenu notamment du fait que la HBM a toujours été plutôt chère, bien plus que de la GDDR,  il y a fort à parier que la HBM3 restera elle aussi une exclusivité des gros et coûteux accélérateurs destinés aux datacenters, comme les Radeon Instinct et Radeon Pro d'AMD, ou les A100 et Quadro de NVIDIA. En tout cas, les quantités de mémoires vont encore pouvoir exploser avec la HBM3, et pas qu'un peu (pleure en RX 6500 XT) ! (Source)

Un poil avant ?

Le dernier rempart sur le point de se lever pour l'acquisition de Xilinx par AMD !

Un peu plus tard ...

Hopper serait énorme !

Les 6 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Matthieu S., le Lundi 31 Janvier 2022 à 08h33  
par Un ragoteur de transit du Grand Est le Dimanche 30 Janvier 2022 à 00h08
Une succession trop rapide de "standards" que chacun bidouille de surcroît à sa sauce, c'est pour le moins contre-productif... et très symptomatique d'un secteur qui a perdu tout bon sens.
par Un adepte en Neuchâtel le Dimanche 30 Janvier 2022 à 11h01
En quoi c'est trop rapide pour la HBM?
HBM (développée par AMD) : 2013 (premier GPU 2015)
HBM2 : 2016
HBM2E : 2018
HBM3 : 2022

GDDR2 : 2002
GDDR3 : 2004
GDDR4 : 2005 - 2007
GDDR5 : 2007 - 2008
GDDR5X : 2016
GDDR6 : 2017

par Un adepte en Neuchâtel, le Dimanche 30 Janvier 2022 à 11h01  
par Un ragoteur de transit du Grand Est le Dimanche 30 Janvier 2022 à 00h08
Une succession trop rapide de "standards" que chacun bidouille de surcroît à sa sauce, c'est pour le moins contre-productif... et très symptomatique d'un secteur qui a perdu tout bon sens.
En quoi c'est trop rapide pour la HBM?
par Un ragoteur de transit du Grand Est, le Dimanche 30 Janvier 2022 à 00h08  
Une succession trop rapide de "standards" que chacun bidouille de surcroît à sa sauce, c'est pour le moins contre-productif... et très symptomatique d'un secteur qui a perdu tout bon sens.
par dfd, le Samedi 29 Janvier 2022 à 18h06  
MIAM! Une RX 6500 XT avec 4 Gio de HBM3...
Ha bah nan! C'est pas trop côté BP mémoire qu'elle ch* un peu dans la colle, la 6500...
par Jemporte, le Samedi 29 Janvier 2022 à 13h40  
Super. Du coup, on va voir comme pour la HBM1 et HBM2 déferler un nombre incalculable de modèles avec ce type de mémoire. Cool.
par Un adepte en Neuchâtel, le Samedi 29 Janvier 2022 à 13h08  
Ce serait bien pour les RTX 4000, mais c'est peu probable, on aura toujours de la GDDR6+ qui chauffe trop.