COMPTOIR
register

La GDDR7 va galvaniser nos GPU dans les jeux vidéo, promet Micron

Le JEDEC a officialisé la GDDR7 en mars dernier ; Samsung et SK Hynix ont présenté des modules à la GTC 2024. Micron était en revanche plus silencieuse sur ce sujet depuis quelques semaines. L’entreprise vient finalement d’officialiser sa GDDR7 à 32 Gbit/s, avec des puces mémoire actuellement en phase d’échantillonnage.

micron gddr7 couverture

Un joueur à l'évidence médusé par les performances de sa carte graphique dotée de GDDR7 © Micron

La GDDR7 pour booster les perfs dans les jeux vidéo et pour l'IA

Cette mémoire GDDR7 de Micron exploite la technologie DRAM 1β (1-bêta). À l’instar de celles de Samsung, les premières puces plafonnent à 32 Gbit/s pour une densité de 16 Gb et une tension de 1,2 V ; la bande passante système est donnée à 1,5 To/s.

gddr7 vs gddr6 micron

GDDR7 vs GDDR6 © Micron

Conformément à la spécification du JEDEC, cette GDDR7 exploite logiquement le PAM-3, ou Pulse-Amplitude Modulation 3, plutôt que le NRZ, Non-Return-to-Zero, de la GGDR6 (PAM-4 pour la GDDR6X de Micron).

gddr7 micron presentation generale

gddr7 pam3

Pour sa GDDR7, la société évoque un rendement énergétique 50 % supérieur par rapport à la mémoire GDDR6, avec à la clef une « amélioration des performances thermiques », ainsi « qu’un nouveau mode veille permet de réduire la consommation de 70 % » dans ce statut.

Sans surprise, Micron expose les bénéfices que va apporter la GDDR7 dans le domaine des jeux vidéo, mais également dans les charges de travail liées à l'intelligence artificielle. Avant de nous y intéresser, quelques diapositives qui retracent l'évolution de la GDDR.

evolution debit gddr micron

comparaison gddr micron

L'évolution de la GDDR au fil des années ; et forcément, Micron a toujours eu une longueur d'avance © Micron

Pour le premier aspect, la société allègue que les cartes graphiques munies de GDDR7 afficheront jusqu’à 3,1 fois plus d’images par seconde que les solutions actuelles en GDDR6 dans une définition 4K en ray tracing. Les écarts sont logiquement moins élevés avec des GPU épaulés par de la GDDR6X, dans des définitions inférieures, ainsi qu'en rastérisation, mais restent conséquents. Tout ceci est bien sûr très théorique et certainement embelli ; de plus, les performances réelles dépendront aussi des capacités du GPU. Les gains octroyés par une vitesse mémoire plus rapide ne sont toutefois plus à démontrer ; citons le cas des Radeon RX 5600 XT, dont certains modèles ont une vitesse mémoire bloqué à 12 Gbit/s, d'autres à 14 Gbit/s, pour des différences d'IPS souvent notables. L'écart est en revanche moins marqué entre la RTX 3060 Ti GDDR6X et celle dotée de GDDR6, malgré une différence de vitesse mémoire plus élevée (19 Gbit/s vs 14 Gbit/s respectivement).

gains gddr7 dans les jeux video micron

Outre le secteur du jeu vidéo, Micron vante les bienfaits de la GDDR7 sur les applications d’inférence IA. Pour cet aspect, l’entreprise évoque un temps de traitement réduit de 17 % pour les charges de travail d'IA générative du type Text To Image et un débit augmenté de 33 % pour les grands modèles de langage (LLM).

gains gddr7 pour ia micron

Micron accompagne son communiqué de presse de plusieurs citations. Voici celle de Joe Macri, vice-président et directeur technique produits de l'unité commerciale d'AMD : « Chez AMD, nous nous engageons à créer les expériences de jeu les plus immersives. Notre collaboration avec Micron sur la GDDR7 fait progresser notre objectif commun. Nous sommes ravis que Micron lance la GDDR7 et nous sommes impatients de tirer parti de cette technologie pour rendre les jeux encore plus réactifs et réalistes. »

En dépit de cette déclaration, les projets d’AMD pour l’intégration de la GDDR7 restent très incertains. À en croire certaines rumeurs persistantes, l’entreprise miserait sur une gamme RDNA 4 centrée sur l’entrée et le milieu de gamme ; concrètement, les Radeon RX 8000 se limiteraient à la GDDR6. Du côté de NVIDIA, l’hypothèse du passage à la GDDR7 pour les GeForce RTX 5000 haut de gamme fait davantage consensus.

micron gddr7

Nous serons de toute façon bientôt fixés, puisque ces prochaines générations devraient voir le jour avant la fin d’année 2024 (du moins les GeForce Blackwell). Quant à la GDDR7 de Micron, la société précise qu’elle « sera disponible directement auprès [d'elle] et par l'intermédiaire de certains distributeurs et revendeurs mondiaux au cours du second semestre de l'année civile 2024 ».

Un poil avant ?

Acemagic dévoile un PC portable double écran et des mini-PC bling-bling

Un peu plus tard ...

L'ère du boitier aquarium, sculptural, moderne, fragile et salissant, n'en démord pas (mais pas chez tout le monde)

Les 14 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur bio du Grand Est, le Lundi 10 Juin 2024 à 18h59  
par Pascal M. le Vendredi 07 Juin 2024 à 13h58
Je ne pense pas : la demande est forte, notamment avec le boom du machine learning. Mais c'est sur que si on fabrique bcp plus de HBM les économies d'échelle se feront sentir.
Il n'y a pas que les économies d'échelle, ni la tension du marché : fondamentalement, la HBM (même de première génération) répond mieux aux besoins.

Certes, le coût a son importance dans les choix industriels, mais si c'était vraiment le principal souci, de nouvelles normes intermédiaires (c'est bien ce dont il s'agit, le nerf de la guerre est la consommation d'énergie par bit transmis depuis longtemps) ne seraient pas non plus mises en place, car ça coûte cher aussi. Par contre, ça permet de gagner un peu de temps pour la mise au point des processus, lesquels sont de toute façon à présent aussi appliqués à la DDR5/GDDR7, juste à une moindre échelle.
par Pascal M., le Vendredi 07 Juin 2024 à 13h58  
par Un ragoteur bio du Grand Est le Vendredi 07 Juin 2024 à 13h20
Le prix est quand même un faux problème, car il résulte surtout du marché et de la part de production dédiée à l'un et l'autre des types de DRAM.

Le fait est que ce que Micron avance n'a rien de mirobolant, le gain en consommation est anecdotique et au final il est certain qu'on se dirigera vers un truc du tonneau de la HBM (proche, bus ultra-large), car il n'y aura plus le choix pour continuer à augmenter le débit sans faire exploser la consommation.

N'oubliont d'ailleurs pas que le phy DRAM est tout aussi consommateur côté GPU.
Je ne pense pas : la demande est forte, notamment avec le boom du machine learning. Mais c'est sur que si on fabrique bcp plus de HBM les économies d'échelle se feront sentir.
Reste que, le stacking 3D est coûteux, et il faut y rajouter l'interposer silicium et la couche logique.
Il faudrait plancher sur des packages standards où il y aurait juste besoin de ponts entre le gpu et la hbm, mais je ne sais pas dire si c'est dans les tuyaux, bien que ça existe chez IBM. Ou alors trouver une alternative moins couteuse aux substrats silicium.
Sans parler des problématiques liées à la chauffe, sachant que la mémoire n'aime pas trop les t°c élevées.
par Un ragoteur bio du Grand Est, le Vendredi 07 Juin 2024 à 13h20  
par Pascal M. le Jeudi 06 Juin 2024 à 19h22
...y compris son prix
Le prix est quand même un faux problème, car il résulte surtout du marché et de la part de production dédiée à l'un et l'autre des types de DRAM.

Le fait est que ce que Micron avance n'a rien de mirobolant, le gain en consommation est anecdotique et au final il est certain qu'on se dirigera vers un truc du tonneau de la HBM (proche, bus ultra-large), car il n'y aura plus le choix pour continuer à augmenter le débit sans faire exploser la consommation.

N'oubliont d'ailleurs pas que le phy DRAM est tout aussi consommateur côté GPU.
par Un champion du monde embusqué ••, le Vendredi 07 Juin 2024 à 10h32  
par Un ragoteur bio du Grand Est le Jeudi 06 Juin 2024 à 18h35
C'est un fait, .
Pas vraiment, définit moi "très" en pourcentage différenciel

Sans dlss ni fsr bien sûr sur la base total de jeux qui utilise cette facture
C est du spéculatif ton "très" pas du factuel
Tu estime toi que car tu t es fait loboto par les commerciaux de NVIDIA et Jensen et son clip bien connu sur les Gigaray/s
Clip qui date des rtx2000
Et on sait au combien à la sortie des rtx3000 les rtx2000 fussent bonne pour la casse et NVIDIA se gardait bien de les remettre dans les slide comparatif ses rtx2000 hors de prix
par beguemot, le Jeudi 06 Juin 2024 à 19h30  
pourquoi pas un comparatif avec la GDDR6X ? j'espère qu'ils vont augmenter l'efficacité énergétique.
par Pascal M., le Jeudi 06 Juin 2024 à 19h22  
par Jemporte le Jeudi 06 Juin 2024 à 17h51
Pour faire oublier qu'il existe de la HBM 3 gen 2 qui tue toute ce qui commence par GDDR jusqu'à au moins 8...
...y compris son prix
par Un ragoteur bio du Grand Est, le Jeudi 06 Juin 2024 à 18h35  
par Un champion du monde embusqué ?? le Jeudi 06 Juin 2024 à 15h40
Je vois pas en quoi AMD est "très en retard" sur le RT
C'est un fait, le RT a toujours un coût monumental sur RDNA3, partant de là, ça constitue le parfait point de départ pour annoncer une hausse (très) importante dans ce domaine "sans trop se fouler", alors que c'est nettement plus compliqué pour nVidia.

Bon, il y a aussi Intel, mais là c'est même pu du jeu tellement ils partent de bas.
par Jemporte, le Jeudi 06 Juin 2024 à 17h51  
Pour faire oublier qu'il existe de la HBM 3 gen 2 qui tue toute ce qui commence par GDDR jusqu'à au moins 8...
par Un champion du monde embusqué ••, le Jeudi 06 Juin 2024 à 15h43  
Par contre coté IA je ne doute pas que NVIDIA sur rtx5000 puisse faire du +300%

Si tu comparé IA via des int4 sur rtx5000 versus IA via des int8 sur rtx4000
par Un champion du monde embusqué ••, le Jeudi 06 Juin 2024 à 15h40  
Je vois pas en quoi AMD est "très en retard" sur le RT

Et que je sache sans le frame génération + dlss tout jeu avec du path tracing se traîne aussi sur NVIDIA
En RT rtx4000 vs rtx3000 c est plus la hausse des fréquence qui a donné du boost
Alors oui les rx7000 sont en dessous, mm le gap est bel et bien là en et entre rx6000 et rx7000

Et puis désolé, mais tu fait des tests à l aveugle avec des utilisateurs et vs non et
Bien souvent celui interrogé sait pas lequel est en RT
par Un ragoteur bio en Île-de-France, le Mercredi 05 Juin 2024 à 19h19  
par Un tire-au-flanc du tuyau d'Occitanie le Mercredi 05 Juin 2024 à 14h18
Il faut bien comprendre que c'est pas les performances globales du jeu qui font x2 ou x3, mais la portion lié à la différence entre l'ancienne mémoire et la nouvelle comme vous le précisez.
10 ips au max donc dans le cas le plus optimiste de optimiste ?

J'ai trouvé quelques tests de 3060 (ou 3060 ti je sais plus) en gddr6 vs gddr6x, ça donnait un gain max de 4 ou 5 ips. Donc faut pas non plus prendre leur chiffre comme le gain global à atteindre. Mais probablement quelque chose de cet ordre d'idée si on se fie à leur graphique où le gddr6 à gddr6x est équivalent à gddr6x vers gddr7.
Faut voir s'il y avait des cartes de dernière génération AMD/nVidia en GDDR6 mais voilà ça leur fera 10 ips potentiel de plus possible si passage à la GDDR7. Ce qui n'est pas forcément gagné vu qu'à part les cartes d'entrée de gamme, je ne vois pas lesquelles auraient fait l'impasse sur la version "X".. et donc ça sera potentiellement celles qui feront l'impasse sur la 7 pour contenir le prix ?
Non, ce n'est pas ça... Si Micron parle de "310% de performances en RT", c'est très certainement que la société a participé au développement d'un GPU, et ça pourrait même être de chez AMD (très en retard), bien que la GDDR6X (exclusivité Micron) ait été développée en collaboration avec nVidia, la présentation constituant de fait un teasing de GPU plus que de RAM.

On est vraiment dans un registre de "pure communication" parfaitement détestable, avec un usage de superlatifs et de cherry picking franchement peu glorieux. TPU a pris ce même virage (publication de "press releases sans aucun esprit critique) et perd de plus en plus de crédit, par exemple.
par Scrabble, le Mercredi 05 Juin 2024 à 14h21  
Des puces de 16Gb, c'est bien, mais faudrait passer a 32Gb, du coup ca fait 4GB par puce, avec 8 puces on aurait 32Go de VRAM sur un bus de 256 bits, ca serait cool