COMPTOIR
register

La GDDR6 produite en masse chez SK Hynix d'ici 3 mois ?

Le GTC 2018 s'est révélé être d'un ennui fort pour le commun des mortels, les joueurs en particulier, rien n'a été dit et rien n'a été dévoilé sur la prochaine génération de GeFORCE, dont même la nomenclature reste encore un mystère ! GTX 11xx ? GTX 20xx ? Obi-Wan Kenobi ? D, la réponse D ? Qui sait. Mais peu importe, ce qu'on veut c'est du neuf capable de nous faire oublier Pascal et qui saura pédaler sur du 4K à l'aise et sans les mains ! Heureusement, Thibaut était là, bière en main, pour animer le live d'un Jensen Huang à l'autosatisfaction débordante !

 

sk hynix

 

Heureusement, d'autres y ont su glaner des informations auprès des divers intervenants. Ainsi, Gamersnexus aurait appris du constructeur SK Hynix que sa GDDR6 - disponible au catalogue depuis janvier - est planifiée pour une production de masse dans 3 mois, soit  sur la période juin-juillet. En sus, il aurait été précisé que celle-ci sera présente sur un bon nombre de futurs produits NVIDIA, autant sur du matériel de véhicules autonomes que sur une partie - si ce n'est pas tous - des prochains GPU du caméléon.

En supposant que SK Hynix soit l'un des partenaire-fournisseur de la première heure pour le lancement de la nouvelle gamme - mais n'oublions pas que Samsung et Micron sont aussi sur le coup de la GDDR6 depuis un moment déjà, le géant coréen en tête - ceci permettrait de situer à l'aveuglette ledit lancement au-delà du début de la production en masse de GDDR6 signée SK Hynix, et peut ainsi laisser entrevoir une hypothétique disponibilité de nouvelles GeFORCE aux alentours de juillet-août. Évidemment, ce n'est que de la spéculation, hélas, rien n'est encore concret. Pourtant, si cela devait bien être le cas, le Computex 2018 prenant place du 5 au 9 juin serait alors l'occasion idéale pour NVIDIA de faire son show ! Par ailleurs, c'est aussi en juillet qu'est prévue l'arrivée du support du RTX de NVIDIA pour Volta au sein de l'Unreal Engine 4.20. Coïncidence ? Wait & see !

 

Mais assez tergiversé et rêvassé, revenons un moment vers la GDDR6. Toujours au GTC 2018, SK Hynix aurait aussi avoué que la GDDR6 sera 20% plus chère à produire en masse que la GDDR5, tout du moins initialement en attendant l'amélioration des rendements et la mise à niveau des lignes de productions de GDDR5 vers la GDDR6. Logiquement, cette différence devrait être répercutée par les constructeurs sur les tarifs de leurs produits finaux, un point qui nous rappelle aussi une nouvelle fois des rumeurs selon lesquelles les prochaines GeFORCE du caméléon pourraient bien afficher un tarif MSRP sensiblement plus élevé que d'habitude. Éventuellement, cet écart de coût entre la GDDR5 et GDDR6 devrait se tasser à 15%, puis se stabiliser aux alentours de 10%.

Bref, les signes se multiplient, mais les voies de la Force restent encore impénétrables, heureusement peut-être plus pour longtemps ! (Source : GamersNexus)

 

fonctionnement schema gddr6 gddr5

Un poil avant ?

Mini-ITX en X470, devinez qui sera sur le coup ?

Un peu plus tard ...

Les HoloLens 2 en préparation chez Microsoft

Les 18 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur Gaulois embusqué, le Dimanche 08 Avril 2018 à 16h07  
ma boule de cristal semble assez nette

GV104 en juin , Samsung est déjà opé sur la GDDR6 donc ça reste plausible
soit dans la foulée de la GTC , soit à la fin du mois
ça permet d'avoir déjà des gpu dispo sur le marché au moment de la sortie de RTX
puis le GV106 un peu plus tard quand les différents acteurs seront en mesure de fournir en volume suffisant , car c'est le GV106 et les modèles plus modestes encore qui représentent le plus gros volume des ventes

prévisions peut être un poil optimistes j'en conviens , mais ça reste tout à fait cohérent par rapport aux maigres infos lachées par les différents acteurs du marché

par Un #ragoteur déconnecté embusqué, le Vendredi 06 Avril 2018 à 16h16  
par Un champion du monde embusqué le Vendredi 06 Avril 2018 à 11h41
Comme dit précédemment les standards de mémoire sont créés par le JEDEC (un regroupement d'industriel). Ils n'appartiennent donc pas à une entreprise en particulier.
Le JEDEC établit ses normes sur l'état de l'art, ce qui implique la prise en compte de brevets relativements récents. Certains seront cédés sous conditions peu restrictives, d'autres pas forcément d'actualité à l'établissement de la norme pourront s'avérer indispensables "par défaut", et enfin il y a la dernière catégorie des effets de bord (qu'on trouve avec la HBM, dont le profil d'accès très différent change tout autant l'optimisation desdits accès)
par vasyjeannot, le Vendredi 06 Avril 2018 à 11h54  
Pas sur

IL y a des choses que tu ne peux pas brevetés
par Un champion du monde embusqué, le Vendredi 06 Avril 2018 à 11h41  
par Un #ragoteur déconnecté embusqué le Vendredi 06 Avril 2018 à 08h34
Dans l'absolu, la GDDR6 "n'appartient à personne" et chacun peut déposer des brevets liés, dont certains vont servir à l'établissement de la norme.

En théorie, donc, AMD, Nvidia, Intel ou Altera pourrait percevoir des royalties par tous les autres au motif qu'un de leur brevets sera "indispensable" à l'implémentation du standard (ça rappelle la stratégie classique que d'acquérir des boîtes moribondes pour leurs brevets et tenter de les valoriser à grand renfort d'attaques en justice)
Comme dit précédemment les standards de mémoire sont créés par le JEDEC (un regroupement d'industriel). Ils n'appartiennent donc pas à une entreprise en particulier.

Par contre la description du JEDEC reste assez haut niveau (pas de schéma de transistor par exemple) et donc l'implémentation reste libre tant que les ports d'entrées/sorties et le comportement est respectée.

Par exemple, les local row-buffers ne sont pas décrits dans les documents du JEDEC mais beaucoup d'industriel fabriquent des puces en les utilisant pour éviter l'effet de capacité des longs fils.
Donc si les local row-buffers sont brevetés par un industriel et que d'autres décident de l'utiliser ils auront peut-être à payer des royalties.
par Un #ragoteur déconnecté embusqué, le Vendredi 06 Avril 2018 à 08h34  
Dans l'absolu, la GDDR6 "n'appartient à personne" et chacun peut déposer des brevets liés, dont certains vont servir à l'établissement de la norme.

En théorie, donc, AMD, Nvidia, Intel ou Altera pourrait percevoir des royalties par tous les autres au motif qu'un de leur brevets sera "indispensable" à l'implémentation du standard (ça rappelle la stratégie classique que d'acquérir des boîtes moribondes pour leurs brevets et tenter de les valoriser à grand renfort d'attaques en justice)
par Thibaut G., le Vendredi 06 Avril 2018 à 06h32  
par Jemporte le Jeudi 05 Avril 2018 à 18h06
Sur AMD, il ne faut pas oublier que l'optimisation Nvidia favorable aux jeux, consiste en une dégradation acceptable. C'est du Nvidia FX (de triste mémoire) amélioré et imperceptible en Full HD et +. On remarque que sans API spécifiques Nvidia, un jeu pose problème, artefacts ou autre, que Nvidia doit "patcher", ce qu'ils fonts pour leurs dernières séries de cartes. AMD délivre de la puissance brute, nécessite peu de patches autres que sur le fonctionnement global du pilote. La preuve : les vielles cartes AMD restent largement plus dans le coup que les Nvidia. Autre preuve : dans le segment Pro, les perfs AMD sont au niveau de la gamme jeu Nvidia du dessus.
Donc, la HBM2 c'est l'avenir point. Consommation ridicule, chauffe pas, débits délirants, occupation de place, à côté du GPU, insignifiante. La GDDR6 rapporte du blé à Nvidia via brevets, qui produit davantage de GPU à cause des jeux dernier cri pour lesquelles elle produit des API propriétaires. Leur chiffre d'affaire est sur le jeu, mais leurs profits sont sur le Pro. Si vous regardez bien AMD les attaque actuellement sur le Pro. On a mieux pour 1/4 du prix des Quadro.
C'est une blague ? j'espère. La GDDR6 n'appartient pas à Nvidia mais au JEDEC, AMD devrait l'utiliser dans ses prochains GPu. Et le fait que la HBM2 soit l'avenir ne signifie pas que les RX Vega qui en ont soient l'avenir, quel raccourci....
par Un médecin des ragots embusqué, le Vendredi 06 Avril 2018 à 00h30  
Il n'existe pas encore de vaccin contre la rage AMD?

Sanofi devrait investir car ce virus est plus virulent celui de la dengue!
par HaVoC, le Jeudi 05 Avril 2018 à 22h41  
par Jemporte le Jeudi 05 Avril 2018 à 18h06
Sur AMD, il ne faut pas oublier que l'optimisation Nvidia favorable aux jeux, consiste en une dégradation acceptable.[...] . La preuve : les vielles cartes AMD restent largement plus dans le coup que les Nvidia. Autre preuve : dans le segment Pro, les perfs AMD sont au niveau de la gamme jeu Nvidia du dessus.
Donc, la HBM2 c'est l'avenir point. Consommation ridicule, chauffe pas, débits délirants, occupation de place, à côté du GPU, insignifiante. La GDDR6 rapporte du blé à Nvidia via brevets, qui produit davantage de GPU à cause des jeux dernier cri pour lesquelles elle produit des API propriétaires. Leur chiffre d'affaire est sur le jeu, mais leurs profits sont sur le Pro. Si vous regardez bien AMD les attaque actuellement sur le Pro. On a mieux pour 1/4 du prix des Quadro.
Sans API spécifique ? DX11 API clé en main, Open GL de même, Vulkan / DX12 demande un travail bas niveau plus importants ... et dégradation coté Nvidia ? Des preuves ? Les FP16 de Vega c'est une dégradation aussi alors ? (et faudrait préciser c'est quoi ces "dégradations".
Gameworks c'est une autre histoire.
Kepler souffre de certaines limitations niveaux triangles rendus et fillrate ou une 780 ti est dans les eaux d'une 960 ... bref Kepler était ok pour la charge des moteurs de l'époque et ne l'est plus, et également oui un manque d'optimisation spécifique hormis correction de bug. Mais Maxwell/Pascal sont plus équilibrés, leurs architectures étant une évolution conséquente face à Kepler, y a les tests théoriques qui le montrent bien ...
Coté pro ça dépend de ce qu'on fait ... et des logs utilisés.

La GDDR6 c'est une norme du JEDEC, il n'y a pas de brevet déposé par Nvidia à se niveau ...
par Sarge, le Jeudi 05 Avril 2018 à 22h40  
@Jemporte

Oui, clairement !...je suis passé chez AMD justement pour les points que vous soulevez :

- Carte qui vieillit bien mieux
- HBM2, avec un bus mémoire énorme
- Interface pilote et pilote meilleur, (whql Red vs whql Green)
- Prix moindre (acheté une AMD, high end, à 400 Frs, fdp in)
- Un refroidissement assez bon en blower, même si bruyant
=> seuls défauts : carte bruyante et pilote whql rare

Bref, je ne suis pas prêt de revenir chez les verts...qu'il aye se faire voir ! Néanmoins, évitez de me citer, car je ne suis pas pro AMD...mais, j'émets juste "mon avis" après déjà qq mois depuis mon acquisition et sans compter, mes qq années passés chez Nvidia.
par Jemporte, le Jeudi 05 Avril 2018 à 18h06  
Sur AMD, il ne faut pas oublier que l'optimisation Nvidia favorable aux jeux, consiste en une dégradation acceptable. C'est du Nvidia FX (de triste mémoire) amélioré et imperceptible en Full HD et +. On remarque que sans API spécifiques Nvidia, un jeu pose problème, artefacts ou autre, que Nvidia doit "patcher", ce qu'ils fonts pour leurs dernières séries de cartes. AMD délivre de la puissance brute, nécessite peu de patches autres que sur le fonctionnement global du pilote. La preuve : les vielles cartes AMD restent largement plus dans le coup que les Nvidia. Autre preuve : dans le segment Pro, les perfs AMD sont au niveau de la gamme jeu Nvidia du dessus.
Donc, la HBM2 c'est l'avenir point. Consommation ridicule, chauffe pas, débits délirants, occupation de place, à côté du GPU, insignifiante. La GDDR6 rapporte du blé à Nvidia via brevets, qui produit davantage de GPU à cause des jeux dernier cri pour lesquelles elle produit des API propriétaires. Leur chiffre d'affaire est sur le jeu, mais leurs profits sont sur le Pro. Si vous regardez bien AMD les attaque actuellement sur le Pro. On a mieux pour 1/4 du prix des Quadro.
par Un #ragoteur déconnecté embusqué, le Jeudi 05 Avril 2018 à 16h34  
par HaVoC le Jeudi 05 Avril 2018 à 13h59
Qu'AMD aurait pu faire une version plus économique de V10 avec de la mémoire type GDDR oui,mais on serait limiter par la consommation, plus encore qu'avec la HBM.
C'est ce que certains oublient à chaque fois...

En pratique, AMD avait le choix entre :

- optimiser son architecture pour favoriser la localité des données (choix d'en face depuis Maxwell, quoique la distribution du rasterizer dès Fermi tenait un peu de ça aussi, malgré une inutilité absolue à l'époque)
- diminuer le coût de l'absence d'optimisation en attendant de pouvoir sérieusement s'y mettre

Si pour Fiji on ne peut pas dire qu'AMD ait merdé (ça fonctionnait, même très bien dans le cas de la Nano), pour Vega il y a clairement eu un souci, qui n'aurait pas été si grave si le niveau de perfs avait réellement été compétitif avec le GP104 dans le domaine ludique.

Bon, après, sur le plan économique, le premier coupable était Nvidia... j'ai beau ne pas aimer la politique maison, pour le coup ils ont été trop vite dans la progression et ça coûtera cher à tout le monde.
par HaVoC, le Jeudi 05 Avril 2018 à 13h59  
par cabou83 le Jeudi 05 Avril 2018 à 11h55
Non GCN n'est pas tellement en cause, mais c'est le choix qu'a fait AMD qui est discutable. Vega 64 a beaucoup plus d'option pour les "pro" enfin tourné vers le gpgpu et les calculs spécifiques.
La preuve étant la fury X qui fait 8.9 Miliard de transistor, la vega 64 culmine à 12.5 Miliard hors c'est strictement le même die hormis les pipeline plus longue sur vega qui lui permet de monter plus haut en fréquence. Mais en jeux une vega 64 à 1050Mhz = la fury X donc les 3.6Miliard de transitor en plus servent a rien pour le gamer. Et ajoutons à ça la HBM qui a empêcher AMD de faire un die plus gros (à moins de proposer vega a 1000€ minimum à sa sortie vu l'interposer qu'il faudrait). Avec de la GDDR5X ou GDDR6 AMD aurait pus sortir un die de 600mm² pour le même tarif que la vega 64 donc plus puissante en jeux et réellement concurrencer le gp100 coté pro et le gp102 en jeux.
Au final je pense vraiment que ce qui limite le plus vega c'est bien la HBM et non pas GCN (du moins oui faut revoir l'archi elle commence sérieusement a accumuler un retard perf/watt) mais y avait possibilité de faire mieux en 14nm avec gcn.
Hum, la HBM et son interposer n'empêche pas vraiment AMD de faire un DIE plus grand, le GP100/GV100 sont bien plus gros et utilisent 4 empilements de HBM2 contre 2 sur V10, de plus un contrôleur mémoire de type GDDR occupe plus de transistors / surfaces sur le DIE que le contrôleur mémoire type HBM.

Qu'AMD aurait pu faire une version plus économique de V10 avec de la mémoire type GDDR oui,mais on serait limiter par la consommation, plus encore qu'avec la HBM.