COMPTOIR
  
register

GDDR6 : Micron dans les starting-blocks

Le lancement imminent- pas tout à fait mais on peut le considérer comme tel depuis le lancement de Pascal en mai 2016 - des Geforce RTX va permettre un premier contact de la GDDR6 avec le grand public. Son arrivée signe d'une façon ou d'une autre la mort programmée de la GDDR5 et de la GDDR5X. Nvidia avec ses RTX a choisi de la mémoire à 14 Gbps, et ce pour les 3 cartes dévoilées fin août. Question, qui a fourni le caméléon ?

 

Micron a répondu présent, et c’est bien lui qui s’enorgueillit de cette prouesse, ce qui ne signifie pas que les autres n'ont pas été compétitifs. On sait juste que Micron a équipé Nvidia avec ses pupucettes. Ce n'est en soi pas une grande surprise puisque le géant avait déclaré avoir débuté la production de masse fin juin avec pas mal de puces. Voici le catalogue prévu au début. On se souvient que la firme avait aussi poussé de la GDDR6 18 Gbps à 20.5 Gbps, annonçant de ce fait des évolutions futures ? Quid de Sk Hynix et de Samsung ?

 

micron gddr6 20gbps overclocking

Un poil avant ?

Pour 55 boules, t'as vraiment plus rien chez AMD ?

Un peu plus tard ...

Intel toujours encore à la poursuite d'un CEO

Les 8 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Thibaut G., le Samedi 08 Septembre 2018 à 18h50  
AMD n'a pas de support matériel du RT, ce ne sont pas des pilotes qui vont rendre leurs cartes actuelles tout à coup compétentes en la matière. Il est possible de faire du RT sans problème sur les GPU contemporains, le souci c'est qu'en l'absence d'accélération matérielle, il faut oublier les jeux vu le temps de traitement nécessaire.

DX12 ne (devrait pas) rend pas Nvidia naze, DX12 rend AMD meilleur qu'il n'est en DX11, car avec cet API, ses unités de calculs ne sont que trop rarement chargées au max du fait d'un déficit d'efficacité de GCN. DX12 permet souvent de rattraper ce retard via les async compute, qui augmentent justement ce taux de charge et donc l'efficience de l'archi (variable selon les moteurs 3D). Tout cela est conditionné au fait que les développeurs fassent leur boulot correctement, car on relaie trop souvent du DX12 moins perf que DX11 sur Pascal (il n'y a aucune raison technique à cela, si ce n'est la qualité du code) mais aussi et c'est un comble, sur Radeon.

Sors nous le passage où AMD déclare ce que tu écris, qu'un pilote seul leur permettrait de toper du RT type DXR, comme ça, en claquant des doigts ? Tu ne le feras pas parce que c'est une interprétation que tu fais de la trousse à outil qu'AMD souhaitait lancer pour faire du calcul RT avec les cartes pros, et que rien n'est encore fait plusieurs mois plus tard. Si c'était si simple ça se serait déjà fait. Or il n'en est rien, et même s'ils y parviennent, sans accélération dédiée type RT Core, ce ne sera jamais assez performant pour du jeu.
par Jemporte, le Jeudi 06 Septembre 2018 à 22h14  
par AttilaLeZero le Jeudi 06 Septembre 2018 à 08h47
"...sort ses futurs..." en 2022
Nvidia viole le portefeuille des kikougamers mais au moins ils sortent concretement qqchose
AMD....on attend....et au final on est decu
Pour l'instant on attend les pilotes avec support raytracing de part et d'autre.
Au niveau perfs Nvidia et AMD se tiennent, sur les gammes actuelles, par rapport aux prix. AMD semble même profiter des optimisations sur les jeux DX12 où Nvidia ne suit plus.
La seule différence se ferait, si de nombreux jeux sortaient avec support raytracing, et qu'AMD ne propose pas de pilote valable ou de carte pour les supporter. le FP16 est sorti supporté par plusieurs jeux depuis, qui font faire un bond de 20% aux Vega, et personne sur carte Nvidia ne semble s'en être inquiété, notamment parce que ce support arrive au compte gouttes.
AMD semble dire qu'ils peuvent sortir des pilotes compatibles raytracing pour leur gamme actuelle.
par TwoFace, le Jeudi 06 Septembre 2018 à 21h14  
par AttilaLeZero le Jeudi 06 Septembre 2018 à 08h47
"...sort ses futurs..." en 2022
Nvidia viole le portefeuille des kikougamers mais au moins ils sortent concretement qqchose
AMD....on attend....et au final on est decu
Non ça va, on a dépassé ce stade depuis longtemps
par Porte à double-battants embusqué, le Jeudi 06 Septembre 2018 à 17h16  
par Thibaut G. le Jeudi 06 Septembre 2018 à 09h59
le doc serait pas content de voir ce trou dans le continuum espace/temps
Fable que ce continuum espace-temps

Un petit convecteur temporel et des condensateurs inertiels sur la BX et tu verras si c'est si "continu" que ça
par Thibaut G., le Jeudi 06 Septembre 2018 à 09h59  
par inso le Jeudi 06 Septembre 2018 à 08h03
C'est bien... Que NVIDIA reste sur de la GDDR6... Pendant ce temps... AMD sort ses futures CG en 7nm sur de la HBM2 quadruple canal à 1.3To/sec...
le doc serait pas content de voir ce trou dans le continuum espace/temps
par HaVoC, le Jeudi 06 Septembre 2018 à 09h49  
par inso le Jeudi 06 Septembre 2018 à 08h03
C'est bien... Que NVIDIA reste sur de la GDDR6... Pendant ce temps... AMD sort ses futures CG en 7nm sur de la HBM2 quadruple canal à 1.3To/sec...
Vega 20 qui aux dernières nouvelles ne sera pas décliné en version pour joueur, encore plus orienté compute / Deep Learning avec ajout d'instruction supplémentaire dédiées à cela et retour de la double précision.

GDDR6 qu'AMD utilisera également sur Navi qui lui se retrouvera sur les cartes graphiques pour joueur donc bon la HBM2 .
par AttilaLeZero, le Jeudi 06 Septembre 2018 à 08h47  
par inso le Jeudi 06 Septembre 2018 à 08h03
C'est bien... Que NVIDIA reste sur de la GDDR6... Pendant ce temps... AMD sort ses futures CG en 7nm sur de la HBM2 quadruple canal à 1.3To/sec...
"...sort ses futurs..." en 2022
Nvidia viole le portefeuille des kikougamers mais au moins ils sortent concretement qqchose
AMD....on attend....et au final on est decu
par inso, le Jeudi 06 Septembre 2018 à 08h03  
C'est bien... Que NVIDIA reste sur de la GDDR6... Pendant ce temps... AMD sort ses futures CG en 7nm sur de la HBM2 quadruple canal à 1.3To/sec...