COMPTOIR
register

Vega confirmé pour le premier semestre 2017

Lors de la conférence Capsaicin, AMD avait dévoilé ses projets pour les 2 à 3 prochaines années. Le planning était clair, puisque 2016 était réservé au lancement de Polaris 10 et 11, tandis que Vega était prévu au tout début 2017. Sur ces infos, nous avions compris que Polaris se concentrerait principalement sur le rapport perf/watt, avec certes des améliorations par rapport aux précédentes puces GCN, mais avec un fossé se creusant encore avec Pascal. Et Vega quant à lui était destiné à être le gros GPU, épaulé par la HBM2. Malgré ce plan de bataille clair, il y en a qui ont malgré tout commencé à colporter des rumeurs parfaitement infondées, et ce dès le lancement de la RX 480 mi-figue mi-raisin, avec le plantage d'AMD concernant l'alimentation de ses cartes de référence.

 

Néanmoins, nous n'avons pas cessé de vous rappeler qu'officiellement Vega était toujours prévu pour 2017, et nous avons bien fait de tenir la ligne puisqu'AMD vient de confirmer la chose lors d'une conférence tenue en août sur ses résultats financiers. Clairement il est écrit que le futur sera lancé durant le premier semestre 2017. Non seulement 2016 est complètement exclu, mais en plus on passe de début 2017 lors de Capsaicin à premier semestre 2017, ce qui montre qu'au contraire la grosse carte AMD pourrait être même en retard par rapport aux prévisions initiales. Il ne reste plus qu'à attendre Zen, qui pourrait être la raison principale d'un report de Vega, afin de profiter d'une bonne lucarne de diffusion pour chacun des produits.

 

amd vega confirmation

 

Un poil avant ?

Acer annonce son Predator Z271 et il est déjà dispo en boutiques

Un peu plus tard ...

Le manoir des Croft en danger dans le prochain DLC de Rise of the Tomb Raider

Les 38 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par cabou83, le Dimanche 04 Septembre 2016 à 13h28  
par Eric B. le Dimanche 04 Septembre 2016 à 11h31
Pour le reste on est d'accord, si AMD parvient à faciliter la montée en fréquence de GCN sans faire exploser la consommation, le rapport de force pourrait s'équilibrer voire mieux. Est-ce possible dès Vega, c'est toute la question.
Je pense pas, je pense a un Vega10 au alentour des 1280Mhz grand max, pour 250w, HBM2 avec DP pour 550/600mm² tout aussi puissante que le GP102 enfin comme l'est la 480 face à la 1060. Nvidia sortira une 1080Ti avec le GP102 complet et des fréquences plus hautes pour venir ternir cette Vega 10 comme d'habitude, mais on va je pense se retrouver exactement avec schéma Fury X VS 980Ti, avec le V10 vs le GP102.
Par contre Polaris se devait etre le remplaçant des futurs consoles PS4/One, donc on peut se dire que c'est pour ça qu'AMD a effectué peut de changement pour rester compatible avec les jeux des ancienne console et donc GCN1.0/1.1, et Vega n'a pas cette contrainte de plus plus de 6 mois après la sortie de Polaris on peut pensé a une refonte de l'archi mais bon c'est un doux rêve je pense, je pense plus pragmatique Vega 10 = P10 X2 sous HBM2.
par Eric B., le Dimanche 04 Septembre 2016 à 11h31  
par cabou83 le Samedi 03 Septembre 2016 à 21h22
... AMD/ATI a toujours eu l'avantage du perf/taille de die, est c'est encore vrai sur GCN...
C'est pourtant ce que tu as écrit juste avant d'où ma tirade sur le sujet .
par cabou83 le Dimanche 04 Septembre 2016 à 09h08
Encore une fois oui GCN n'a maintenant plus l'avantage, mais ils sont a peut de chose prés équivalents en taille/perf...
Pour le côté presque équivalent du ratio perfs/taille c'est une question de point de vue car 20% d'écart (c'est ce qui existe entre GP106 et P10) c'est au contraire un écart significatif à mon sens.

Pour le reste on est d'accord, si AMD parvient à faciliter la montée en fréquence de GCN sans faire exploser la consommation, le rapport de force pourrait s'équilibrer voire mieux. Est-ce possible dès Vega, c'est toute la question.
par cabou83, le Dimanche 04 Septembre 2016 à 09h08  
par Eric B. le Dimanche 04 Septembre 2016 à 07h12
Marc, il faut être factuel par moment : non GCN n'a plus l'avantage perf/taille, ce n'est plus le cas depuis Maxwell et c'est encore plus flagrant avec Pascal...
Encore une fois oui GCN n'a maintenant plus l'avantage, mais ils sont a peut de chose prés équivalents en taille/perf. Malgré les 500Mhz qui les sépare, arrive a mieux géré les nouvelle API (plus de transistor que Nvidia pour ça) et en plus la 480 est en bus 256bits vs 196bits pour la 1060, et d'ailleurs c'est pas très utile autant de bande passante pour la 480 vu les compresseurs etc, mais ça c'est souvent le cas chez AMD qui alloue beaucoup (trop) de bande passante sur ses GPU.
Et tu as raison je le sais pouvoir monté plus haut en fréquence demande plus de transistors, et impossible de dire quelle place ça prendrait en plus si l'archi était faite pour monté à 1.7Ghz...
Je pense vraiment qu'AMD ne s'attendait pas a de tels fréquence pour Pascal, mais dans le fond GCN a pour moi que la lacune de la consommation et la montée en fréquences (mais dans l'états vu déjà la conso a 1250mhz...) les CU sont plutôt bien alimenté, rien que les ROPS etc... On le voit sur la Fury X face a la 980Ti et la 480 vs la 1060 en poussant la réso les carte AMD s'en sorte mieux quitte a rattraper Nvidia. Juste que maintenant l'écart de fréquence commence a être inquiétant...
par Eric B., le Dimanche 04 Septembre 2016 à 07h12  
Marc, il faut être factuel par moment : non GCN n'a plus l'avantage perf/taille, ce n'est plus le cas depuis Maxwell et c'est encore plus flagrant avec Pascal. La performance d'un GPU est déterminée par son architecture, sa largeur et sa fréquence de fonctionnement, ces points étant intimement liés. Faciliter la montée en fréquence signifie souvent utiliser de nombreux transistors pour gérer cet aspect (redondance du signal, etc.) donc on ne peut pas faire le raccourci qu'une architecture conçue pour fonctionner à 1,2 GHz s'avérerait tout aussi efficace qu'une autre conçue pour monter à 1,8 Ghz si elle y parvenait. Avec des "si" on fait des miracles, mais P10 est bien incapable d'atteindre tel quel les fréquences de Pascal et pas que pour des raisons de consommation, mais bien de conception à revoir pour faciliter cette faculté. GP106 est plus performant qu'Ellesmere avec une superficie inférieure de 10% donc le ratio perf/taille lui est favorable et ça c'est un fait mesurable, tout autre interprétation n'est que conjecture.

Qui plus est, cette caractéristique perf/taille (qui n'intéresse d'ailleurs qu'AMD et NVIDIA pour les coûts de production parce que le client lui s'en moque pourvu que le tarif soit compétitif au vu des prestations proposées) est en réalité encore plus défavorable à GCN pour deux raisons : d'une NVIDIA ne pousse pas sa puce à sa limite comme le fait AMD ce qui lui permet de soigner l'aspect perf/watt mais dégrade quelque peu les performances (donc le ratio perf/taille) et de deux P10 dispose d'un process 9% plus dense qui lui donne pour l'aspect taille du die un avantage. Bref, AMD disposait effectivement d'un ratio perf/taille plus avantageux pendant longtemps (du fait de l'utilisation de beaucoup plus de SRAM (plus dense) au sein de ses puces et probablement d'un meilleur agencement de la puce pour viser cet objectif de compacité ) mais je le répète tout ceci a évolué, il faut regarder la réalité telle qu'elle est aujourd'hui...

Pour revenir au perf/Watt, oui c'est rageant qu'AMD n'ait pas pu capitaliser sur cet avantage lorsqu'il l'avait, ce n'est pas une généralité non plus, ce point a parfois basculé de l'autre côté selon les générations, mais cela montre comme je te l'écrivais précédemment que les mentalités ont changé en termes "d'à côté aux perfs" ce qui explique que ce ratio ait plus d'importance maintenant. Faut pas non plus tomber dans la théorie du complot en imaginant que maintenant que c'est défavorable à AMD il est mis en évidence... mais c'est sûr que NVIDIA est souvent plus habile que son concurrent pour mettre en avant ses points forts et dissimuler ses points faibles !

Enfin, tu n'as à priori pas compris ce que j'explique par limite : oui Powertune et GPU Boost permette d'aller plus loin au niveau des puces et c'est finalement mieux pour le client (jamais dit le contraire), mais comme justement ces mécanismes agissent au niveau de la consommation (entre autres), plus le ratio perf/watt est élevé plus tu tires de performances d'où le handicap flagrant de GCN face à Pascal. Cela en revient à ton sentiment d'injustice : aujourd'hui cela donne une importance prépondérante (et légitime puisque directement mesurable au niveau des performances cette fois et pas juste en impact environnemental / nuisances) à cet aspect qui n'existait pas ou peu avant...
par cabou83, le Samedi 03 Septembre 2016 à 21h22  
par Eric B. le Samedi 03 Septembre 2016 à 16h54
...
Je te critique pas toi, mais c'est un peu le ressentis générale, et j'ai cité les GTX400/500 vs les HD5000/6000 mais même avant le perf/watt étais généralement a l'avantage d'ATI, sans pour autant qu'on face si mauvaise presse des Nvidia d'en temps face a ce que subis AMD aujourd'hui...
Après AMD est dans un bullshit marketing de perf/watt qui est ridicule face à Nvidia mais dans le font c'est rassurant, ils savent que c'est pas gagné et les ingénieur doivent se focalisé encore la dessus pour la suite.
Tu parle de limite, mais encore une fois c'est l'évolution classique de l'informatique, proposer le mieux et le top du top du GPU en stock, donc les puriste trouve ça dommage car le potentiel d'OC est beaucoup plus faible mais je pense que ça sera de plus en plus le cas avec des contrôleur qui adapterons de plus en plus la charge du GPU selon un TDP définis comme le max de base, autant Nvidia que AMD doivent penser à ça...
AMD/ATI a toujours eu l'avantage du perf/taille de die, est c'est encore vrai sur GCN mais vu qu'il consomme plus on est maintenant a 500Mhz de différence et voir plus si on parle a même conso. Une 480 a 1.8Ghz serait tout aussi efficace que la 1070 pour une taille plus petite.
Donc AMD doit revoir encore la conso et la monté en fréquence, assez rapidement y a du pain sur la planche...
par Eric B., le Samedi 03 Septembre 2016 à 16h54  
par cabou83 le Samedi 03 Septembre 2016 à 13h27
Dsl pour la réponse tardive j'avais vu ton commentaire, mais pas eu le temps d'y repondre.Si je compare vraiment on a deux cartes qui part le passé me font penser a ce qu'on a aujourd'hui. La HD6850 vs la GTX460 (1Go) même perf 110w la 6850 et 150w la 460 (comme la 1060 et la 480 mais inversé ). J'ai pas pris la 560 car elle était plus puissante et consomme plus que la 460 mais c'est pareil Nvidia a pas tellement amélioré le perf/watt sur la série 500 face au 400.Et donc a cette époque la 460 (et 560) était très largement salué par la presse et en aucun cas elles avait mauvaise presse au point de dire Fermi est a bout de souffle face au VLIW d'AMD. Donc la dire que GCN est a bout de souffle est un peu fort.Par contre GCN montre ses limite a 1250Mhz que ce soit la 480/470 ou la 460 la consommation explose au delà de cette fréquence, chez Nvidia ce stade avec Pascal est plus dans la 1800Mhz. Il faut donc savoir pourquoi, le 14nm ? l'archi ?Je pense juste AMD a pas revu les pipelines depuis GCN 1.0, qui ont déjà été raccourci au passage du VLIW à GCN. Donc on est passé du GHz à 1.25Ghz grâce au FinFet, mais au delà le perf/watt suit plus, Vega risque d'être pareil.
Fermi était une catastrophe en terme de conso, personne n'a dit le contraire, cela a été écrit clairement. La situation était toutefois différente à plusieurs titre : les cartes n'était pas limitées par leur consommation max. ce qui est le cas aujourd'hui par le biais de GPU Boost ou Powertune d'où l'importance accrue de ce facteur. Qui plus est, l'aspect nuisances sonores n'était pas aussi développé qu'il l'est aujourd'hui, je doute que beaucoup (moi le premier) acceptent de revenir au "standard" de l'époque et la consommation est le principal ennemi à ce niveau.

Pour finir lorsque la GTX 460 est sortie, elle concurrençait la HD 5830 avec brio d'où la bonne presse, les HD 6800 sont sorties plus de 3 mois après. Là où je te rejoins, c'est qu'effectivement certains se moquaient totalement de la conso et du jour au lendemain en font un argument primordial pour cracher sur AMD, mais l'inverse est vrai aussi avec une relativisation de cet argument alors qu'il servait à cracher sur NVIDIA précédemment, bref la mauvaise foi est de mise de part et d'autres sur le sujet, c'en est amusant.

Maintenant ta remarque comparant GCN à Fermi dans leur face à face respectif est à mon avis hors de propos : Fermi était une toute nouvelle architecture qui faisait se débuts et essuyait les plâtres, GCN en est à sa 4ème révision. Et ce n'est pas lui faire injure que d'écrire comme certains l'ont fait (ce qui n'est pas mon cas en passant) qu'elle est à bout de souffle. C'est pour certains aspects vrai (géométrie et montée en fréquence) même si elle conserve des atouts ( flexibilité ) et qu'en face tout n'est pas parfait dans tous les domaines non plus, comme toujours tout est histoire de compromis.

Mais il est clair qu'AMD doit la faire évoluer largement plus que ce qu'il n'a fait jusqu'alors car l'écart avec le concurrent s'accentue. Cela ne veut pas dire qu'il faut forcément faire table rase du passé, après tout Pascal descend de Fermi et les fondations n'ont pas changé, NVIDIA a juste ajusté ce qui devait l'être au bon moment alors qu'AMD est resté trop conservateur et le paie depuis 2 ans : Tonga qui a étrenné GCN 3 devait faire de l'ombre au GM204 lancé dans le même créneau, on a vu le résultat en pratique qui a permis à NVIDIA de dominer outrageusement ce qui n'est bon pour personne.

Côté Polaris, ne pas parvenir à devancer les puces Maxwell en efficacité énergétique avec un énorme avantage en termes de process est inquiétant pour Vega qui, puce haut de gamme oblige, sera encore plus sensible aux limites de son enveloppe thermique, surtout qu'il devrait en toute logique employer de nombreux transistors pour la DP (je doute qu'AMD ait les moyens de se payer 2 puces dédiées comme le fait le concurrent). On aura peut-être une bonne surprise ceci-dit, reste que NVIDIA joue sur du velours avec des puces plus petites et plus performantes du fait du différentiel de fréquences.
par cabou83, le Samedi 03 Septembre 2016 à 13h27  
par Eric B. le Lundi 29 Août 2016 à 13h12
on voit bien que les dernières RADEON sont justement limitées par la limite de leur enveloppe thermique !
Dsl pour la réponse tardive j'avais vu ton commentaire, mais pas eu le temps d'y repondre.
Si je compare vraiment on a deux cartes qui part le passé me font penser a ce qu'on a aujourd'hui. La HD6850 vs la GTX460 (1Go) même perf 110w la 6850 et 150w la 460 (comme la 1060 et la 480 mais inversé ). J'ai pas pris la 560 car elle était plus puissante et consomme plus que la 460 mais c'est pareil Nvidia a pas tellement amélioré le perf/watt sur la série 500 face au 400.
Et donc a cette époque la 460 (et 560) était très largement salué par la presse et en aucun cas elles avait mauvaise presse au point de dire Fermi est a bout de souffle face au VLIW d'AMD. Donc la dire que GCN est a bout de souffle est un peu fort.
Par contre GCN montre ses limite a 1250Mhz que ce soit la 480/470 ou la 460 la consommation explose au delà de cette fréquence, chez Nvidia ce stade avec Pascal est plus dans la 1800Mhz. Il faut donc savoir pourquoi, le 14nm ? l'archi ?
Je pense juste AMD a pas revu les pipelines depuis GCN 1.0, qui ont déjà été raccourci au passage du VLIW à GCN. Donc on est passé du GHz à 1.25Ghz grâce au FinFet, mais au delà le perf/watt suit plus, Vega risque d'être pareil.
par cabou83, le Mardi 30 Août 2016 à 09h14  
par Flashback le Mardi 30 Août 2016 à 05h50
si on tient également compte de l'absence de monter en fréquence de Polaris..... on voit bien que GCN est à bout de souffle.
On sait que GCN a des Pipeline plus petite que l'ancienne génération de ATI (HD500/6000). AMD a grandement amélioré l'IPC sur GCN a les a réduite pour augmenté la place afin de mettre plus de transistors. Pour le 28nm c'était suffisant car le GHz etait une bonne fréquence, la avec le FinFet peut être qu'il faudrait pouvoir monté plus haut. Mais comme je l'ai dis Polaris 10 et GM206, même taille de die perf proche AMD a 1,2Ghz Nvidia a 1,7Ghz. Donc limite on s'en fous de la fréquence c'est deux approche architectural qui se valent.
Nvidia a dit depuis Maxwell et Pascal travailler essentiellement pour la monté en fréquence, pas AMD. Et de plus AMD on des problème je pense sur des unités non utilisé dans les jeux qui consomme quand même. Mais il ont bien réussi a corrigé certaine chose avec GCN4 mais pas encore assez face a Pascal, donc ils sont sur la bonne voie faut mettre plus de contrôleur de tension.
par ThePapyGeek, le Mardi 30 Août 2016 à 09h13  
"que Polaris se concentrerait principalement sur le rapport perf/watt,"

Euh c'est une blague ? 93 degrés celcius pour des perfs similaire a une GTX 970 qui consomme deja moins c'est un exploit ???

par Baba the Dw@rf, le Mardi 30 Août 2016 à 08h45  
par Flashback le Mardi 30 Août 2016 à 05h50
si on tient également compte de l'absence de monter en fréquence de Polaris..... on voit bien que GCN est à bout de souffle.
A ce niveau la je ne suis pas tout a fait d'accords. CUDA est la depuis la série 8000 et s'ils montent autant en fréquences aujourd'hui c'est parce qu'il n'a eu de cesse d'être transformé et d'évoluer. Un constat basé sur une observation des fréquences sans connaitre les causes de cette incapacité à monter en fréquences ne permet pas tirer ces conclusions vis à vis de l'unité de traitement minimale utilisée. Maintenant quant à savoir si on peut ou non faire évoluer GCN pour mieux monter en fréquence je ne le sait pas plus que toi et seul l'avenir le dira, tout ce que je sais c'est qu'ils ont pas du tout travaillé cet aspect sur GCN 4 et que c'est bien ce qui creuse l'écart entre AMD et NVidia sur cette génération.
par Flashback, le Mardi 30 Août 2016 à 05h50  
par Baba the Dw@rf le Lundi 29 Août 2016 à 21h40
Ca m'énerve de l'avouer mais je suis en partie d'accords. GCN a de sérieux problèmes d'efficacité (qu'ils tuent le DP s'il faut mais sérieux la ils ne peuvent plus tenir).

Maintenant s'il s'agit juste de faire face au GTX 1070/1080, il "suffisait" de sortir une "Fury X" 1200Mhz/8Go HBM2 pour taper entre les deux niveaux performance pour 200w (ce qui reste raisonnable)
Et puis si la RX 480 est sortie trop tôt, il suffit de voir la 470 pour voir que GCN 4.0 est pas si mauvais une fois "aboutit" vu que pour 1/9eme d'UC en moins on consomme presque 1/4-1/3 de moins à fréquence nominale équivalente...
Bref, AMD pourrait faire des trucs convenable et les 6 mois supplémentaires pour travailler Vega (qui a toujours été annoncée pour début 2017 en fait) permettrons peut-être de fournir du très bon.
La j'attends surtout Zen parce que si il tient ses promesses et que IOMMU est bien de la partie, ça pourrait donner un processeur extrêmement intéressant
si on tient également compte de l'absence de monter en fréquence de Polaris..... on voit bien que GCN est à bout de souffle.
par Baba the Dw@rf, le Lundi 29 Août 2016 à 21h40  
par Flashback le Lundi 29 Août 2016 à 06h35
...

ou plutôt AMD ne s'attendait pas à Pascal tel qu'il est et sont en pleine panique pour tenter de faire baisser la conso de Vega malgré l'utilisation de la HBM2. Après si Vega n'est qu'un Polaris avec plus de SP et de la HMB ...... bof quoi .... GCN est déjà au max de ses possibilités et il est temps de sortir une architecture plus efficiente.
Ca m'énerve de l'avouer mais je suis en partie d'accord. GCN a de sérieux problèmes d'efficacité (qu'ils tuent le DP s'il faut mais sérieux la ils ne peuvent plus tenir).

Maintenant s'il s'agit juste de faire face au GTX 1070/1080, il "suffisait" de sortir une "Fury X" 1200Mhz/8Go HBM2 pour taper entre les deux niveaux performance pour 200w (ce qui reste raisonnable)
Et puis si la RX 480 est sortie trop tôt, il suffit de voir la 470 pour voir que GCN 4.0 est pas si mauvais une fois "aboutit" vu que pour 1/9eme d'UC en moins on consomme presque 1/4-1/3 de moins à fréquence nominale équivalente...
Bref, AMD pourrait faire des trucs convenable et les 6 mois supplémentaires pour travailler Vega (qui a toujours été annoncée pour début 2017 en fait) permettrons peut-être de fournir du très bon.
La j'attends surtout Zen parce que si il tient ses promesses et que IOMMU est bien de la partie, ça pourrait donner un processeur extrêmement intéressant