COMPTOIR
register

Continuons sur les GPU de prochaine génération, vers des monstres de puissance ?

Les rumeurs se développent de plus en plus sur la prochaine génération de cartes graphiques vertes ou rouges, probablement liées à une déception - non pas technique, mais en matière de disponibilité - qu'auront marqué les GPU Ampere et RDNA2. Il faut dire que rien n'est très fixé, puisque l'informatique grand public prend un tournant notable dans les prochains mois en multipliant les GPU conçus en MCM et en passant aux gravures 5 nm utilisant l'EUV. Des méthodes qui rendront très probablement inconstantes les rumeurs, puisqu'il reste difficile de réellement anticiper l'impact des ces évolutions, d'autant plus que chez NVIDIA, nous n'avons toujours pas de réelle confirmation de qui portera le prochain flambeau entre Hopper et Ada Lovelace, le premier étant en MCM  alors que le second reste en monolithique. 

 

Il semblerait donc que les premiers pronostics donnent des consommations en apparence hors normes, dans les environs des 450 W, qu'importe le fabricant. Des projections basées sur les écarts de puissance annoncés, la taille des dies et le passage en MCM. Toutefois, même si nous admettons que les lanceurs d'alertes qui nous rapportent ces informations sont généralement pas loin du mille, nous garderons certaines réserves avant de prendre pour argent comptant les propos rapportés. Premièrement, nous l'avons dit, les changements technologiques sont assez importants, et il est très compliqué d'utiliser les mêmes méthodes d'estimation que par le passé, le passage à l'EUV et au MCM pouvant largement jouer.

 

Un autre point, nous ne savons pas encore totalement l'intégralité de la construction des GPU, notamment si un packaging 2.5D sera mis en place, ce qui pourrait jouer sur la consommation finale des GPU. Donc, il est bien possible que la consommation des prochains GPU soit en hausse chez les deux fabricants, en revanche cela ne veut pas dire que les chiffres rapportés seront exacts, car il reste encore bien de trop d'incohérences et d'imprécisions dans tout ça. Espérons en tout cas que cela ne devienne pas une mauvaise habitude, car l'augmentation progressive en consommation du matériel informatique demandera encore plus d'exigence sur les alimentations, la construction des cartes et la dissipation de chaleur. (source : 3DCenter)

 

amd vs nvidia chauffe

Voici une version plus chaude d'un meme classique dans le domaine.

Un poil avant ?

Les premières cartes CDNA2 déjà en phase d'envoi chez les rouges ?

Un peu plus tard ...

Papa, dessine-moi un socket AM5 !

Les 35 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par aonesur, le Mercredi 18 Août 2021 à 19h51  
Le multi-GPU n'est plus pris en charge par les pilotes, car il devient presque impossible de l'appliquer automatiquement dans les jeux modernes. surveyzop
par Rondoudou, le Lundi 02 Août 2021 à 19h13  
par Un hardeur des ragots en Bourgogne-Franche-Comté le Lundi 02 Août 2021 à 16h58
Alors c'est simple, un gpu efficient et performant ça existe déjà, il suffit de prendre celui qui a le plus de cores. Bon c'est pas de bol, c'est le plus cher. Tu baisses le TDP et boum, t'as une bête de rapport perf - conso. Pour reprendre l'exemple que j'ai donné dans un précédent message, 2080TI @ 60% TDP (155 watts) = 80% des perfs d'une 2080TI @ 100% TDP (260w). Soit plus de perfs qu'une 2080 qui consomme environ 220w. Pour situer, une 2060 c'est 160w soit une conso similaire... pour pas du tout le même niveau de perf.

T'es pas obligé de prendre le plus gros GPU existant, disons le plus gros GPU que tu peux te permettre d'acheter, et tu baisses le TDP (littéralement 2 clics avec MSI Afterburner).

Dans les datacenters on raffole des cpu ayant plein de coeurs à basse fréquence, c'est exactement le même principe : c'est plus efficient que d'avoir peu de coeurs à haute fréquence, argument qui a son importance, la conso et le refroidissement étant des postes de dépense considérables.

Bref c'est possible d'avoir un GPU performant et économe, ça existe déjà, à ceci-près qu'ils ne sont pas réglés / vendus comme tels. Pourquoi ? Certainement parce-que NVidia et AMD considèrent qu'il n'y a pas de marché pour ça. C'est à dire : tout le monde s'en fout... comme d'hab avec l'écologie.
Si on compare la gen' actuelle à la précédente on se rend compte que le ratio perf/conso' n'évolue pas beaucoup, c'est ce que je pointe du doigt. Mais oui je sais, j'ai une 2070 SUPER et j'ai baissé le Vcore sans soucis et elle monte bien en fréquence toute seule, elle fait le taf
par Un hardeur des ragots en Bourgogne-Franche-Comté, le Lundi 02 Août 2021 à 16h58  
par Rondoudou le Lundi 02 Août 2021 à 12h22
Oui enfin...je joue en 1440p, mais c'est valable pour tout, je peux très bien coller à mon R5 3600 une 1050 au GPU histoire de dire "t'as vu je consomme peu" mais si c'est pour jouer en ultra low à 30 ips, non merci ... c'est une question d'équilibre je pense, à titre personnel je ne vise pas le top du top, je veux quelque chose d'efficient
Alors c'est simple, un gpu efficient et performant ça existe déjà, il suffit de prendre celui qui a le plus de cores. Bon c'est pas de bol, c'est le plus cher. Tu baisses le TDP et boum, t'as une bête de rapport perf - conso. Pour reprendre l'exemple que j'ai donné dans un précédent message, 2080TI @ 60% TDP (155 watts) = 80% des perfs d'une 2080TI @ 100% TDP (260w). Soit plus de perfs qu'une 2080 qui consomme environ 220w. Pour situer, une 2060 c'est 160w soit une conso similaire... pour pas du tout le même niveau de perf.

T'es pas obligé de prendre le plus gros GPU existant, disons le plus gros GPU que tu peux te permettre d'acheter, et tu baisses le TDP (littéralement 2 clics avec MSI Afterburner).

Dans les datacenters on raffole des cpu ayant plein de coeurs à basse fréquence, c'est exactement le même principe : c'est plus efficient que d'avoir peu de coeurs à haute fréquence, argument qui a son importance, la conso et le refroidissement étant des postes de dépense considérables.

Bref c'est possible d'avoir un GPU performant et économe, ça existe déjà, à ceci-près qu'ils ne sont pas réglés / vendus comme tels. Pourquoi ? Certainement parce-que NVidia et AMD considèrent qu'il n'y a pas de marché pour ça. C'est à dire : tout le monde s'en fout... comme d'hab avec l'écologie.
par Rondoudou, le Lundi 02 Août 2021 à 12h22  
par ockiller en Auvergne-Rhône-Alpes le Lundi 02 Août 2021 à 07h04
@Un ragoteur sans nom : L'efficacité énergétique c'est déjà depuis longtemps le nerf de la guerre. On est plus limités par la consommation que par le nombre de transistors qu'on peut utiliser, et c'est toujours de plus en plus le cas. Donc les constructeurs cherchent déjà à faires les architectures GPU les plus efficaces.

Les produits finaux ne sont certes pas configurées dans leur plage d'efficacité énergétique optimale, mais tu as le contrôle là dessus, comme d'autres l'ont dit. L'undervolting est très efficace pour baisser la conso sans trop faire baisser les performances. Et tu peux toujours underclocker en plus. Et rien ne t'obliges à prendre une carte haut de gamme, des cartes qui consomment peu ça existe, et tout ce que j'ai dit s'applique aussi. Tu as même les GPU intégrés, là niveau consommation de la plateforme c'est imbattable.

Tu peux construire un PC qui consomme très peu, donc je ne comprends pas trop ta tirade. Certes tu dois choisir entre performances et faible consommation, il n'y a pas de miracles, les deux sont forcément liés. Mais c'est toi qui peut choisir en fonction de tes priorités.

Concernant le rachat d'ARM par nVidia, là aussi tu mélanges un peu tout. ARM c'est principalement pour ses CPU. nVidia n'en a rien à faire des GPU ARM, ceux d'nVidia sont meilleurs à tous points de vue.
Oui enfin...je joue en 1440p, mais c'est valable pour tout, je peux très bien coller à mon R5 3600 une 1050 au GPU histoire de dire "t'as vu je consomme peu" mais si c'est pour jouer en ultra low à 30 ips, non merci ... c'est une question d'équilibre je pense, à titre personnel je ne vise pas le top du top, je veux quelque chose d'efficient
par ockiller en Auvergne-Rhône-Alpes, le Lundi 02 Août 2021 à 08h00  
par TheMagnificientHohenheim en Île-de-France le Lundi 02 Août 2021 à 01h18
Il n'est plus supporté car il est largement useless. Une histoire de rendue différé ou un truc dans le meme genre, le comptoir en avant parler ya quelques temps, j'aimerais bien comprendre cette histoire aussi.
Le multi-GPU n'est plus supporté par les drivers, parce que ça devient presque impossible de l'appliquer automatiquement dans des jeux modernes. Rien qu'avec l'anti-aliasing / le denoising, chaque pixel a besoin de connaitre son entourage (donc on ne peut plus découper l'image et donner chaque partie à chaque GPU), et d'utiliser une ou plusieurs images précédentes (donc on ne peut plus donner des images différentes à chaque GPU).
Par contre, c'est tout à fait possible de faire du rendu multi-GPU avec les API modernes (DX12, Vulkan, ...), mais c'est entièrement de la responsabilité de l'application. Ca n'utilise pas les ponts spéciaux SLI, mais ça peut fonctionner avec n'importe quelle combinaison de cartes graphiques. Mais personne ne le fait (ou presque) car c'est juste trop compliqué / contraignant, et ça ne vaut pas le coup vu la rareté des joueurs étant dans cette configuration (ce qui est d'ailleurs un peu lié au fait que les gens croient que ça n'existe plus, mais c'est pour de bonnes raisons donc on ne va pas chipoter )
par ockiller en Auvergne-Rhône-Alpes, le Lundi 02 Août 2021 à 07h04  
@Un ragoteur sans nom : L'efficacité énergétique c'est déjà depuis longtemps le nerf de la guerre. On est plus limités par la consommation que par le nombre de transistors qu'on peut utiliser, et c'est toujours de plus en plus le cas. Donc les constructeurs cherchent déjà à faires les architectures GPU les plus efficaces.

Les produits finaux ne sont certes pas configurées dans leur plage d'efficacité énergétique optimale, mais tu as le contrôle là dessus, comme d'autres l'ont dit. L'undervolting est très efficace pour baisser la conso sans trop faire baisser les performances. Et tu peux toujours underclocker en plus. Et rien ne t'obliges à prendre une carte haut de gamme, des cartes qui consomment peu ça existe, et tout ce que j'ai dit s'applique aussi. Tu as même les GPU intégrés, là niveau consommation de la plateforme c'est imbattable.

Tu peux construire un PC qui consomme très peu, donc je ne comprends pas trop ta tirade. Certes tu dois choisir entre performances et faible consommation, il n'y a pas de miracles, les deux sont forcément liés. Mais c'est toi qui peut choisir en fonction de tes priorités.

Concernant le rachat d'ARM par nVidia, là aussi tu mélanges un peu tout. ARM c'est principalement pour ses CPU. nVidia n'en a rien à faire des GPU ARM, ceux d'nVidia sont meilleurs à tous points de vue.
par TheMagnificientHohenheim en Île-de-France, le Lundi 02 Août 2021 à 01h18  
par Un ragoteur pas hype en Auvergne-Rhône-Alpes le Vendredi 30 Juillet 2021 à 19h55
dommage que le sli/crossfire ne soient plus supportés , avec du cpu qui bouffe 250/300w , y'aurait eu de quoi faire vraiment péter les consos
Il n'est plus supporté car il est largement useless. Une histoire de rendue différé ou un truc dans le meme genre, le comptoir en avant parler ya quelques temps, j'aimerais bien comprendre cette histoire aussi.
par Un ragoteur sans nom embusqué, le Dimanche 01 Août 2021 à 18h20  
Pour finir, ici certains se régalent à dire que ce sont de parfait radiateur de chauffage d'hiver, mais vous pensez qu'a vous, il y a plein d'endroit dans le monde ou c'est un problème inverse, les endroits où il fait toujours chaud de jour comme de nuit toute l'année et je suis bien placé pour le savoir...La on peut juste facilement transformer une pièce en four géant, ou il faudra des climateurs à fond qui consomment encore plus d'énergie qu'on veut économiser. Les simples ventilateurs ne suffisent plus.une clim c'est 3000 watt dégager en 9000 BTU.Donc arrêtons ce carnage à venir.Certains qui craignent déjà la chaleur mettent déjà des clim souvent (ce qui n'est pas mon cas) alors imaginez avec ce matériel hardware et en plus la tronche du matériel sur la durée avec la chaleurs et l'humidité.
par Un ragoteur sans nom embusqué, le Dimanche 01 Août 2021 à 18h09  
Voilà une des plus grosses hypocrisie de monde moderne, on nous parle tous les jours où presque de réduire notre pollution et consommation d'énergie, mais les constructeurs de matériel informatique font des produits qui consomment toujours plus (cpu, GPU, etc).Les gouvernements et Etats qui veulent nous imposer à passer aux véhicules électriques et baissent sans cesse les limitation de vitesse, etc ne font rien pour limiter la consommation de ses nouveaux hardware, vraiment la connerie humaine et sa vanité dans toute sa splendeur.
Comment voulez vous que cela marche à la fin.2 poids, 2 mesures.L' électroménager est encadré au niveau consommation électrique maximum, pourquoi ne le font pas sur le matériel hardware car il est vraiment temps de le faire.
Ce phénomène qui se passe actuellement sur le hardware montre bien qu'on a atteint une limite de progrès sur les architectures malgré plus de finesse de gravure et c'est grave.
Apple entreprise que je n'apprécie guère sur leurs produits montre qu'il est possible de faire différemment avec leurs nouvelles architecture ArmArm même si pour l'instant elle est encore loin des plus haut de gamme en terme de performance cpu et GPU, mais cela à poussé Intel à changer son planning cpu comme alder lake et AMD va y venir aussi d'ici 2 ans et demie, c'est dire.Il serait temps que les GPU amorcent aussi une autre approche de la performanceperformance par watt.De toute façon, il a déjà des conséquences négatives, cela fout en l'air toute progression graphique sur laptop, c'est d'être négligeable, c'est dire.Ce n'est pas pour rien que Nvidia voulait mettre la main sur arm.
par Un pilote de Fuego embusqué, le Dimanche 01 Août 2021 à 15h30  
par Rondoudou le Samedi 31 Juillet 2021 à 22h02
Il serait bon de faire une gamme qui allie performance & consommation, et une gamme plus chère qui n'hésite pas à privilégier la performance. Entre nous si on peut tout faire tourner avec une cg de bon aloi en consommant moins, le tout en High, l'intérêt de se prendre une cg deux fois plus cher même si on se gagne +50% de perf' est des plus limites.
Pourquoi faire une gamme dédiée, qui plus est plus chère ?

Si tu veux une carte plus efficace, tu achètes le plus gros GPU et tu diminues les fréquences et la tension. En bonus elle sera silencieuse.

Sur ce modèle, une 6800 avec son gros GPU et ses fréquences faibles est plus efficiente qu'une 6700XT.
par ura en Bourgogne-Franche-Comté, le Dimanche 01 Août 2021 à 13h49  
Mme Irma, on verra bien a la sortie, il y a tellement de temps et de changement possible que c'est ipossible de savoir aujourd'hui
par Un ragoteur qui pipotronne en Communauté Valencienne, le Dimanche 01 Août 2021 à 10h29  
Certains Etat US interdisent les appareils trop gourmands, tu ne peux pas commander un Alienware haut de gamme si tu habites en Californie par exemple, obliger de passer par les pièces détachés.
par Campi le Samedi 31 Juillet 2021 à 12h29
Non c'est une fake news. La loi n'a rien à voir.