COMPTOIR
register

En cabine • 4 ou 8 Go de VRAM pour jouer en 2018 ?
• Et alors ? Zorro est arrivééééé ééé ééééé !

Nous voici arrivés au terme de cette  petite expérience. Le premier enseignement évident qui saute aux yeux à la seule vue des graphiques est que 4 Go sont encore suffisants, exception faite de Wolfenstein 2 (au maximum) qui voit les performances chuter énormément entre 4 et 8 Go. Mais ça serait trop facile de conclure aussi rapidement, il va falloir faire marcher nos cellules grises.

 

"La poule au pot, Larry !"

Effectivement, on peut établir cette conclusion dans le seul cadre de l'usage d'une carte Polaris. Et il n'est pas question d'étendre ce constat sur l'ensemble des cartes graphiques du marché. La raison principale est qu'avec un GPU bien plus puissant de type Vega ou GP104/102, on aurait pu monter d'un cran les options, et ainsi grappiller de l'espace VRAM. Se faisant, on aurait pu atteindre la limite fictive des 4 gigots et ainsi saturer plus ou moins la VRAM, et pourquoi pas observer des grosses différences. Par contre, il aurait été peu probable qu'on y parvienne en 1080p, donc le doute peut être accepté sur Polaris en 1080p. Mais en 1440p, on aurait sûrement réussi bien plus souvent à franchir cette limite des 4 Go, et là nous aurions pu observer plus de phénomènes de limitation mémoire.

 

Le fait important à relever est plus de l'ordre du bon sens. Pour jouer en 1080p, avec une carte Polaris, il ne devrait y avoir pas ou très très peu de cas limitants à cause de la VRAM à 4 Go. Mais cette carte n'est pas faite pour le 1440p, AMD lui même l'ayant placée sur ce créneau-là. En revanche, sur des GPU solides, on peut pousser les options graphiques, et donc on est susceptibles de franchir 4 Go de VRAM plus fréquemment. Aussi il est tout à fait pertinent que ces GPU soient équipés d'au moins 8 Go de mémoire vidéo, ceci afin de ne pas prendre le risque de castrer les performances. C'est une question avant tout de cohérence, et sur ce point notre "experience" met ceci en lumière. Les gammes actuelles sont a priori bien calibrées en GDDR5(X) ou HBM2 selon le segment pour lesquelles elles sont taillées.

 

Pour conclure, il faut choisir son GPU en fonction de sa définition, et il y a peu de risques actuellement que la VRAM soit limitante quelle que soit la carte que vous choisirez pour la définition pour laquelle elle est pensée. Quant à Polaris, dans un cadre gaming, une 4 Go devrait donc suffire. On aurait tendance à taper dans du 8 Go pour du 1080p, histoire de se rassurer et d'avoir le sentiment d'un achat perenne, mais le fait est que les années passent et le schéma reste le même : un GPU dans le temps est plus vite mis à genou, il l'est bien avant que sa VRAM ne le limite, sauf cas très particulier comme Wolfenstein 2 et son id Tech 6.

 

jack sparrow effrayMon GPU est limité par la VRAMMMMMMMMMMM

 


corsair bequiet 40 gigabyte 40 noctua

Nous remercions nos partenaires pour la mise à disposition du matériel nécessaire à la réalisation de l'article.



Un poil avant ?

Comptoiroscope • Sea of Thieves, graphismes et "performances"

Un peu plus tard ...

Des milliards pour Q4 2017 chez Intel à l'ombre de Meltdown et Spectre

Les 21 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par pfloyd1, le Mardi 30 Janvier 2018 à 05h09  

Effectivement je dois reconnaitre que ma conclusion n'était pas aussi simple que ça. Premier point, il est vrai que d'acheter 8 go de vram au lieu de 4 ne fait pas une grande différence sur le porte monnaie alors pourquoi s'en priver. Eh oui je n'avais pas songé au dual screen ou à certains jeux, qui marginalement, réclament plus de vram qu'il n'en faudrait.
Ceci dit passer à 8 ne certifie pas systématiquement qu'on va passer en ultra (comme le dit Pachakuteq), c'est la puissance du GPU, surtout, qui fera péter cette limite (et les 8/12/16 de vram ni feront rien si le gpu ne suit pas ou encore un cpu anémique).
par Pachakuteq, le Lundi 29 Janvier 2018 à 14h41  
par pfloyd1 le Dimanche 28 Janvier 2018 à 07h51
Paf ! [...]
Plouf, je suis limité en Vram en 1080p avec une fury Nano 4Go sur quelques jeux (GTA V et Rainbow 6 Siege notamment). Les 6/8 Go peuvent donc s'avérer nécessaires sur des jeux très gourmands si on veut à tout prix passer le tout ultra (ce qui peut se discuter, j'entends bien )
par Cristallix, le Lundi 29 Janvier 2018 à 13h31  
par amisbievre le Lundi 29 Janvier 2018 à 10h52


Oui mais quand même.. Sur LDLC la Vega 64 stock était à 550€ environ et là on est presque au double!
Regarde aux US ça ou ça... Et encore j'suis sur qu'il y a bien pire
par amisbievre, le Lundi 29 Janvier 2018 à 10h52  
par Cristallix le Lundi 29 Janvier 2018 à 10h45
De base elle est pas donnée, et là on a la pénurie de GPU en plus donc ça aide pas
Oui mais quand même.. Sur LDLC la Vega 64 stock était à 550€ environ et là on est presque au double!
par Cristallix, le Lundi 29 Janvier 2018 à 10h45  
par amisbievre le Lundi 29 Janvier 2018 à 10h14
je veux pas faire de pub mais bon quelqu'un a une explication des véga à presque 1000€?
De base elle est pas donnée, et là on a la pénurie de GPU en plus donc ça aide pas
par amisbievre, le Lundi 29 Janvier 2018 à 10h14  
je veux pas faire de pub mais bon quelqu'un a une explication des véga à presque 1000€?
par Gry20r, le Lundi 29 Janvier 2018 à 08h59  
par pfloyd1 le Dimanche 28 Janvier 2018 à 07h51
Paf ! et voilà c'est dit et enfin clair: on choisit sa carte en fonction de la résolution de l'écran ! Cet excellent article permettra aux novices d'arrêter de péter leur tirelire pour se rassurer avec du 8 go, donc avec un gpu béton dessus, tout ça pour du 1080P. On achète pas une Ferrari si la piste n'est pas assez longue (mmmh..bon ou quelque chose comme ça...). Ce test permet non seulement de constater que 8 go n'apporte pas plus de perf que 4 go en 1080P, ça doit foutent les boules à certain du coup.
C'est un rappel à l'ordre du bon sens: plus la résolution est haute, plus les détails des jeux sont poussés et plus la quantité de vram devra être conséquente. Les constructeurs savent ce qu'ils font, finit la génération des carte castrées, achetons malin!
A l'époque ou les RX480 sont sorties, je me suis pris une 8Go, la différence de prix était minime, donc pourquoi s'en priver ?
Qui plus est, on parle de configs standard, mais dans le cas d'une config multi-écran en 1080p, ce n'est pas la meme donne, donc pas si inutile que ca.
J'ajoute que les modèles livrés au choix en 4Go ou 8Go, ont des différence de frequence memoire en sortie d'usine, c'est bien pour ca que le test castre une 8Go en 4Go, pour qui ne veut pas se prendre la tete avec des afterburner ou mettre les mains dans les pilotes AMD, c'est appréciable.
par lerevolteur83, le Lundi 29 Janvier 2018 à 08h45  
par Nanabozo732 le Dimanche 28 Janvier 2018 à 11h48
Ça me fait penser (le commentaire précédent pas l'article) à une remarque que l'on lit depuis une poignée d'années sur la puissance des derniers modèles GPU qui serait systématiquement trop élevée pour du 1080p et uniquement utile pour tourner sur des écrans 1440p ou UHD. Et donc les gars viennent expliquer aux gens qui demandent des conseils sur leur future config qu'ils devraient absolument se rabattre sur des modèles beaucoup moins puissants que ceux visés (même si leur budget permet d'obtenir le modèle MDG/HDG visé au départ) sauf qu'il ne faut en général pas bien longtemps pour que le modèle conseillé ne suffise plus même en 1080p.
Pour te rejoindre, quand j'ai décidé de changer de GPU j'ai directement lorgné sur la 980ti quand bien même une 980 aurait suffit en 1080. Après je suis en 144Hz donc j'ai voulu avoir un surplus de puissance. Quant à la VRAM, même avec 4go je pense que je m'en serais contenté, 6go c'est un simple confort qui fera sans doute ses preuves dans quelques jeux

Faut pas oublier non plus que niveau GPU on peut rarement choisir la quantité de VRAM que l'on veut, il n'y a que quelques cartes que NVIDIAMD décline en plusieurs versions et encore parfois ce sont les constructeurs partenaires qui le font. Donc du coup les choix se font en fonction de la puissance du GPU et la mémoire en découle presque obligatoirement.
par Scrabble, le Dimanche 28 Janvier 2018 à 12h23  
Sans oublier le HBCC d'AMD : lien
Dans le futur ça sera peut être indispensable.
par Nanabozo732, le Dimanche 28 Janvier 2018 à 11h48  
Ça me fait penser (le commentaire précédent pas l'article) à une remarque que l'on lit depuis une poignée d'années sur la puissance des derniers modèles GPU qui serait systématiquement trop élevée pour du 1080p et uniquement utile pour tourner sur des écrans 1440p ou UHD. Et donc les gars viennent expliquer aux gens qui demandent des conseils sur leur future config qu'ils devraient absolument se rabattre sur des modèles beaucoup moins puissants que ceux visés (même si leur budget permet d'obtenir le modèle MDG/HDG visé au départ) sauf qu'il ne faut en général pas bien longtemps pour que le modèle conseillé ne suffise plus même en 1080p.
par Nanabozo732, le Dimanche 28 Janvier 2018 à 11h33  
par pfloyd1 le Dimanche 28 Janvier 2018 à 07h51
Paf ! et voilà c'est dit et enfin clair: on choisit sa carte en fonction de la résolution de l'écran ! Cet excellent article permettra aux novices d'arrêter de péter leur tirelire pour se rassurer avec du 8 go, donc avec un gpu béton dessus, tout ça pour du 1080P. On achète pas une Ferrari si la piste n'est pas assez longue (mmmh..bon ou quelque chose comme ça...). Ce test permet non seulement de constater que 8 go n'apporte pas plus de perf que 4 go en 1080P, ça doit foutent les boules à certain du coup.
Ça rassure surtout ceux qui sont encore avec des cartes à 4 Go de nos jours, les autres ont peut-être des critères autres que les tiens qui ne dénotent pas forcément avec le principe de bon sens. Sachant que comme les jeux évoluent parfois bizarrement en réclamant plus de ressources là où ne s'y attendait pas... et puis la pérennité et l'évolutivité ne sont pas des critères universels apparemment. Beaucoup se sont trop fait avoir en faisant des économies de bout de chandelle pour se retrouver avec du matos puissant au niveau GPU mais limité par la VRam. Ex moi qui suivait à l'époque ce genre de prêches disant que 2 Go c'est mieux que 4 go pour me retrouver avec un SLI bridé à cause de la mémoire alors que la puissance était là. Prendre une carte uniquement en se basant sur la définition qu'on a actuellement, c'est idiot, demain si on tombe sur une super occaz d'écran à définition bien supérieure, on sera obligé de laisser tomber à cause d'un GPU limitant l'évolutivité ou de repasser à la caisse. Donc oui faut prendre un peu plus large que ses besoins actuels en prévision d'un futur proche. Et l'offre actuelle ne permet pas non plus de trop jouer le difficile...
par Dark, le Dimanche 28 Janvier 2018 à 10h35  
par Scrabble le Samedi 27 Janvier 2018 à 15h32
Nvidia n'a fait que s'adapter à la demande d'une certaine clientèle. Fut un temps sur le comptoir où on ne comptait pas les posts qui disaient que trop de VRAM ça ne servait à rien, que 4 Go c'était largement suffisant, que la quantité de VRAM c'était juste un argument marketing, etc.
Parce qu'à l'époque c'était le cas, tout bêtement, ce qui n'est plus le cas de nos jours où 6-8Go est un choix plus clairvoyant pour quelqu'un qui joue toujours aux derniers jeux sortis et compte garder sa carte 2-3 ans encore. Si on remonte en 2008, on verra aussi le débat des cartes qui ont 2Go sont inutiles. Depuis la plupart des gens ont changé de carte car le gpu était dépassé, non pas à cause de la limite de vram.
Remettre ce débat au goût du jour avec les cartes actuelles, reviendrait à poser la question "Aujourd'hui, pour jouer, vaut-il mieux 8 ou 12 Go ?". Aujourd'hui presque tout le monde dirait 8 Go. Et pourtant dans 4 ans il y aura un petit malin qui affirmera, "je vous l'avais bien dit il y a 4ans que 8 Go ne suffit pas", "je l'ai toujours affirmé haut et fort" ...