COMPTOIR
register

Lara benchée par tous les... GPU bien sûr !

Elle arrive aujourd'hui la gueuse, mais elle s'est bonifié avec le temps. Finis les errements des versions 4 à 6, le dernier opus de la trilogie débutée en 2013 démarre maintenant. Shadow of the Tomb Raider a de plus fait l'objet d'un gros teasing de la part du caméléon qui s'en est servi pour mettre en avant son RTX sur ses RTX, et de son éditeur avec les vidéos superbes de la Gamescom. Bref ce jeu cartonnera il ne peut en être autrement, il sera au moins suivi par ceux qui veulent boucler la boucler des aventures depuis le reboot. C'est toujours le même moteur maison qui officie, qui fait très bien le boulot. Et au choix DX11 ou DX12, même si on se doute de ce qui va se passer sur les résultats ! Un doute est-il une certitude en puissance ? Pas sûr !

 

Gamegpu justement a publié son article avec les pilotes à jour optimisés des deux côtés, Crimson Adrenalin 18.9.1 et GameReady 399.24. En 1080p, en DX11, la GTX 1080 Ti est bien devant mais pas de beaucoup à 92 ips, suivent dans l'ordre décroissant la GTX 1080, 1070 Ti, RX Vega 64, RX Vega 56 et GTX 1070 avec 85, 80, 80, 70, 70 ips ça se colle ! La GTX 980 Ti colle avec 67 ips au bloc de devant, et la Fury X décroche en étant la première poursuivante avec 55 ips. RX 580, GTX 980 et GTX 1060 6G sont à égalité à 52 ips.

Et en DX12, c'est une transformation des perfs ! La GTX 1080 Ti passe de 92 à 123 ips, la GTX 1080 de 85 à 99, la 1070 Ti de 80 à 93, la RX Vega 64 de 70 à 91, les 1070 et Vega 56 de 70 à 80/81. Les autres cartes aussi suivent cette tendance avec une GTX 980 Ti de 67 à 79, Fury X de 55 à 61, les autres passent de 52 à 56/60/61 respectivement pour la RX 580, GTX 1060 6G et GTX 980. En 1080p donc DX12 fait enfin le boulot qu'on attendait de lui.

 

Sur les autres définition, l'ordre ne change pas ou très peu, mais les moyennes sous DX11 sont bien inférieures à celles sous DX12. On en vient même à se poser des questions, dans la mesure où jamais DX12 n'a été supérieur à DX11 dans les résultats, même si philosophiquement il le doit nettement. Est ce que nos confrères ne se sont pas plantés dans les intitulés des graphiques ? Si logiquement ce qui est observé ici est bien ce qui devrait être, on a l'habitude de voir le contraire. Il faudra donc attendre d'autres tests pour savoir !

 

shadow of the tomb raider screenshot

 

Un poil avant ?

Preview • Turing : la révolution Ray Tracing & IA ?

Un peu plus tard ...

Quand Microsoft cherche à dissuader les clients d'utiliser autre chose qu'Edge

Les 32 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par AntiZ, le Mardi 18 Septembre 2018 à 13h55  
par Un champion du monde en Île-de-France le Dimanche 16 Septembre 2018 à 01h16
Si tu me lis depuis quelques temps, tu sais que je suis très loin de me branler sur des graphes. Parce que ce que je priorise, c'est le long terme/rentable.
Non seulement ça, mais aussi parce que je doute que celui à qui tu vas conseiller une machine va accepter de prendre quelque chose qui ne durera pas le plus longtemps possible.
Donc ce n'est pas moi qui en fait un cas général, mais que c'est moi qui me suis adapté hors le cas des branleurs et noobs que l'on trouve un peu partout, et sur Youtube notamment.

Aussi, tu remarqueras que pas mal de noobs te diront: "Han, c'est plus haut dans les graphes, donc ça tiendra plus longtemps !".

Surtout que tu remarqueras que les 8C/16T que je conseille (vs 6C/6T et 6C/12T) ne sont pas forcément les premiers en gaming dans l'absolu (c'est à dire au jour d'aujourd'hui, cette phrase insiste bien sur le "aujourd'hui" ), mais qu'ils restent préférable aux 6C/12T à cause de la réserve de puissance qu'il y a, chose parfaite pour le long terme.

Le futur comme tu dis est supposé, mais on avance pas totalement à l'aveugle grâce aux expériences passées:
- Athlon XP vs Pentium 4 HT
- Pentium 4 HT vs Athlon 64 X2
- Core 2 Duo vs Core 2 Quad
- Core 2 Quad vs Core I7

Sans parler du fait que depuis l'arrivée des PS4 et XBox One, on le voit de manière objective que les jeux gèrent plus de 4 threads.
Maintenant, qui est celui qui a été le plus rentable ? Celui qui s'est pris un Core I7 920 en 2009 ou deux Core I5 en 2010 et 2015 ?

Faire fi de telles expériences, c'est là le vrai noobisme que beaucoup font, et c'est bien eux qui te disent le contraire (pour répondre à ta question au début de ton commentaire).
par Keldrim, le Mardi 18 Septembre 2018 à 13h13  
J'y ai joué quelques heures sur ma config (i7-4790K / 1080ti / moniteur 1440p@144Hz / jeu sur SSD) et voilà ce que j'ai comme résultat :

- FPS entre 85 et 125 en fonction de la situation (toutes les options graphiques sont à fond), du coup merci G-sync.
- Quelques rares ralentissements (2-3s) au moment où le jeu effectue une sauvegarde auto à l'entrée d'une nouvelle zone.

A part ça le jeu tourne nickel, aucun ralentissement pendant les phases d'action où ça bouge beaucoup, rien à redire.

Edit : je joue en DX12, pas essayé en DX11
par M4ill1w, le Lundi 17 Septembre 2018 à 17h07  
Je ne sais pas vous, mais moi j'ai de grosse contre performance en DX12 comparé à DX11.
Sur le bench j'ai ça : DX12 67 FPS; DX11 74...

Et j'ai une bonne config : i5-7600K @5GHz, GTX 1070 GPU @2113MHz-MEM @9200MHz et 16Go de RAM @3466 CAS16, etc...

Avez-vous une explication à ce fait ?

Edit : je joue en FHD.
par Un ragoteur tout mignon en Québec, le Lundi 17 Septembre 2018 à 16h47  
48fps en 4k avec une 1080Ti, merci pour l'info ! Je vais attendre d'avoir une 3080Ti...
par arsh, le Lundi 17 Septembre 2018 à 07h01  
par ayaredone embusqué le Samedi 15 Septembre 2018 à 20h32
Une petite astuce. Sur PC le jeu micro lag assez souvent. Il faut mettre le SOTTR.exe en priorité haute. Ça a fonctionné pour beaucoup de personne.
Ah merci, je testerai, j'ai quelques soucis par moment.
par Un adepte de Godwin en Île-de-France, le Dimanche 16 Septembre 2018 à 01h34  
Courir foutre presque 400€ dans un i7 en 2016 ça aurait été aussi idiot si on préférait continuer avec un composant encore dans le coup ou prendre un peu moins cher pour patienter sans se ruiner dans l'optique qu'un jour enfin arriveraient les tant attendus octocores.
Les gars qui suivent les nouvelles arrivées en matière de proco depuis des années savent que les produits à peine sortis sont souvent sources de désagréables surprises.
par Un champion du monde en Île-de-France, le Dimanche 16 Septembre 2018 à 01h16  
par AntiZ le Dimanche 16 Septembre 2018 à 00h15
....
Mais qui t'as dit le contraire ? En fait tu confonds tout et mélanges la vision que tu as des besoins matériel pour atteindre des records dans les benchs et le matos nécessaire pour obtenir des performances plus que suffisantes.
Évidemment si tu te laisses berner en te basant prioritairement pour ne pas dire systématiquement les CPU qui ont les plus grosses barres dans les graphiques c'est une autre histoire.
Entre les gens obtus qui ne cessent de répéter que 4c suffisent et suffiront encore des années ou pire encore affirment que les jeux ne profitent que d'un seul core et que c'est la fréquence qui fait tout ; et les gens qui ne courent pas après les records mais après des performances correctes, il y'a un écart assez large. Si ça t'amuse de foncer vers le dernier cri en te basant sur les consoles (chanson qu'on entend depuis pas mal d'années déjà cette histoire de similarité supposée dans les besoins en ressources CPU liées aux archi de ces machines) c'est ton droit mais évite d'en tirer des théories généralistes sur les gens ou des lois sur l'avenir d'un futur qui n'est que supposé même si on devine qu'à plus ou moins long terme 8c sera probablement un standard.
Mais à part les noobs et les adeptes du Day One ou des records en benchs, ça ne sert à rien de foncer sur les dernières nouveautés matérielles surtout quand l'offre (ou la nécessité ) pour en profiter pleinement n'est pas folichonne.
par AntiZ, le Dimanche 16 Septembre 2018 à 00h15  
par Un ragoteur de transit en Île-de-France le Samedi 15 Septembre 2018 à 18h04
Un mot: stuttering

Tu peux dire ce que tu veux, mais acheter un 6600K en clamant haut et fort que ça suffisait largement à tous les autres, ça s'appelle du court termisme, mais aussi du grand n'importe quoi.
Et ce, surtout quand il est connu que les portages consoles vers PC sont baclés, mais que les premiers gèrent bel et bien 8 threads contrairement à tous les acheteurs de 6600K qui se sont tous au-convaincu de ne pas avoir merdé.
Et comment ? En répétant à tout le monde sans savoir de quoi ils parlent que les jeux ne géraient que 4 threads comme en 2008, même 3 ans après la sortie de la PS4 et de l'XBox One, et même si les benchs montraient que ce n'était pas vrai du tout.
Pire encore, on en voit toujours quelques-uns répandre cette connerie aujourd'hui même, 4 mois avant 2019.

M'enfin bon, on en aura toujours qui s'auto-convaincront, c'est pas comme si on n'avait pas déjà vu ça dans le passé, et à maintes reprises:
- Pentium 4 vs Pentium 4 HT (2003)
- Athlon 64 vs Athlon 64 X2 (2004)
- Core 2 Duo vs Core 2 Quad (2006)
- Core I7 4C/8T vs Core I5 4C/4T (2008)

Si tu veux voir des problèmes au bout de deux ans après l'achat de ton CPU ou que tu comptes sur la revente, c'est ton problème. Faut juste pas emporter les autres avec toi.

Tout le monde ne peut pas changer de config tous les 2-4 ans, si tu conseilles une plate-forme sans prendre ce critère en compte alors que le budget le permet (on peut aussi patienter dans le cas d'un GPU ou de la RAM, et surtout sur "l'eshthétisme" ) sans passer par la case upgrade (qui juste avant Ryzen était quasiment pas rentable donc quasi-impossible), c'est de l'amateurisme flagrant.
par ayaredone embusqué, le Samedi 15 Septembre 2018 à 20h32  
Une petite astuce. Sur PC le jeu micro lag assez souvent. Il faut mettre le SOTTR.exe en priorité haute. Ça a fonctionné pour beaucoup de personne.
par Un ragoteur de transit en Île-de-France, le Samedi 15 Septembre 2018 à 18h04  
par AntiZ le Samedi 15 Septembre 2018 à 11h08
Ca l'a été depuis 2013 la fin des CPU 4C/4T et 6C/6T.
A partir de cette année, les jeux n'ont cessé de gérer 8 threads (normal, la PS4 et XBox One sont équipés de 4M/8C et les portages sont baclés) mais on a quand même vu des gens s'auto-convaincre qu'un 4C/4T était largement suffisant (même en 2016 !) ...
Zen 2 sera à n'en point douter sur les futures PS5 et nouvelle XBox, il faut se rappeler qu'il intégrera des CCX de 6C/12T.
Avant que ces CPU ne sortent comment tu voulais que les gens conseillent ou achètent autre chose, bien sur que les 4c/4t actuels sont encore capables dans les jeux, ton GPU te limitera bien avant. Suffit que de nouveaux produits sortent et montrent qu'ils gèrent mieux quelques jeux pour que vous racontiez n'importe quoi. Dans un futur proche OK faudra viser plus haut que 4c mais oser dire qu'en 2016 c'était débile, c'est cette logique qui l'est. Et quand tu critiques la notion de suffisance pense à préciser les paramètres et conditions d'utilisation. Dans la plupart des cas (autres que kikoo les matez mes 3 écrans UHD) acheter un 4c n'était pas si débile. Combien moi de jeux actuels sont limités au point d'être injouables à cause des procos de ce genre, je dis bien injouables pas simplement affichant moins de FPS à GPU équivalent.
par Jemporte, le Samedi 15 Septembre 2018 à 13h45  
par UpsiloNIX le Vendredi 14 Septembre 2018 à 21h44
Pourquoi vouloir jouer à tout prix en 4K ? A moins d'avoir un écran adapté (~35 à 40" sur un bureau), ça n'a que peu d'intérêt. Je parle en connaissance de cause hein, j'ai un 28" 4K sous les yeux et par rapport à un 1440p, pas de différence sur cette taille.
Après tu veux jouer sur un format encore HDG aujourd'hui (4K à 60 Fps mini, voire 144 fps tant que tu y es), il faut assumer de devoir acheter un GPU HDG qui va avec.
Je suis 100% d'accord. Les jeux d'action notamment, n'ont aucun intérêt en 4K. Pour les jeux lents, de stratégie, par contre c'est top si c'est pris en compte, mais justement ces jeux n'ont pas besoin de carte graphique top performances, juste la capacité d'afficher en 4K.
Pas ma de jeux, notamment de simulation, gagnent à être affichés sur 3 écrans, mais n'ont toujours pas besoin de 4K, ni même forcément de Full HD par écran.
par Jemporte, le Samedi 15 Septembre 2018 à 13h10  
par Un adepte de Godwin des Hauts-de-France le Samedi 15 Septembre 2018 à 11h25
Comme dab, merci pour le lien de cette news...
...il est grand temps que je change ma r9 290x
J'ai un gros doute. Si une carte est encore dans le coup parmi les anciennes, c'est bien celle-là. Elle devrait franchement mieux aller qu'en DX11 d'ailleurs, dans ce jeu.
le problème des jeux sous DX11 c'est que s'ils sont développés sous DX11, notamment avec les API DX11 Nvidia, sous portage classique DX12 ils seront dans une sorte de mode compatibilité, qui risque juste d'être un poil plus lent.
C'est en train de changer, tant mieux.