Lara benchée par tous les... GPU bien sûr ! |
————— 14 Septembre 2018 à 16h32 —— 17526 vues
Lara benchée par tous les... GPU bien sûr ! |
————— 14 Septembre 2018 à 16h32 —— 17526 vues
Elle arrive aujourd'hui la gueuse, mais elle s'est bonifié avec le temps. Finis les errements des versions 4 à 6, le dernier opus de la trilogie débutée en 2013 démarre maintenant. Shadow of the Tomb Raider a de plus fait l'objet d'un gros teasing de la part du caméléon qui s'en est servi pour mettre en avant son RTX sur ses RTX, et de son éditeur avec les vidéos superbes de la Gamescom. Bref ce jeu cartonnera il ne peut en être autrement, il sera au moins suivi par ceux qui veulent boucler la boucler des aventures depuis le reboot. C'est toujours le même moteur maison qui officie, qui fait très bien le boulot. Et au choix DX11 ou DX12, même si on se doute de ce qui va se passer sur les résultats ! Un doute est-il une certitude en puissance ? Pas sûr !
Gamegpu justement a publié son article avec les pilotes à jour optimisés des deux côtés, Crimson Adrenalin 18.9.1 et GameReady 399.24. En 1080p, en DX11, la GTX 1080 Ti est bien devant mais pas de beaucoup à 92 ips, suivent dans l'ordre décroissant la GTX 1080, 1070 Ti, RX Vega 64, RX Vega 56 et GTX 1070 avec 85, 80, 80, 70, 70 ips ça se colle ! La GTX 980 Ti colle avec 67 ips au bloc de devant, et la Fury X décroche en étant la première poursuivante avec 55 ips. RX 580, GTX 980 et GTX 1060 6G sont à égalité à 52 ips.
Et en DX12, c'est une transformation des perfs ! La GTX 1080 Ti passe de 92 à 123 ips, la GTX 1080 de 85 à 99, la 1070 Ti de 80 à 93, la RX Vega 64 de 70 à 91, les 1070 et Vega 56 de 70 à 80/81. Les autres cartes aussi suivent cette tendance avec une GTX 980 Ti de 67 à 79, Fury X de 55 à 61, les autres passent de 52 à 56/60/61 respectivement pour la RX 580, GTX 1060 6G et GTX 980. En 1080p donc DX12 fait enfin le boulot qu'on attendait de lui.
Sur les autres définition, l'ordre ne change pas ou très peu, mais les moyennes sous DX11 sont bien inférieures à celles sous DX12. On en vient même à se poser des questions, dans la mesure où jamais DX12 n'a été supérieur à DX11 dans les résultats, même si philosophiquement il le doit nettement. Est ce que nos confrères ne se sont pas plantés dans les intitulés des graphiques ? Si logiquement ce qui est observé ici est bien ce qui devrait être, on a l'habitude de voir le contraire. Il faudra donc attendre d'autres tests pour savoir !
![]() | Un poil avant ?Preview • Turing : la révolution Ray Tracing & IA ? | Un peu plus tard ...Quand Microsoft cherche à dissuader les clients d'utiliser autre chose qu'Edge | ![]() |
Non seulement ça, mais aussi parce que je doute que celui à qui tu vas conseiller une machine va accepter de prendre quelque chose qui ne durera pas le plus longtemps possible.
Donc ce n'est pas moi qui en fait un cas général, mais que c'est moi qui me suis adapté hors le cas des branleurs et noobs que l'on trouve un peu partout, et sur Youtube notamment.
Aussi, tu remarqueras que pas mal de noobs te diront: "Han, c'est plus haut dans les graphes, donc ça tiendra plus longtemps !".
Surtout que tu remarqueras que les 8C/16T que je conseille (vs 6C/6T et 6C/12T) ne sont pas forcément les premiers en gaming dans l'absolu (c'est à dire au jour d'aujourd'hui, cette phrase insiste bien sur le "aujourd'hui" ), mais qu'ils restent préférable aux 6C/12T à cause de la réserve de puissance qu'il y a, chose parfaite pour le long terme.
Le futur comme tu dis est supposé, mais on avance pas totalement à l'aveugle grâce aux expériences passées:
- Athlon XP vs Pentium 4 HT
- Pentium 4 HT vs Athlon 64 X2
- Core 2 Duo vs Core 2 Quad
- Core 2 Quad vs Core I7
Sans parler du fait que depuis l'arrivée des PS4 et XBox One, on le voit de manière objective que les jeux gèrent plus de 4 threads.
Maintenant, qui est celui qui a été le plus rentable ? Celui qui s'est pris un Core I7 920 en 2009 ou deux Core I5 en 2010 et 2015 ?
Faire fi de telles expériences, c'est là le vrai noobisme que beaucoup font, et c'est bien eux qui te disent le contraire (pour répondre à ta question au début de ton commentaire).