COMPTOIR
register

×

visuel ashes of the singularity

Express • DX12, quelles performances GPU ?
visuel ashes of the singularity
visuel gears of war ultimate edition

• Un peu de théorie...

Comme nous l'évoquions en débutant ce dossier, DX12 introduit de nombreuses nouveautés par rapport à son devancier, en particulier une qui peut changer la donne en termes de performance GPU : le multi engine. Derrière ce terme, se cache la faculté de traiter différentes files d'attente de commandes de rendu. Pour être DX12 "compliant", les GPU doivent prendre en charge cette fonctionnalité, il s'agit d'une exigence. Toutefois, le traitement concomitant de ces files d'attentes ne l'est pas et c'est ici que se différencient AMD et NVIDIA. Si aucun GPU des 2 protagonistes n'est capable de traiter simultanément 2 files de type graphics, les RADEON actuelles disposent toutefois de processeurs de commandes permettant d'alimenter les unités de calcul du GPU à partir de plusieurs files (graphics et compute) en parallèle afin d'optimiser leur utilisation. C'est ce qu'AMD appelle l'Async Compute, illustré par le schéma ci-dessous.

 

Async Compute

L'Async Compute selon AMD

 

Et les puces NVIDIA dans tout cela ? La version officielle est la suivante : Maxwell 2 dispose d'un processeur de commande capable de traiter simultanément les files compute et graphics, mais le support au niveau des pilotes n'est pas actif. Compte tenu de la puissance de frappe de l'équipe drivers du caméléon, cet argument semble de moins en moins crédible vu le temps écoulé depuis l'annonce de DX12. On ne peut donc que supputer, mais il n'est pas impossible que le processeur de commande entraine une latence rédhibitoire lorsqu'il doit passer d'une file graphics à compute (ou vice-versa). A priori, le caméléon n'a pas anticipé l'arrivée d'un tel usage dans les jeux vidéo lors de la conception de ses puces et a conçu son processeur de commande dans l'optique du GPU Computing uniquement, même si cette assertion reste pure hypothèse de notre part.

 

Il n'est pas impossible qu'AMD ne l'ait pas non plus anticipé, par contre la plus grande flexibilité de son architecture (qui se paie en termes d'efficacité énergétique avec de nombreux transistors inutilisés pour le jeu jusqu'alors) crée un effet collatéral favorable. Notons que DX12 entraine également beaucoup plus de responsabilités pour les développeurs qui doivent s'assurer de nombreux points sans l'aide du pilote. Le multi engine n'est pas une mince affaire à mettre en oeuvre et il est au contraire très facile d'arriver à un résultat contre-productif si utilisé à mauvais escient. Le talent des développeurs sera donc mis à l'épreuve afin de dépasser les résultats GPU obtenus par des années d'expérience des team drivers des leaders historiques du domaine (et peut-être profiter aussi aux outsiders n'ayant jamais pu s'imposer du fait de ce déficit d'expérience côté pilotes ?).

 

Enfin, d'un point de vue GPU, de nouvelles features sont également prises en charge au travers du niveau de fonctionnalités 12_1 (11.3 pour les développeurs ne souhaitant pas utiliser une API de bas niveau). Seules les GeFORCE récentes (Maxwell 2) prennent en charge ces dernières en hardware, de quoi proposer des effets exploitables uniquement par celles-ci. Pour expérimenter les performances en situation GPU limited, nous avons opté pour la définition QHD (les GPU actuels étant "justes" pour l'UHD) avec tous les détails au maximum. Les mesures étant réalisées via les bench intégrés (répétés 5 fois, la moyenne étant reportée) ne permettant pas forcément de "faire chauffer" les GPU, nous avons choisi des modèles personnalisés capables de conserver leur température en-deçà des seuils entrainant une baisse de fréquence. Notez bien que ces derniers sont par contre sensiblement plus rapides que des modèles de référence. Côté pilotes, nous employons les derniers disponibles de part et d'autre (364.51 et 16.3.1) au moment des tests, il en est de même pour les jeux.

 

• Premières mesures sur le Nitrous Engine / Ashes of the Singularity

Ce jeu encore en beta (0.94.18443, la version finale est attendue le 31/03) dispose probablement du moteur DX12, aka Nitrous Engine, le plus abouti à l'heure actuelle. Oxyde, son concepteur, faisant parti du cercle restreint des studios ayant suivi AMD dans sa démarche Mantle (qui est l'inspirateur des API de bas niveau actuelles), on peut présupposer que ce moteur est conçu pour s'adapter parfaitement au hardware des rouges, cela n'en reste pas moins un test très instructif à réaliser.

 

visuel ashes of the singularity [cliquer pour agrandir]

Le fight des néons !

 

Dans la situation retenue très dépendante du GPU, on constate tout d'abord que seules les cartes d'AMD sont capables de tirer un réel bénéfice du passage à DX12. L'édition du fichier .ini permet en outre de désactiver le multi engine pour isoler les gains qui peuvent lui être associés : 10% pour la Fury X et pratiquement autant pour les Fury et 390X. On notera également que sous DX11, la limitation CPU est belle est bien présente malgré un très forte charge GPU, puisque le mode DX12 sans multi engine actif (ligne Async Off), entraine des gains notables.

 

Du côté vert cette fois, le passage à DX12 n'entraine que marginalement des gains pour la Titan X, preuve de l'efficacité des pilotes NVIDIA DX11 en termes d'empreinte CPU. Malgré tout, une Fury X ne rend que 5% de performance à une 980 Ti personnalisée (15% plus rapide qu'une 980 Ti de référence d'après le test que nous avions réalisé), preuve que les RADEON apprécient fortement ce moteur. Enfin et comme prévu, le multi engine n'apporte rien si ce n'est des pertes dues au coût des commandes de synchronisation qui ne peuvent être compensées par un traitement concomitant de tâches.

 

• Passons à l'Unreal Engine avec Gears of War Ultimate Edition

visuel gears of war ultimate edition [cliquer pour agrandir]

Diantre, qu'ai-je fais de mon baygon jaune ?

 

Second jeu testé, il s'agit en fait d'une version largement améliorée visuellement du jeu sorti en 2007 sur PC et s'appuyant sur une des dernières itérations de l'Unreal Engine 3 supportant DX12. A son lancement le jeu a défrayé la chronique du fait d'un nombre conséquent de problèmes en partie résolus par la version actuelle (1.7.0.0). Le jeu n'est disponible qu'au travers du Windows Store, limitant au maximum les possibilités de tweaking et ne supportant que DX12. Si les débuts ont été catastrophiques pour les cartes GCN 1.2, les derniers pilotes et patch ont rétablis la situation, on retrouve donc une hiérarchie classique mais plutôt favorable aux RADEON (la Fury X n'est qu'à 10% de la 980 Ti alternative) comme souvent avec l'UE3 (et contrairement à l'UE4 appréciant davantage les GeFORCE pour le moment).

 



Un poil avant ?

Clevo a vendu moins de portables, mais a gagné plus de brouzoufs

Un peu plus tard ...

Akasa met à jour ses boîtiers Newton et Plato pour Skylake

Les 23 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par Eric B., le Mercredi 11 Mai 2016 à 07h29  
Pascal travaille à récupérer une licence du jeu, dès que ce sera effectif on fera la maj avec les derniers pilotes et versions de jeux.

Edit : on a intégré Quantum Break à notre protocole de test GPU, les résultats sous ce dernier mais aussi d'autres jeux DX12 sont à présent disponibles au sein du dossier GTX 1060 pour reprendre le plus récent.
par horuko, le Mardi 10 Mai 2016 à 16h18  
Bonjour bonjour.

Ne devez il pas y avoir une maj avec Quantum Break? Ou vue le portage a la va vite il n'est pas pertinent?
par Thibaut G., le Mercredi 30 Mars 2016 à 15h29  
c'est quoi le rapport des perfs avec Microsoft ?
par Salva, le Mardi 29 Mars 2016 à 22h22  
Merci pour cet article fort instructif.
Sinon la conclusion qu'on peut en tirer, c'est que dx12 en est au même point que mantle il y a 2 ans.
quelle évolution, merci gro$oft
par Reg24, le Mardi 29 Mars 2016 à 19h50  
Pour l'instant, AMD y gagne plus que Nvidia, à voir avec les futur jeux / ces jeux testé avec les nouvelles architecture des CG (Polaris et Pascal).
par lulu-nico, le Mardi 29 Mars 2016 à 19h10  
par Eric B. le Mardi 29 Mars 2016 à 18h30
Ben tu veux que je te répondes quoi ? A ce stade on est dans la spéculation gratuite, généralement sans fondement sérieux.
Que tu n'y crois pas par exemple, vu ce que tu viens de dire.
Je penses comme toi.
par Eric B., le Mardi 29 Mars 2016 à 18h30  
Ben tu veux que je te répondes quoi ? A ce stade on est dans la spéculation gratuite, généralement sans fondement sérieux.
par lulu-nico, le Mardi 29 Mars 2016 à 18h28  
par Eric B. le Mardi 29 Mars 2016 à 18h23
Rien
par Eric B., le Mardi 29 Mars 2016 à 18h23  
par lulu-nico le Mardi 29 Mars 2016 à 18h12
Les 2 dernières rumeur 4096 sp pour vega et 6144 pour la prochaine titan tu en penses quoi ?
Rien
par Fraise des Bois, le Mardi 29 Mars 2016 à 18h22  
par Eric B. le Mardi 29 Mars 2016 à 18h00
Nous sommes aussi très impatients
La guéguerre des GPU va enfin reprendre
par Arks, le Mardi 29 Mars 2016 à 18h21  
par lulu-nico le Mardi 29 Mars 2016 à 18h12
Les 2 dernières rumeur 4096 sp pour vega et 6144 pour la prochaine titan tu en penses quoi ?
Pour ma part je pense que les 4096 SP seront pour la R9 480X ou 490X et non la Fury X 2
On a déjà 4096 SP en 28nm donc il n'y a aucune raison pour qu'AMD reste à 4096 SP en 14nm FinFET !! Ou alors ils veulent se tirer une balle dans le pied ! (même s'il parait qu'à même caractéristiques Polaris/Vega sont environ 50 à 70% plus puissant que Fiji)
par Arks, le Mardi 29 Mars 2016 à 18h15  
par Xorg le Mardi 29 Mars 2016 à 14h44
Très bon article. Il est super ce système de graphes en plus (filtrer, trier, enregistrer).
Ah, je ne m'attendais pas à voir DX12 en dessous de DX11 dans certains jeux. Il ne faudra pas non plus DX12 démoralise les studios.
Ce ne sont que les premiers jeux... si je me souviens bien quand il y a eu DirectX 9 -> DirectX 10 -> DirectX 11 les performances étaient toujours meilleures sur les anciennes API quand les nouveaux jeux sortaient !
Après certes DX9 et DX10 apportaient de vrais gros détails graphiques... Je me souviens de Crysis en DX10 à l'époque c'était quelque chose!!! Voir des textures détaillées grace à la Tessellation ou même les nouveaux Lighting Effects avec les God Rays etc. c'était juste waouhhh
Mais DirectX 12 aura pleins d'avantages je ne m'en fais pas! Laissons le temps à Microsoft et aux Développeurs de bien travailler et de bien maîtriser cette nouvelle API