COMPTOIR
  
register

×

En cabine • DXR, DLSS & VRS en jeu
turing t

• Wolfenstein II : Content Adaptive Shading

Lors du lancement de Turing, NVIDIA a fortement insisté sur le lancer de rayons et le DLSS, toutefois, d'autres fonctionnalités ont été annoncées, prometteuses pour certaines, dont le Variable Rate Shading. Ce dernier se subdivise en plusieurs usage possible, les développeurs de Wolfenstein II ont décidé d'utiliser précisément le Content Adaptive Shading.

 

Le principe est de diviser le traitement des pixels en une multitudes de zones réduites (Tiles) de 16x16 pixels, et d'appliquer un niveau de shading variable (7 valeurs possibles) pour chacune d'entre-elles. Ainsi, au sein d'un Tile, le développeur peut choisir d'utiliser le taux nominal (1x1 = shading de chaque pixel), minimum (4x4 = shading identique de 16 pixels à la fois) ou une valeur intermédiaire. Il est même possible de dépasser le taux nominal (doublant, quadruplant, etc.) de shading de chaque pixel, en utilisation MSAA par exemple, outrepassant même - si besoin - le nombre de samples de ce dernier. L'objectif n'est donc pas forcément de dégrader l'aspect visuel du rendu, mais d'optimiser le besoin de calcul : utiliser le niveau de granularité des détails maximal là où c'est nécessaire, le réduire à d'autres endroits (une surface uniforme fixe par exemple). Tout dépendra en fait des souhaits des développeurs à ce niveau. Vous retrouverez plus de détails concernant cette technique dans notre dossier dédié à l'architecture Turing.

 

Voyons ce que donne en pratique le Content Adaptive Shading avec sa première implémentation en jeu au sein de Wolfenstein II : The New Colossus. Il est possible de choisir le niveau "d'agressivité" de l'algorithme avec 3 pré-réglages (Equilibré, Performance, Qualité) et un choix manuel donnant la possibilité d'affiner tout cela aux travers de 4 items.

 

Content Adaptive Shading

 

Quelles conséquences visuelles au sein du jeu ? Pour cela nous avons réalisé des captures d'écrans avec et sans l'option active, ainsi que les différents pré-réglages de cette dernière, et ce au sein de 2 niveaux différents (Roswell et New York).

 

 

 

 

D'un point de vue purement qualitatif, il est plutôt difficile sur les captures d'écran en UHD de discerner des écarts sensibles visuellement. En mouvement c'est encore plus difficile, et ce même avec le réglage performance. Cela montre l'intérêt de la technique, qui permet "d'orienter" le budget shading là où c'est utile visuellement, sans pour autant impacter le ressenti du joueur au niveau des passages utilisant un taux réduit, tout du moins dans l'implémentation qui en a été faite ici.  

 

Et les performances dans tout cela ? Dans ces conditions (toutes options activées au maximum), le gain moyen entre le réglage Performance et l'option désactivée, n'est que d'un peu plus de 6%. Pas de quoi transcender l'expérience ludique, mais comme c'est gratuit visiblement, c'est toujours cela de pris. Mieux, le premier centile (les images par seconde les plus basses) propose par contre un gain proche de 20%, là où c'est donc le plus utile sur un jeu disposant déjà d'une moyenne élevée.

 

RTX 2080 Ti

réglage VRS :

Taux d'images par seconde

moyen

Taux d'images par seconde

moyen (premier centile)

Off 118,6 82,5
Qualité 121,4 92,2
Equilibré 124 95,4
Performance 126,2 98,2

 

 

• Verdict

turing t [cliquer pour agrandir]
Alors, quels enseignements tirer de ces premiers titres employant les fonctionnalités mises en avant lors du lancement de Turing ? Encourageant est le premier mot qui vient à l'esprit. Après de nombreuses craintes issues d'un niveau de performances supputées dramatiquement bas et une première activation confirmant ce point, le résultat actuel est bien plus satisfaisant, même s'il impose encore un certain nombre de compromis. Tout d'abord concernant le rendu hybride à base de Ray Tracing, les gains visuels sont indéniables, mais du fait de la parcimonie nécessaire (pour maintenir des performances acceptables) au niveau du nombre de rayons utilisés, on n'atteint pas encore le niveau de réalisme espéré. Bien entendu, il ne s'agit que d'un seul jeu avec un seul moteur, d'autres exemples devraient arriver au premier trimestre 2019 et confirmer ou infirmer ce fait. Il est dans tous les cas nécessaire à l'heure actuelle de sacrifier un niveau de définition pour activer ces effets dans de bonnes conditions :  ainsi, la RTX 2080 Ti à l'aise en UHD, doit se contenter du QHD une fois ces derniers actifs. Il est plus que probable que la prochaine génération gravée en 7 nm sera plus performante à ce niveau, le budget transistors étant beaucoup plus élevé pour une taille raisonnable avec ce node, en attendant ce moment, DXR est exploitable avec la génération actuelle moyennant quelques concessions, ce n'est pas toujours le cas lors de l'introduction de nouvelles technologies.

 

Si on s'intéresse à présent au cas du DLSS, ce dernier est également porteur de beaux espoirs, à savoir la démocratisation de l'UHD. Alors les esprits grincheux trouveront à redire quant à cet upscaling mâtiné d'IA, il n'empêche que le résultat visuel atteint est plus qu’intéressant, même si là-aussi, il est urgent de pouvoir vérifier ce point sur d'autres titres et moteur (en particulier l'UE 4) afin de se forger un avis définitif, Final Fantasy XV n'étant pas un titre à la plastique particulièrement léchée, et donc adapté à des comparaisons visuelles précises. Toujours est-il que les performances mesurées sont à l'avenant, permettant par exemple à une RTX 2070 FE de devancer significativement la GTX 1080 Ti, ce qui n'est pas le cas en l'absence de cette technologie. On notera à ce sujet que le Variable Rate Shading, s'il n'apporte pas des gains du même ordre, n'en reste pas moins une option permettant d'améliorer également les performances, sans entraîner de dégradation visuelle notable, tout du moins en UHD et avec l'usage qu'en ont fait les développeurs de Wolfenstein II. De quoi rendre l'accès plus aisé au 4K, même si tout dépendra de la qualité des futures implémentations et de leur nombre. En effet, tout comme DXR, c'est l'usage ou non de ces technologies par les développeurs qui conditionnera leur éventuel succès. Même si de nombreuses annonces en ce sens se sont multipliées depuis le lancement des RTX 2000, il conviendra de vérifier l'adoption réelle de tout cela dans quelque temps, puisqu'il existe souvent un décalage important entre les principes d'intention et la mise en oeuvre effective. De quoi justifier pour beaucoup de patienter jusqu'à la prochaine génération ou l’avènement des solutions concurrentes. Ceux qui ont les moyens de renouveler régulièrement leur matériel et sont prêts à consentir à de tels investissements, seront heureux de pouvoir en profiter dès à présent, même si l'éventail est encore extrêmement réduit.


Logo Asus Logo G Skill logo Intel bequiet 40 noctua 40 nvidia 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test

 



Un poil avant ?

La KFA² GTX 1060 avec GDDR5X s'offre un test

Un peu plus tard ...

Mise à jour d'un standard chez JEDEC , la HBM plus rapide que jamais

Les 17 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !