• Latency & Display Analysis Tool

Courant juillet, Nvidia nous a convié ainsi que d'autres journalistes, à une réunion audio-visuelle pour nous présenter leur dernière initiative. C'est ainsi qu'est apparu pour la première fois devant nos yeux, l'acronyme LDAT, pour Latency & Display Analysis Tool. Kesako ? Avant d'y répondre dans quelques lignes, qu'appelle-t-on exactement la latence dans un jeu vidéo ? En pratique c'est le laps de temps qui va s'écouler entre une action du joueur, (bouger, tirer, etc.) et la répercussion de cette dernière sur l'afficheur. Toutefois, derrière ce temps, se cache en réalité une somme de plusieurs raisons. Voyons cela :

 

La latence en jeu [cliquer pour agrandir]

La somme de toutes les latences

 

Comme indiqué sur le slide précédent, on peut définir 3 types de latences expliquant le phénomène :

  • celles liées au périphérique d'entrée (temps d'activation mécanique/électrique puis du protocole de transmission USB)
  • celles liés au système qui vont inclure le système d'exploitation, le jeu, les pilotes et enfin le rendu et la transmission de l'image
  • celles liés à l'afficheur et constitués de la transmission de l'image ligne à ligne, la génération de l'image et le temps de réponse des pixels

 

Et puis alors, il y a de la latence, la belle affaire diront certains. Oui pour le commun des mortels, mais dans une certaine limite toutefois, car au-delà, la sensation sera très désagréable avec une sensation de lourdeur rendant l'expérience pénible. Sans aller à cet extrême, la latence peut avoir le don d'irriter certains, en particulier les amateurs de FPS compétitifs ultra rapides, puisque cette dernière pourra être responsable de l'impression d'avoir touché à l'écran un adversaire, et que le jeu ne l'a pas pris en compte (qui n'a pas ragé contre le pauvre petit netcode du jeu à ce moment, alors que le coupable était peut-être bien autre...)

 

Plage de tir selon latence [cliquer pour agrandir]

Touchera, touchera pas ?

 

La problématique étant posée, comment diable procéder pour mesurer cette latence totale ? On peut par exemple utiliser une caméra extrêmement rapide pour capturer une vidéo du jeux et s'amuser à compter les images. En sus de coûter extrêmement cher, c'est un travail long et fastidieux. C'est ici qu'intervient Nvidia et son fameux LDAP. Il s'agit d'un kit composé d'un capteur photosensible capable de détecter les écarts de luminance survenant à l'écran (>= 6% pour être distinctif des variations pouvant survenir lors d'un fonctionnement nominal).

 

Capteur LDAT [cliquer pour agrandir]

Le capteur LDAT (cliquer pour voir la face arrière / coté écran)

 

Un élastique circulaire est emprisoné au sein du chassis du capteur, ce qui permet d'assurer la mise en place de ce dernier sur pratiquement n'importe quel moniteur (bon ok oubliez les TV 55" et plus) en toute simplicité et efficacité. Le kit comprend également une souris filaire (ici une Logitech G203 Prodigy), dont le switch du bouton gauche a été dérivé pour se connecter sur le module de mesure, par le biais d'un connecteur 2 pins.

souris

Le mulot

 

Enfin, un câble micro USB raccorde le capteur LDAT à un PC qui fera tourner en tache de fond le logiciel Ad Hoc. Ce PC peut être le même que celui qui exécute le jeu dont on veut mesurer la latence, mais pour des questions de répétabilité des mesures et d'ergonomie, il est plus pertinent d'opter pour 2 machines différentes. C'est un PC portable Lenovo qui joue ce rôle dans notre cas.

 

Mise en oeuvre LDAT [cliquer pour agrandir]

Le setup Nvidia bien clean vs le bo.... du comptoir (sans compter le portable hors champ)

 

Il est temps à présent de passer aux mesures à proprement parler : le capteur détectant les variations de luminance supérieures à 6%, il s'agit donc d’identifier une zone à l'écran qui va subir un tel phénomène.  Le cas typique est par exemple le flash à la sortie de la bouche du canon d'une arme à feu par exemple. Cela peut également être la disparition de la zone noire entourant la lunette d'un sniper en mode visée après le tir. Il suffit, une fois la zone clairement identifiée, de positionner le capteur au bon endroit et de cliquer.

ldat mesures t [cliquer pour agrandir]

Bien placer son capteur, une étape à ne pas négliger

 

Toutefois, la position doit rester le plus stable possible, puisque la moindre variation peut conduire à une modification du nombre d'images par seconde qui entrent en jeu au niveau de la latence, comme expliqué précédemment. Heureusement, là-aussi Nvidia a pensé à cela comme nous allons le découvrir en détaillant le logiciel.

 

ldat log t [cliquer pour agrandir]

Le logiciel regroupant les fonctions, mesures, analyse et log

 

Chaque mesure du capteur est transmise au logiciel LDAT exécuté sur le PC portable via l'USB, qui va alors enregistrer ces dernières (au sein d'un fichier .CSV) et procéder à leur répartition suivant une courbe de Gauss. Pourquoi une telle représentation ? Eh bien tout simplement parce que la mesure de la latence est, par essence, très variable compte-tenu de la somme des éléments influant sur cette dernière. Il est donc important de multiplier les mesures et réaliser un écart type de ces dernières. Nous avons finalement opté pour 100 mesures par carte minimum pour atteindre une répétabilité satisfaisante.

 

De quoi se fouler le doigt, Nvidia a toutefois inclus la très pratique fonction autofire, pour piloter le clic sans toucher la souris. Pour quels résultats ? Plusieurs remarques à ce sujet. La performance (i/s) va avoir un impact bénéfique à ce niveau, tout comme la fréquence de rafraîchissement et la réactivité de l'écran, en toute logique. Nous avons donc opté pour des cartes proches au niveau performance, ainsi qu'un écran très performant dans ces domaines (Aorus KD215F 240 Hz / 0,5 ms). Enfin, tous les jeux ne sont pas propices à cette mesure, nous avons retenu Counter Strike : GO et Doom Eternal.

 

 

On remarquera tout d'abord que si les modes low latency (réglage Ultra pour Nvidia qui propose 2 niveaux) permettent de grappiller quelque peu, cela ne va pas chercher bien loin. Cela s'explique principalement par le fait que dans les 2 cas, nous sommes dans une situation de limitation CPU ou pas bien loin, et que ces modes agissent justement lorsque le GPU limite, en forçant le CPU à ne pas accumuler trop d'images d'avance. Ensuite, les mesures font apparaître une hiérarchie pas forcément différente de celle mesurée au niveau des images par seconde, là encore plutôt logique vu que ce point entre en jeu comme expliqué précédemment. A noter également que les verts ont introduit la technologie Reflex lors du lancement des RTX 30, avec des moniteurs 360 Hz intégrant un module de mesure de la latence au sein même de ces derniers.

 

Moniteur Reflex [cliquer pour agrandir] Fonctionnement du module de mesure de la latence inclus au moniteur

 

Quelques remarques complémentaires au sujet de LDAT : le module intègre également une prise jack 3,5 mm permettant de raccorder un micro, afin de mesurer la latence audio. Autre fonctionnalité bien sympathique, sa capacité à mesurer la luminance d'un écran, ce qui peut s'avérer fort pratique. Voilà ce que nous pouvions vous dire au sujet de LDAT, un outil bien pensé, ergonomique et capable de fiabiliser les mesures de latences. C'est un outil bienvenu pour élargir nos compétences, puisque nous ne disposions pas d'un équivalent. De part son mode de fonctionnement totalement indépendant du PC exécutant le test (hormis le capteur posé sur l'écran relié au contact du clic gauche), il nous parait difficile d'envisager un quelconque biais faussant les comparaisons. Il n'en reste pas moins que ce genre de mesures nécessite énormément de temps à être mis en oeuvre. Pas au niveau de l'exécution même que Nvidia a simplifié à l’extrême, mais dans la recherche des conditions de tests fiables, équitables et reproductibles pour toutes les cartes.  



sommaire

Plus d'infos avec le comptoir de l'info


Les 6 Ragots
   
Les ragots sont actuellement
ouverts à tous, c'est open bar !