COMPTOIR
register

On n'est pas près de voir du G-Sync chez BenQ

En janvier dernier, BenQ avait annoncé deux moniteurs G-Sync 144 Hz : les XL2420G et XL2720G. Leur disponibilité devait se faire au cours du premier trimestre 2014. Comme vous pouvez le constater, on est à plus de 4 mois de la fin du premier trimestre et rien à l'horizon. Histoire de faire passer la pilule, BenQ vient d'annoncer (ou plutôt de réannoncer) la sortie prochaine du tout nouveau XL2420G Hybrid Engine pour l'automne.

 

On pourrait alors penser que l'Hybrid Engine intégrerait des nouveautés qui expliqueraient ce retard, mais en fait non. Le XL2420G de BenQ sera donc l'écran qu'on a croisé en janvier dernier. Une dalle TN 24 pouces d'une définition toujours inconnue, mais qu'on imagine Full HD sinon la marque aurait communiqué dessus. Le temps de réponse reste faible avec 1ms GTG et la fréquence grimpe à 144 Hz.

 

L'Hybrid Engine de BenQ devrait ravir certains joueurs. Lorsque le G-Sync (la technologie propriétaire de Nvidia qui réduit le stuterring et le tearing) est désactivé, il est possible d'avoir accès à de nombreux réglages. Parmi eux, le taux de rafraichissement (100 / 120 et 144 Hz), le niveau des noirs, le format de l'écran (Smart Scaling) et encore bien d'autres technologies maison.


Le prix de la bête n'a toujours pas été annoncé, mais le retard dans sa disponibilité nous laisse présager un retard pour l'ensemble des écrans G-Sync. Pour le moment, on trouve uniquement le PG278Q d'Asus et encore, il faut passer par la case précommande. La technologie G-Sync semble donc rencontrer quelques petits soucis pour arriver en masse. En contrepartie, ça laisse du temps à AMD de finir de développer sa technologie concurrente, le FreeSync basé sur le standard Adaptive-Sync du VESA. (Source : TPU)

 

benq_xl2720g.jpg  

 

Un poil avant ?

Quels sont les 100 sites web les plus visités par les Français ?

Un peu plus tard ...

Des SSD AMD Radeon ? Si, si, c'est possib' !

Les 67 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui déraille d'Ile-de-France, le Mardi 12 Août 2014 à 10h18  

 
Pourtant gsync était un terme utilisé bien avant par nvidia pour ses solutions pro.
Et même si l'utilisation n'est pas la même le résultat est identique, on fait varié la vitesse de rafraîchissement de l'écran.

Genlock ne permet pas de faire varier la fréquence de rafraichissement d'un appareil vidéo. Ca permet de s'assurer que tous les appareils :
fonctionnent à la même fréquence
ont le même top départ
Disons que sur un plateau télé, tu as 2 caméras. L'un des ingé règle la sienne sur 25Hz, l'autre se plante et la règle à 24.962Hz. Maintenant, en régie, ils règlent leur éméteur pour envoyer un signal vidéo à 60Hz. Tu te rend bien compte que ça va être du gros n'importe quoi en sortie. De même, quand la régis envois le top départ, les personnes ne pourront jamais démarrer leur appareils en même temps. Genlock permet de gérer tous ça.
par Un ragoteur qui déraille d'Ile-de-France, le Mardi 12 Août 2014 à 10h13  
par Un ragoteur sans nom de Picardie le Lundi 11 Août 2014 à 22h00
Une dalle LCD ne peut garder trop longtemps les pixels dans le même état, on est obligé de rafraîchir la dalle au bout d'un moment (ici 33.3ms choisi par nvidia ).
A-Sync permet de descendre à 9Hz, soit 111.11ms (A-Sync est apparement limité sur la taille de la plage de fréquence : 9-60Hz, 17-120Hz, 21-144Hz et 36-240Hz).

 
Si le PC n'envoie pas de nouvelle image au module gsync, ce dernier ne devrait pas consommer plus de ram, donc pourquoi gsync rafraîchirait la dalle ?

La RAM a besoin egalement d'être rafraichie et je soupçonne le module G-Sync d'être trop basique pour gérer correctement le rafraichissement de la RAM.
par Un ragoteur sans nom de Picardie, le Lundi 11 Août 2014 à 22h00  
par Un ragoteur qui déraille d'Ile-de-France le Lundi 11 Août 2014 à 16h37
Pas tout à fait. L'écran ne se rafraichie pas de lui même. C'est le module G-Sync qui va de lui-même demander le rafraichissement même s'il en a pas reçus l'ordre de la carte GFX. C'est dù à l'utilisation de la RAM comme buffer dans le module G-Sync. Limite que ne connait pas l'A-Sync (du moins dans une bien moindre mesure)
Une dalle LCD ne peut garder trop longtemps les pixels dans le même état, on est obligé de rafraîchir la dalle au bout d'un moment (ici 33.3ms choisi par nvidia ).

Si le PC n'envoie pas de nouvelle image au module gsync, ce dernier ne devrait pas consommer plus de ram, donc pourquoi gsync rafraîchirait la dalle ?
par Un ragoteur qui déraille d'Ile-de-France le Lundi 11 Août 2014 à 16h37
Genlock est un protocole qui permet de synchroniser les appareils vidéo sur une même horloge, afin qu'ils affichent tous la même image à la même milliseconde (c'est un peu le NTP de la vidéo). Il n'y a aucun lien avec G-Sync.
Pourtant gsync était un terme utilisé bien avant par nvidia pour ses solutions pro.
Et même si l'utilisation n'est pas la même le résultat est identique, on fait varié la vitesse de rafraîchissement de l'écran.
par Un ragoteur qui déraille d'Ile-de-France, le Lundi 11 Août 2014 à 16h37  
par Un ragoteur sans nom de Picardie le Lundi 11 Août 2014 à 12h33
A la base gsync est une techno permettant de modifier seulement le rafraîchissement d'un écran (voir genlock sur google ) , cette option était seulement dispo que sur les cartes pro il y avait d'ailleurs un connecteur BNC dédié pour la synchro. C'était notamment utilisé par les studio vidéo pour synchroniser l'écran avec le flux vidéo. La synchro verticale était donc une option séparé.
Genlock est un protocole qui permet de synchroniser les appareils vidéo sur une même horloge, afin qu'ils affichent tous la même image à la même milliseconde (c'est un peu le NTP de la vidéo). Il n'y a aucun lien avec G-Sync.

 
Avec la version gsync pour joueur qu'on retrouve dans le PG278Q il y a un rafraîchissement minimum qui se produit toutes les 33.3ms, et ce rafraîchissement se fait comme si la synchro verticale était activé, càd sans tearing et avec l'ajout d'un lag...

Pas tout à fait. L'écran ne se rafraichie pas de lui même. C'est le module G-Sync qui va de lui-même demander le rafraichissement même s'il en a pas reçus l'ordre de la carte GFX. C'est dù à l'utilisation de la RAM comme buffer dans le module G-Sync. Limite que ne connait pas l'A-Sync (du moins dans une bien moindre mesure)
par Un ragoteur sans nom de Picardie, le Lundi 11 Août 2014 à 12h33  
par Un ragoteur qui déraille d'Ile-de-France le Lundi 11 Août 2014 à 10h08
Si cette fréquence est variable, la carte GFX n'as plus besoin d'attendre l'écran pour envoyer l'image, donc plus de synchronisation d'écran, donc plus de V-Sync. Je vois pas ce qu'il y a d'extraordinaire à ça. G-Sync/A-Sync est simplement une autre méthode de synchronisation. Mais les deux méthode s'excluent mutuellement.
C'est une autre façon de voir les choses, mais pour moi je considère que le vsync est une option à part entière qui a été intégré au gsync pour deux raisons :

- A la base gsync est une techno permettant de modifier seulement le rafraîchissement d'un écran (voir genlock sur google ) , cette option était seulement dispo que sur les cartes pro il y avait d'ailleurs un connecteur BNC dédié pour la synchro. C'était notamment utilisé par les studio vidéo pour synchroniser l'écran avec le flux vidéo. La synchro verticale était donc une option séparé.

- Avec la version gsync pour joueur qu'on retrouve dans le PG278Q il y a un rafraîchissement minimum qui se produit toutes les 33.3ms, et ce rafraîchissement se fait comme si la synchro verticale était activé, càd sans tearing et avec l'ajout d'un lag...

- Il y a également une autre raison (mais qui pour moi ne veut rien dire ) , c'est qu'on active gsync depuis les options de synchro verticale des pilotes nvidia, ce n'est pas considéré par nvidia comme une option à part entière.
par Un ragoteur qui déraille d'Ile-de-France, le Lundi 11 Août 2014 à 10h49  
par Un ragoteur sans nom de Picardie le Vendredi 08 Août 2014 à 13h32
C'est plus complexe, dans le cas de gsync tu synchronise la dalle avec contrôleur embarqué gsync.
La carte graphique ne fait qu'envoyer un flux d'image au contrôleur, et c'est ce contrôleur qui va appliquer la synchro verticale et non plus la carte graphique.
Le module G-Sync n'applique pas de synchronisation verticale. Il déclenche l'affichage de l'image. Si la carte GFX envois une image au bout de 20ms, le contrôleur rafraichira la dalle au bout de 20ms. Si la carte GFX envois une image au bout de 10ms, le contrôleur rafraichira la dalle au bout de 10ms. Le tout en jouant sur la durée du V-Blank. A-Sync substituant le contrôleur matèriel (qui gère le V-Blank) par un protocole logiciel (les driver de la carte GFX gère le V-Blank).
par Un ragoteur sans nom de Picardie le Vendredi 08 Août 2014 à 13h45
Le tearing apparaît quand tu charge l'image dans le buffer et que ce buffer est vidé avant d'être rempli. Mais tu peux avoir plus de deux images combiné dans le buffer.
Oui, en gros. Le front buffer n'est jamais vidé à proprement parler. Ce sont 2 pointeurs, un qui pointe vers le front l'autre vers le back, qui sont switchés :
-dés qu'une image est prète dans le cas où V-Sync est désactivé (donc V-Sync off ou G-Sync/A-Sync on) -toutes les 16.6ms si une image est prète dans le cas où V-Sync est activ
par Un ragoteur qui déraille d'Ile-de-France, le Lundi 11 Août 2014 à 10h08  
par Un ragoteur sans nom de Picardie le Vendredi 08 Août 2014 à 13h15
Justement non, le rafraîchissement est fixe sans gsync. Donc ta première image aurait été affiché à 16.6ms et la seconde à 33.3ms.
Ca c'est avec V-Sync activé.

 
Vsync va juste permettre d'avoir un image complète (sans tearing ) mais avec un risque plus important de sauter un rafraîchissement.

Oui, V-Sync permet de garantir que la carte GFX ne va pas changer l'image pendant que l'écran l'affiche.

 
Toutes les images sont affichés au bout de 16,6ms dans le cas d'un moniteur 60Hz, que ca soit avec ou sans vsync.

Il est fixe coté écran mais pas coté carte GFX. D'où le fait que la carte GFX peut envoyer l'image suivante pendant que l'écran l'affiche, occasionant le tearing.
par Un ragoteur sans nom de Picardie le Vendredi 08 Août 2014 à 13h32
Non, le vsync se synchronise avec avec le rafraîchissement de l'écran, mais si cette fréquence est variable comme dans le cas de gsync alors le vsync pourra se synchroniser a une autre fréquence.
Si cette fréquence est variable, la carte GFX n'as plus besoin d'attendre l'écran pour envoyer l'image, donc plus de synchronisation d'écran, donc plus de V-Sync. Je vois pas ce qu'il y a d'extraordinaire à ça. G-Sync/A-Sync est simplement une autre méthode de synchronisation. Mais les deux méthode s'excluent mutuellement.
par Un ragoteur sans nom de Picardie, le Vendredi 08 Août 2014 à 13h57  
par Un ragoteur qui déraille embusqué le Jeudi 07 Août 2014 à 16h14
Le V-Sync n'introduit pas de latence, c'est le triple-buffering (destiné à palier le stuttering induit par le V-Sync) qui l'introduit. Si G-Sync/A-Sync est activer, V-Sync est forcément désactivé, il n'y a donc pas de latence à supprimer.
Le joueur a rarement le choix entre le double et le triple buffering, c'est imposé par les développeurs dans la plupart des jeux.

Et si l'on atteint pas un certain framerate, un lag peut se créer même en double buffering : si l'image n'a pas encore été rendu lors du rafraîchissement de l'écran, elle sera affiché au prochains rafraîchissement ce qui créé un lag (et un changement de framerate ).
par Un ragoteur sans nom de Picardie, le Vendredi 08 Août 2014 à 13h45  
par Un ragoteur qui déraille de Rhone-Alpes le Vendredi 08 Août 2014 à 10h34
Et ce changement de framerate est dù au V-Sync. Sans le V-Sync, t'aurais du tearing à la place. Le tearing est dù à l'inversion du back buffer et du front buffer alors que l'écran est en train d'afficher l'image. Il commence à afficher le contenut du front buffer puis la carte GFX inverse les deux buffer (le back buffer devient le front buffer) et l'écran finit d'afficher le contenut du front buffer qui contient alors la nouvelle image. A l'écran, t'as deux demi-images.
Le tearing apparaît quand tu charge l'image dans le buffer et que ce buffer est vidé avant d'être rempli. Mais tu peux avoir plus de deux images combiné dans le buffer.

Le buffer peux également contenir la même image que celle d'avant si le pc n'a pas eu le temps de faire le rendu de la prochaine image, dans ce cas même sans vsync tu peux avoir deux fois la même image qui s'affiche.
par Un ragoteur sans nom de Picardie, le Vendredi 08 Août 2014 à 13h32  
par Un ragoteur qui déraille de Rhone-Alpes le Vendredi 08 Août 2014 à 10h54
V-Sync implique que l'écran ait une fréquence de rafraichissement fixe.
Non, le vsync se synchronise avec avec le rafraîchissement de l'écran, mais si cette fréquence est variable comme dans le cas de gsync alors le vsync pourra se synchroniser a une autre fréquence.

 
soit tu synchronise la carte GFX à l'écran (V-Sync) soit tu synchronise l'écran à la carte GFX (G-Sync/A-Sync) mais tu peux pas faire les 2 en même temps.
C'est plus complexe, dans le cas de gsync tu synchronise la dalle avec contrôleur embarqué gsync.
La carte graphique ne fait qu'envoyer un flux d'image au contrôleur, et c'est ce contrôleur qui va appliquer la synchro verticale et non plus la carte graphique.
par Un ragoteur sans nom de Picardie, le Vendredi 08 Août 2014 à 13h15  
par Un ragoteur qui déraille de Rhone-Alpes le Vendredi 08 Août 2014 à 11h07
Dans le cas d'un moniteur standard, celui-ci aurait commencé l'affichage avec l'image n à 16.6ms puis aurait terminé l'affichage avec l'image n+1 à partir 20ms. On obtient donc du tearing.
Justement non, le rafraîchissement est fixe sans gsync. Donc ta première image aurait été affiché à 16.6ms et la seconde à 33.3ms.
Vsync va juste permettre d'avoir un image complète (sans tearing ) mais avec un risque plus important de sauter un rafraîchissement.
Toutes les images sont affichés au bout de 16,6ms dans le cas d'un moniteur 60Hz, que ca soit avec ou sans vsync.
par Un ragoteur qui déraille de Rhone-Alpes, le Vendredi 08 Août 2014 à 11h07  
par Un ragoteur sans nom de Picardie le Jeudi 07 Août 2014 à 20h10
Gsync permet de faire varier ce délai de 16,6ms : si l'image est rendu en 20ms le moniteur l'affichera 20ms après la précédente. Un moniteur standard l'aurait afficher au bout de 33,3ms.
Je détails un peu plus cette partie.
Dans le cas d'un moniteur standard, celui-ci aurait commencé l'affichage avec l'image n à 16.6ms puis aurait terminé l'affichage avec l'image n+1 à partir 20ms. On obtient donc du tearing.
Dans le cas d'un moniteur standard avec V-Sync, le moniteur l'aurait effectivement affiché au bout de 33.3ms. On obtient donc un stutter.