COMPTOIR
register

×

G-Sync Ultimate, àpwal !

Que cachent donc les entrailles d'un écran G-Sync Ultimate ?
G-Sync Ultimate, àpwal !
Apwal le G-Sync Ultimate !
APWAL !

Les écrans G-Sync Ultimate, anciennement G-Sync HDR, représentent le haut du panier du moniteur certifié par le Caméléon, derrière le G-Sync tout court avec un module hardware moins couillu et le G-Sync Compatible sans module. Rappelons que le FreeSync, l'adaptive sync d'AMD, fonctionne sans hardware supplémentaire et est par conséquent aussi beaucoup plus accessible aux joueurs, tandis que les écrans G-Sync ou G-Sync Ultimate sont sensiblement plus onéreux. Ce surcoût, NVIDIA le justifie depuis toujours par un hardware dédié garantissant soi-disant une meilleure expérience virtuelle, avec une latence très basse, de meilleures performances en cas de niveau de FPS très faible et une compatibilité avec le HDR. En contrepartie, il faut naturellement s'enfermer dans l'écosystème des verts. Ce choix est une décision personnelle, nous ne sommes pas là aujourd'hui pour en débattre.

 

En pratique, les écrans G-Sync (Ultimate) sont tout de même beaucoup passés au second plan depuis l'arrivée du G-Sync Compatible, une ouverture longtemps espérée qui a enfin permis l'émergence d'écrans — dont la liste s'allonge jour après jour — pouvant offrir un support de l'adaptive sync simultanément aux Radeon et aux GeForce — que cette solution soit la plus populaire des trois ne sera donc évidemment une surprise pour personne. En sus, le G-Sync hardware n'est à ce jour toujours pas compatible HDMI 2.1, ce qui ne doit pas aider non plus.

 

En attendant, les écrans G-Sync Ultimate en particulier ont visiblement tout de même une bonne raison pour être coûteux et donc virtuellement haut de gamme, celle-ci se trouve sous le capot arrière du moniteur, comme nous le montre aujourd'hui Igor's Lab. L'auteur de l'article a mis la main sur un AGON AG353UCQ d'AOC à titre privé, un investissement de 1800 € assez déraisonnable selon lui pour ses usages — mais que ne ferait-on pas parfois pour la science et le plaisir. Certains se souviendront peut-être que le module G-Sync HDR, apparu en 2018, imposait déjà l'usage d'une ventilation active, une première pour un écran plat gaming et une « innovation » assez malvenue, celle-ci sachant parfois se faire remarquer. Dans le cas de l'AGON, son existence — non déclarée — a d'ailleurs directement sauté aux oreilles du testeur, l'encourageant d'explorer les profondeurs du moniteur et d'aller au fond des choses.

 

G-Sync Ultimate, àpwal ! [cliquer pour agrandir]

 

Apwal le G-Sync Ultimate ! [cliquer pour agrandir]

 

Première découverte, la présence d'un radiateur massif en cuivre (sans chambre à vapeur, semblerait-il), avec une base en cuivre et 5 caloducs, une bonne quantité de pâte thermique et un ventilateur radial comme dans les ordinateurs portables. L'expérience d'un fonctionnement en passif façon X570S n'a rien donné, l'écran s'est coupé et s'est mis en protection pour cause de température critique au bout de 30 minutes de jeu, avec un HDR en basse luminosité. Deuxième découverte, le système refroidissement sert en fait a dissiper les calories d'une puce Altera Arria 10 soudée sur un module PCB individuel, qui n'est pas sans rappeler le format MXM d'une carte graphique mobile. La puce en question porte le numéro de série 10AX048H2F34E1HQ. On trouvera donc facilement qu'il s'agit d'une solution FPGA de chez Intel. L'avantage, c'est que ce type de puce est programmable à souhait via software, l'inconvénient c'est que ce genre de solution est bien plus couteux par rapport à une puce classique. Vous trouverez de nombreux détails techniques ici, chez Intel.

 

APWAL ! [cliquer pour agrandir]

 

C'est donc une assez grosse puce, dont la consommation variera en fonction de la programmation. Mais la taille du refroidissement suggère qu'elle sera ici souvent supérieure à celle d'un chipset de desktop. Avec ceci, ce FPGA coute au bas mot au moins environ 2000 € l'unité auprès d'un revendeur. Le prix baisse forcément en fonction de la quantité et on imagine bien que NVIDIA achète ses palettes directement auprès d'Intel. Mais même en supputant un prix à l'unité de 1000 € environ pour la puce seule, cela interroge et amène à se demander si certains écrans G-Sync Ultimate ne sont pas vendus à perte... Perte absorbée par NVIDIA pour promouvoir coûte que coûte son écosystème G-Sync et GeForce, et polir son image de marque « suprême » pour les joueurs ? Allez savoir. En tout cas, on comprendrait mieux pourquoi les écrans G-Sync Ultimate sont si peu nombreux, difficile d'exciter les fabricants pour élaborer des moniteurs qui offrent peut-être une marge assez faible.

 

NVIDIA a certainement choisi le FPGA pour sa flexibilité, créer une solution customisée aurait probablement été encore plus coûteux, du moins initialement, et il n'est pas dit que cela eut réellement été plus intéressant, surtout si NVIDIA prévoyait déjà dès le départ qu'il n'allait pas vraiment brasser une grosse quantité de solutions G-Sync Ultimate. On serait d'ailleurs bien curieux de connaître le volume réellement vendu, que l'on imaginera plutôt assez faible. Finalement, on pourra donc s'interroger : quel avenir pour le G-Sync hardware chez NVIDIA ?

 

Un poil avant ?

Bon plan • 16 ou 32 Go de mémoire pour vos PC à partir de 72,99 € (MàJ)

Un peu plus tard ...

AMD et Microsoft annoncent la RX 6900 XT Halo Infinite Limited Edition, mais personne ne pourra l'acheter !

Les 20 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur des lumières embusqué, le Dimanche 24 Octobre 2021 à 01h58  
Je suis toujours pas prêt à payer autant pour g sync pour le peu qu'il apporte
par Zobi la mouche en Auvergne-Rhône-Alpes, le Samedi 23 Octobre 2021 à 14h26  
par Thibaut G. le Samedi 23 Octobre 2021 à 11h12
les très rares écrans FS à descendre sous les 40 se comptent sur les doigts d'une main. 99% du marché FS débute à 48 Hz et les écrans G-Syc comaptibles font pareil forcément. Le G-Sync a pour lui d'avoir permis que tous les écrans à cette norme aient le même comportement quels qu'ils soient, avec une bien meilleure efficacité qui reste encore réelle. 30 Hz, c'est 30 ips, ......
Tu a raison en disant qu'il n'y en avait pas beaucoup mais mon écran FS de première génération est bien un 35-120 Hz.
Donc le Freesync c'est pas "48 Hz au mieux", si tu cherches, il y'a bien des ecrans FreeSync avec des caractéristiques très proches du G-Sync et depuis longtemps.
Un peu de lecture....
par Thibaut G., le Samedi 23 Octobre 2021 à 11h12  
par Un ragoteur Gaulois en Auvergne-Rhône-Alpes le Samedi 23 Octobre 2021 à 10h23
Tu te trompes; très tôt, il y a eu des FS sous les 48 Hz ; le mien par exemple est un freesync de première génération a 35 Hz.
Le seul hic comme cité plus bas, c'est qu'au début, Amd n'a pas défini un standard strict, ce qu'a fait NVIDIA.
Enfin, en effet, comme cité plus bas, il est vrai que le gsync "hardware" est un tout petit peu plus efficace dans de rares conditions ( FPS très bas), mais a quel prix !
les très rares écrans FS à descendre sous les 40 se comptent sur les doigts d'une main. 99% du marché FS débute à 48 Hz et les écrans G-Syc comaptibles font pareil forcément. Le G-Sync a pour lui d'avoir permis que tous les écrans à cette norme aient le même comportement quels qu'ils soient, avec une bien meilleure efficacité qui reste encore réelle. 30 Hz, c'est 30 ips, on peut y tomber vite selon les jeux et la CG que tu utilises, une GTX 1070 en QHD y tombe, et là tu es content de la valeur basse de 30 Hz et de la LFC efficace. Si ton écran de 35 Hz a un max de 60, tu n'as pas la LFC, et pour moi ça ne vaut donc rien. Tout le monde se paluche sur les hautes fréquences, mais le réel plus, c'est en bas que ça se passe. Je rappelle que le FS selon AMD débute à 9 Hz même, mais les constructeurs d'écrans n'en ont rien fait parce qu'AMD a laissé faire le marché.
par Un ragoteur Gaulois en Auvergne-Rhône-Alpes, le Samedi 23 Octobre 2021 à 10h23  
par Thibaut G. le Vendredi 22 Octobre 2021 à 22h31
erratum, il est bien meilleur sous les 30 ips, le FS même le plus haut c'est 48 Hz au mieux dans les écrans (alors qu'AMD a donné FS débutant à 9 Hz)
Tu te trompes; très tôt, il y a eu des FS sous les 48 Hz ; le mien par exemple est un freesync de première génération a 35 Hz.
Le seul hic comme cité plus bas, c'est qu'au début, Amd n'a pas défini un standard strict, ce qu'a fait NVIDIA.
Enfin, en effet, comme cité plus bas, il est vrai que le gsync "hardware" est un tout petit peu plus efficace dans de rares conditions ( FPS très bas), mais a quel prix !

par Un ragoteur Gaulois en Auvergne-Rhône-Alpes, le Samedi 23 Octobre 2021 à 09h21  
par Thibaut G. le Vendredi 22 Octobre 2021 à 22h31
erratum, il est bien meilleur sous les 30 ips, le FS même le plus haut c'est 48 Hz au mieux dans les écrans (alors qu'AMD a donné FS débutant à 9 Hz)
Tu te trompes; très tôt, il y a eu des FS sous les 48 Hz ; le mien par exemple est un freesync de première génération a 35 Hz.
Le seul hic comme cité plus bas, c'est qu'au début, Amd n'a pas défini un standard strict, ce qu'a fait NVIDIA.
Enfin, en effet, comme cité plus bas, il est vrai que le gsync "hardware" est un tout petit peu plus efficace dans de rares conditions ( FPS très bas), mais a quel prix !

par LeSteph, le Samedi 23 Octobre 2021 à 08h32  
par Un ragoteur de transit en Bourgogne-Franche-Comté le Vendredi 22 Octobre 2021 à 16h25
Toi tu t'es perdu ici, tu ne sembles pas connaître les tauliers et leur propension à faire de l'humour.
Sinon tu ne sembles pas tout comprendre non plus, le prix qu'un objet coûte à produire pour l'entreprise qui en est à l'origine dépasse son prix de fabrication. Les personnes qui bossent à développer le truc ne sont pas payées avec de l'amour et de l'eau fraîche, d'autant que cela prend au moins un ou deux ans dans le meilleur des cas.
Je suis désolé que tu le prennes comme cela et que tu te sois perdu dans le sens de mes propos, j'ai juste dit que c'était un peu trop n'imp d'avancer un chiffre aussi faux e :. Je suis vraiment très impressionné par ta connaissance des process industriels, ton humilité et la finesse de ton analyse sur les process de dev, fab, vente, programmation, intégration et commercialisation entre intel, nvidia, le fabricant de cet écran, le vendeur final et la motivation de l'acheteur . Tiens peut être que le commentaire au dessus du mien devrait te donner un indice.
Au fait, qui a dit que les employés étaient payés en fonction du cout des produits qu'ils développent pour leur société (a part les vendeurs) ? Un fois de plus, comme je l'ai dit, argumenter sur le sujet du prix et de la marge ne sert à rien, absolument aucun chiffre n'est vérifiable de part la complexité de la chaine et la confidentialité de ces transactions.
Passe une très très bonne journée et merci d'avoir fait la mienne. Allez pour clore mon intervention : c'est vrai tu as tellement raison Je me fais avoir tout seul par le schéma de ce thread et les intervention/affirmations magiques des experts présents.
par Thibaut G., le Vendredi 22 Octobre 2021 à 22h31  
par Deus le Vendredi 22 Octobre 2021 à 17h00
Le Gsync hardware etait une bonne idee a la base, et a permis de lancer un truc super interessant, j'ai pu tester les 2 (hardware et adaptive sync) et c'est vrai que gsync hardware est bien meilleur en dessous de 60 FPS.

Le truc... C'est que qui aujourd'hui a envie de jouer en dessous de 60 FPS ? La mode est au high framerate (meme sur consoles !) et c'est bien normal, et aujourd'hui qu'on joue a 40 FPS avec Gsync hardware ou adaptive sync, ca reste 40 FPS et 40 FPS c'est de la merde (sauf sur une dalle OLED qui gere beaucoup mieux la clarete d'image en faible frequence, mais en general quand on a de l'OLED on a pas une GT 710).

Desole pour le message, c'est cru, mais ca permet d'illuster que malgre un avantage technologique certain de la part de Gsync hardware, c'est un avantage qui ne fait plus sens aujourd'hui dans le paysage video ludique ou les jeux sont bien plus CPU limited que GPU limited (a moins de jouer en 4K et plus), et ou on a du FSR ou du DLSS pour les plus chanceux d'entre nous
erratum, il est bien meilleur sous les 30 ips, le FS même le plus haut c'est 48 Hz au mieux dans les écrans (alors qu'AMD a donné FS débutant à 9 Hz)
par crazytiti, le Vendredi 22 Octobre 2021 à 20h25  
par Arkane le Vendredi 22 Octobre 2021 à 09h39
Nouvelle idée de business : acheter un écran à 1800€, et le revendre pour pièces à plus de 2000
C'est exactement ce que je me disais !
par Deus, le Vendredi 22 Octobre 2021 à 19h45  
par Back Orifice le Vendredi 22 Octobre 2021 à 19h41
De la même manière qu'entre acheter une RTX3090 + écran freesync ou RTX2060 + écran Gsync utlimate le choix est vite fait
Tu m'etonnes !
par Back Orifice, le Vendredi 22 Octobre 2021 à 19h41  
par Deus le Vendredi 22 Octobre 2021 à 17h00
...
De la même manière qu'entre acheter une RTX3090 + écran freesync ou RTX2060 + écran Gsync utlimate le choix est vite fait
par Deus, le Vendredi 22 Octobre 2021 à 17h00  
Le Gsync hardware etait une bonne idee a la base, et a permis de lancer un truc super interessant, j'ai pu tester les 2 (hardware et adaptive sync) et c'est vrai que gsync hardware est bien meilleur en dessous de 60 FPS.

Le truc... C'est que qui aujourd'hui a envie de jouer en dessous de 60 FPS ? La mode est au high framerate (meme sur consoles !) et c'est bien normal, et aujourd'hui qu'on joue a 40 FPS avec Gsync hardware ou adaptive sync, ca reste 40 FPS et 40 FPS c'est de la merde (sauf sur une dalle OLED qui gere beaucoup mieux la clarete d'image en faible frequence, mais en general quand on a de l'OLED on a pas une GT 710).

Desole pour le message, c'est cru, mais ca permet d'illuster que malgre un avantage technologique certain de la part de Gsync hardware, c'est un avantage qui ne fait plus sens aujourd'hui dans le paysage video ludique ou les jeux sont bien plus CPU limited que GPU limited (a moins de jouer en 4K et plus), et ou on a du FSR ou du DLSS pour les plus chanceux d'entre nous
par Un ragoteur de transit en Bourgogne-Franche-Comté, le Vendredi 22 Octobre 2021 à 16h25  
par LeSteph le Vendredi 22 Octobre 2021 à 11h14
Bonjour,
Du coup ? y'a quoi de plus : ben on ne sais pas. Y'a un FPGA en plus (???) qui est refroidit. OK et donc ? ben.... C'est donc cela que l'on appelle "dissected" ? En gros tu l'as ouvert et tu ne sais pas ce que tu as vu car c'est programmable. c'est tout ? ça valait peut être pas le coup(t) de l'ouvrir.
Ah non y'a aussi :
-....
Et certes, je n'en sais pas plus que l'auteur sur la vérité de ce prix mais au moins je ne construit pas un discours orienté complet sur un chiffre invérifiable et un peut trop faux

-un joli titre pour faire cliquer les gens.

IMHO cela ne valait pas le coup d'être repris, on dirait un article de "hateur" de plus au vu de la moquerie sous jacente du ton employé;
Toi tu t'es perdu ici, tu ne sembles pas connaître les tauliers et leur propension à faire de l'humour.
Sinon tu ne sembles pas tout comprendre non plus, le prix qu'un objet coûte à produire pour l'entreprise qui en est à l'origine dépasse son prix de fabrication. Les personnes qui bossent à développer le truc ne sont pas payées avec de l'amour et de l'eau fraîche, d'autant que cela prend au moins un ou deux ans dans le meilleur des cas.