COMPTOIR
register

Bénéficier du FreeSync sur un rendu par GPU NVIDIA, c'est possible ? Et ça marche ?

FreeSync et G-Sync sont deux solutions techniques permettant de fluidifier l'image lors de rendus 3D temps réel effectués à basse fréquence. Comprendre donc : quand ça RAM, avec le Free/G -sync, c'est mieux. Le principe est le même dans les deux technologies : envoyer avec la carte graphique un signal ordonnant à l'écran de décaler ou de retarder l'affichage de la prochaine image afin de se synchroniser avec le rendu ; ce qui a pour effet à la fois d'éviter les déchirures (tearing) et les micro-saccades du justement à cette non-synchronisation en temps normal.

 

Bien évidemment, ces deux technologies ne sont pas compatibles ! Là où le FreeSync nécessite un ASIC dédié dont AMD fourni généreusement un design générique (mais que les constructeurs ne sont pas forcés de suivre) ; NVIDIA utilise un FPGA sous licence, induisant un surcoût et une consommation accrue, pour un rendu théoriquement meilleur, bien que cela reste controversé dans la pratique (surtout avec le FreeSync 2 intégrant le LFC).

 

Sauf que cet incompatibilité pourrait bien être levée, par une astuce pas si bête mais pas si bon marché non plus. En effet, il est possible via Windows 10 de sélectionner la carte utilisée pour le rendu en jeu ; jusque là rien de bien original, la fonctionnalité était déjà connue des PC portable cumulant une carte graphique dédiée en sus de la partie graphique du processeur. Sauf que cette fonctionnalité est également utilisable sur PC fixe (avec un APU rouge ou une carte AMD pro en tout cas)... Vous voyez la combine venir : branchez une carte AMD, une carte NVIDIA, votre écran FreeSync sur la rouge, votre rendu sur la verte, et paf, ça fait des Chocapics vous voici avec le FreeSync de votre écran sur les performances de votre carte verte !

 

amvidia logo

VEGA vs R/GTX : une seule solution !

 

Nos confrères de chez PCPerseptive, étonnés par ces résultats tout droit sortis de Reddit, ont mené des tests supplémentaires pour voir l'influence du montage sur l'input lag. Si ce dernier est augmenté, il ne passe qu'à 31 ms contre 24 ms de base, sachant que l'APU 2400G utilisé seul offre un input lag de 29 ms.

 

Certes, ce montage est plus coûteux qu'un moniteur compatible, et non testé si vous n'avez pas un APU rouge - le ticket d'entrée pour la FreeSync étant à un bonne centaine d'euros pour une RX 550 - mais la technique pourrait être utilisée pour qui voudrait mettre à jour sa configuration sans changer son écran ; à tout hasard, passer d'une RX 570 à une RTX 2080 Ti (en craquant son portefeuille au passage). D'autres pourraient également être très heureux de pouvoir jouer à leurs titres préférés sur une carte pro dépourvue de sorties graphiques (à la maison bien sûr...). En outre, on voit cette fois-ci mal comment un patch d'NVIDIA seul pourrait résoudre le problème, à moins que des contacts hauts placés ou des conditions écrites en tout petit sur les contrats de licences viennent modifier la donne... Affaire à suivre !

Un poil avant ?

GloFo stoppe le développement du 7nm et plus fin, AMD bascule chez TSMC

Un peu plus tard ...

Intel Whiskey Lake & Amber Lake 8th Gen : 6 "nouveaux" processeurs de série Y et U

Les 25 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par BloodBrother, le Vendredi 31 Août 2018 à 09h24  
par Jemporte le Mercredi 29 Août 2018 à 14h12
Maintenant est-ce que Freesync et G-Sync sont tellement mieux qu'il faut absolument en avoir un ?
Oui !
L'essayer c'est l'adopter : adieu le tearing ou le stuterring au-dessus de 30 Fps . (attention au choix de l'écran Freesync car beaucoup ont 48 Hz en Plage basse.)
Crois-moi que même avec un GPU du Type GTX 1080 ou Vega même en Full HD, ca arrive souvent de passer sous les 60 FPS dans les jeux récents, donc c'est très utile.
C'est encore plus Utile avec des Moniteurs 2K & 4K.
Autre avantage, ca augmente indirectement la durée d'utilisation de ta carte graphique puis ce que tu ressentira le besoin d'en changer plus tard.

Pour moi, ca devrait être un standard cette technologie, implantée sur tous les écrans, moniteurs comme TV.

J'espère que Nvidia va changer son Fusil d'épaule et rendre compatibles ses Pilotes avec Free-Sync, je ne comprends pas pourquoi ils ne le font Pas car ils ont tout à gagner... Beaucoup, dont moi, sont passés chez AMD pour avoir cette technologie a un prix abordable.
par Jemporte, le Jeudi 30 Août 2018 à 13h15  
par RagoteurMusqué le Mardi 28 Août 2018 à 19h51
Il y a deux façons de faire différentes.
1) La méthode qui fonctionne seulement avec quelques jeux (dont WoW qui a permis la découverte), ceux qui permettent de choisir le GPU utilisé pour faire le rendu, dans ce cas, ça marche avec un GPU dédié.
2) La méthode qui marche avec tous les jeux, mais qui est limitée à l'utilisation d'un APU tant que des bricoleurs ont pas trouvé le moyen de faire passé les GPU dédiés en tant que GPU "économes" pour Windows 10.
De fait, il faut que le jeu permette de choisir la carte de calcul utilisée, comme dans les logiciels de rendu 3D. Je me souviens d'un jeu de conduite auto qui le faisais il y a pas mal de temps déjà. De fait je n'avais pas essayé l'option, la carte d'affichage étant largement suffisante (une vieille AMD alors que j'avais aussi une Nvidia pour les rendu CUDA). Donc je pense que cette astuce ne date pas d'hier et n'est pas restreinte à W10.
par Jemporte, le Jeudi 30 Août 2018 à 12h32  
par pascal2lille le Mercredi 29 Août 2018 à 20h55
Je n'ai pas bien compris l'astuce. Tu branches un écran Freesync sur la AMD et tu l'utilises en jeu, jusque là ok.
Que fais-tu de la sortie Nvidia ? je ne vois pas comment exploiter la puissance de Nvidia sur un écran Freesync ? Votre rendu sur la verte ?
La carte Nvidia n'est pas branchée, elle ne sert que pour calculer l'image qui transite via la carte AMD qui ne sert que pour afficher...
Une principe comparable est souvent utilisé sur les portables par les GPU Nvidia qui calculent alors que c'est l'iGPU Intel qui affiche, et c'était avant Windows 10 (les Dell Latitude sous Windows 7 Pro par exemple), et même sur MacOS (les Macbook Pro).
Donc je me demande si cette astuce n'est pas utilisable aussi sous Windows 7. A noter que chez Intel l'Adaptive Sync (Freesync sans LFC) était censé être supporté à partir de Kaby Lake, mais plus de news depuis l'annonce. Rien dans les pilotes.

A mon avis c'est la carte qui affiche qui doit aller sur le port le moins compétent en débit (x4, x8, PCIe 2.0 contre 3.0). Et attention, un vrai port x4 (et parfois un x8) peuvent manquer de courant avec 2 cartes, mais pour un port x1 c'est sûr et certain, il ne prend pas plus de 20W hors tolérances. Il faut donc les alimenter (extender + alim du port et carte graphique déportée), à l'image du mining. Une solution c'est qu'il existe des extenders alimentés pour carte graphique low profile et il existe des RX550 low profile. Ce dernier cas de montage sur x1 doit rajouter dans les 150 euros. Est-ce que ça vaut encore le coup ? Ca dépend du modèle d'écran souhaité.
par pascal2lille, le Mercredi 29 Août 2018 à 20h55  
par Nicolas D. le Mardi 28 Août 2018 à 20h35
branchez une carte AMD, une carte NVIDIA, votre écran FreeSync sur la rouge, votre rendu sur la verte, et paf, vous voici avec le FreeSync de votre écran sur les performances de votre carte verte !
Je n'ai pas bien compris l'astuce. Tu branches un écran Freesync sur la AMD et tu l'utilises en jeu, jusque là ok.
Que fais-tu de la sortie Nvidia ? je ne vois pas comment exploiter la puissance de Nvidia sur un écran Freesync ? Votre rendu sur la verte ?
par Jemporte, le Mercredi 29 Août 2018 à 14h12  
Il faut exclusivement une carte AMD au moins GCN 2e série (le support DX12 ne suffit pas) avec de préférence un display port (autrement il faut que le HDMI ne soit pas castré ) ou du DVI-D (il arrive qu'on ait un HDMI castré ancienne norme, un DVI simple + un vga et là c'est foutu malgré le GPU compatible), donc GPU Bonaire (HD 7790, R7 26x) lancé début 2013 , Tonga (R9 285, 38x), et Hawaii (R9 29x, 39x), Fuji, Gamme RX et Vega. Les GPU sortis pour FM2+ (à partir de Kaveri) et Am4 sont compatibles freesync. On peut récupérer une vieille carte à GPU Bonaire ou Tonga et ça fait l'affaire. Par contre Bonaire doit être limité pour la taille de l'écran à du WXGA (faut pas rêver faire du 4K 60hz avec). Maintenant pour coller du Full HD à une RTX qui visiblement va se limiter à ça en raytracing, ça doit le faire. Pour afficher une image en transit, un PCIe x16 qui est en réalité un x4 devrait suffire même en PCIe 2.0. Le x1 sans encoche, scié pour faire passer un carte x16 est un peu abusé (d'autant plus qu'en général c'est du PCIe 2.0 au mieux).

Maintenant est-ce que Freesync et G-Sync sont tellement mieux qu'il faut absolument en avoir un ?
par Janus31, le Mercredi 29 Août 2018 à 11h13  
par AntiZ le Mercredi 29 Août 2018 à 10h31
Les gens ont le pouvoir de décider, mais le marketting le lui enlève via son égo.

Fait comme moi, scies ton port PCIe x1 pour le rendre open à des cartes x16

Ou le GPU lui-même pour la rendre plus compatible, mais t'auras des pertes de performances si tu descends en dessous de 8x vu que c'est du PCIe 2.0.
Salut "AntiZ" (t'es de la famille d'Ant-Man ou de Antz ? )

Scier un PCIe x1 ça suffira pas, vu que j'ai une Asus SABERTOOTH P67

Et je perdrai pas de perf car j'ai donc pas de PCIe x16 Gen 3.0 (mais seulement 2.0)

En fait j'ai une RPD x16 Gen 3.0 sur une SABERTOOTH P67 (PCIe X16 Gen 2.0 qui fonctionne en x8 Gen 3.0)
et aussi une Ares x16 Gen 2.0 sur une SABERTOOTH Z77 (PCIe X16 Gen 3.0 qui fonctionne en x16 Gen 2.0).

Les 2 PCs sont équipés de i7-3770K, OC @ 4.4 Ghz, les memes SSD (Kingston HyperX Predator SSD M.2/PCIe x4 2.0) et chacun 16Go de DDR3 a 2400Mhz.

Tu vas surement me dire "T un couillon échange tes cartes graphiques d'un PC a l'autre et ta RPD fonctionnera donc en 16x Gen 3 sur le slot x16 Gen 3 de ta Z77 et tu gagneras en perfs !".

Heu oui, t'as raison mais de toute façon je ne reconnaitrai jamais que je suis devenu paresseux (a ne pas confondre avec un fainéant, un bras-cassé, etc ...) et que (fausse excuse mais bien réel !) "je suis déja au dessus de 75fps sur SniperElite4 en DX12 avec l'Async compute (Ultra sans AA ni anisotropique), sur 3 écrans Freesync (limités à 75Hz de toute façon), j'ai plus trop de temps pour jouer a d'autres jeux (comme Crysis 3, j'adore), donc ça me va comme ça, je te remercie de ta remarque fort obligeante"
par AntiZ, le Mercredi 29 Août 2018 à 10h31  
par Evil le Mercredi 29 Août 2018 à 07h45
Il est vraiment regrettable que Nvidia ait réussi à segmenter le marché des écrans PC avec leurs modules G-sync, parce que maintenant quand on achète un écran, on doit déjà réfléchir à quel constructeur de cartes graphiques on va choisir derrière. Soit on prend un FreeSync et on se dit qu'on va prendre du AMD, soit on prend un G-Sync et on se dit qu'on va prendre du Nvidia. Ou alors on se prive d'une techno très utile, et qui a un coût, en tout cas côté verts
Les gens ont le pouvoir de décider, mais le marketting le lui enlève via son égo.
par Janus31 le Mercredi 29 Août 2018 à 10h04
Fait comme moi, scies ton port PCIe x1 pour le rendre open à des cartes x16

Ou le GPU lui-même pour la rendre plus compatible, mais t'auras des pertes de performances si tu descends en dessous de 8x vu que c'est du PCIe 2.0.
par Janus31, le Mercredi 29 Août 2018 à 10h12  
par Nicolas D. le Mardi 28 Août 2018 à 19h46
Je suis sur le combo Fury + 9800gtx+ pour t'imagine mon truc :P et la 9800 est pas détectée a priori :/
par Nicolas D. le Mardi 28 Août 2018 à 20h35
Je pense que ma 9800gtx+ est trop agée pour ça... par contre, en laissant activée la carte graphique intégrée Intel + la carte de rendu amd + la carte nvidia, il y a peut petre moyen de gruger, mais je ne peux pas tester en l'état
AMHA, c'est parce que ce "montage" n'est applicable qu'avec des CG ou APU ou iGPU DX12 (ce qui n'est pas le cas de ta GTX 9800),
pour des jeux DX12,
sous un OS 'DX12' (donc Win 10),
et bien sur dans le lot faut quelque part (CG/APU/iGPU) un GPU Freesync (donc AMD et bientôt Intel ?)

Je pars bien sûr du principe que si ce montage fonctionnait déjà
sous Windows Seven,
ou avec des GPC/APU/iGPU DX11
ben il y a belle lurette qu'un type l'aurait remarqué, puis évoqué quelque part
et donc aujourd'hui on serait pas en train de spéculer dessus
par Janus31, le Mercredi 29 Août 2018 à 10h04  
par L'Ours le Mardi 28 Août 2018 à 19h34
C'est exclusif à Windows 10 ou qqn a testé sur Windows 7 aussi?
En fait je pense que c'est applicable pour DX12 (donc oui, avec Win 10), à cause de cette histoire de pouvoir affecter le "rendu" a une ressource (dans l'exemple une CG NVIDIA) et la sortie a une autre ressource (APU via sortie CM ou autre CG compatible FreeSync via sa sortie).

Perso,
je suis sous Win 10,
j'ai une seule CG DX12 (RPD de 2016 avec 2 GPUs, mais surtout compatible Freesync),
je vois bien les 2 GPU dans le TaskManager,
mais quand je clique (droit) sur SniperElite4_DX12 (donc un jeu DX12 )
aucune mention de "Run with graphics processor > High performance xyz processor (default) ou autre iGPU" (*)

Je pense que c'est parce que j'ai un i7-3770K (avec iGPU MAIS DX11 !)
et aussi parce que toutes mes sorties (3 DisplayPort + 1 HDMI) sont câblées sur le GPU0 de ma CG (le GPU1 n'est pas accessible directement, ou alors c'est parce que j'ai activé le AMD Crossfire dans Adrénalin ?).

J'ai bien une GTX 240 mais plus de port PCIe libre pour la brancher,
donc je peux pas tester une conf CG AMD + CG NV,
faut que tu essayes toi-même en "empruntant" une CG (de l'autre marque)

(*) Et idem sur mon portable HP PROBOOK 4720S :
Win 10 PRO,
I7-620M (iGPU dx10.1),
HD 5450 (dx11),
rien que dalle nenni, aucun "Run with ... > ..." pour SniperElite_DX11 ni _DX12,
sans doute parce que l'IGPU est DX10.1 (et ma CG DX11),

faut les mêmes capacités DX pour dispatcher rendu et sortie
par hwlr, le Mercredi 29 Août 2018 à 07h54  
par DavVador le Mardi 28 Août 2018 à 19h44
Ah mince, je m'y voyais déjà
J'ai toujours la Fury au pire pour tester, mais je me vois mal avoir le combo Fury+1080Ti dans la tour, bonjour la conso
Underclock + undervolt
D'ailleurs, pure hypothèse, peut-être qu'en flashant le bios de la carte graphique avec une limite de consommation très faible Windows pourrait reconnaître un GPU comme économe en énergie ?
par Evil, le Mercredi 29 Août 2018 à 07h45  
Il est vraiment regrettable que Nvidia ait réussi à segmenter le marché des écrans PC avec leurs modules G-sync, parce que maintenant quand on achète un écran, on doit déjà réfléchir à quel constructeur de cartes graphiques on va choisir derrière. Soit on prend un FreeSync et on se dit qu'on va prendre du AMD, soit on prend un G-Sync et on se dit qu'on va prendre du Nvidia. Ou alors on se prive d'une techno très utile, et qui a un coût, en tout cas côté verts
par Kernuun, le Mardi 28 Août 2018 à 21h16  
de mémoire, il y avait une manipulation similaire (dans l'autre sens) pour bénéficier de Physx en accélération matérielle avec une carte AMD (il fallait avoir une carte avec puce nVidia dans le même PC). Ca a vite été désactivé dans les pilotes nVidia....