COMPTOIR
  
register

Adaptive Sync et FreeSync ? Pas chez NVIDIA

Le 22 janvier, PC Perspective tournait une vidéo en live pour parler de la GTX 960 avec Tom Petersen, Mr Marketing chez NVIDIA. Pour les plus curieux, vous trouverez le différé qui dure tout de même 1h22 en fin de news, de notre côté on va s'intéresser à ce qui se passe à la 54e minute.

 

Pendant le tournage, PC Perspective acceptait des questions venant des spectateurs et l'un d'entre eux à eu la bonne idée de demander si NVIDIA allait travailler sur la compatibilité avec la technologie FreeSync d'AMD. Tom n'a pas franchement répondu par la négative, mais a bien répété qu'il y avait très peu de chances pour que cela arrive. Pour lui l'explication de ce choix est simple, Adaptive Sync et FreeSync utilisent la norme DisplayPort 1.2a et NVIDIA utilise la DisplayPort 1.3 qui ne fait pas mention de cette technologie (même pas en option) pour ses écrans G-Sync. Si pour le FreeSync, c'est un moyen de snober AMD, pour l'Adaptive Sync de VESA l'excuse est liée à celle donnée pour AMD, car ouvrir les portes à l'un le ferait automatiquement pour l'autre (FreeSync se basant sur l'Adaptive Sync). Donc pour changer, chez NVIDIA on reste bien cloisonné derrière des technologies propriétaires en forçant l'utilisateur à jurer fidélité à la firme pour profiter de ce qu'ils ont à proposer. Reste à l'utilisateur final de choisir s'il accepte ou pas de payer plus pour profiter de la chose.

 

Un poil avant ?

The Witcher 3: Wild Hunt reçoit les doigts potelés des premiers testeurs

Un peu plus tard ...

Intel Education annonce un Access Point couteau suisse

Les 46 ragots
Les ragots sont actuellement
On va éviter les débordements anonymes.ouverts aux ragoteurs logués
par Hornpipe, le Mardi 27 Janvier 2015 à 09h51  
C'est bien le Gsync, mais les cartes Nvidia ont déjà du mal à suivre le rapport qualité/prix des cartes AMD, alors si on rajoute, en plus, un surcoût à l'écran, çà risque de lasser leur clientèle à la longue. Qu'ils veuillent rentabiliser leurs technologies (PhysX, Gsync), je pourrais comprendre si on ne payait déjà pas plus cher leur matériel, et à vouloir tout cloisonner, çà va fragmenter inutilement le marché. Bref, grosse déconvenue, mais pas surprenant pour autant.
par Baba the Dw@rf, le Dimanche 25 Janvier 2015 à 21h10  
par Eric B. le Dimanche 25 Janvier 2015 à 20h52
Non, je l'ai écris plus bas, la demande d'évolution du DP1.2a est à l'origine d'AMD en novembre 2013 soit 1 mois après l'annonce de G-Sync par NVIDIA (et adoptée en avril 2014), après on peut croire aux coïncidences.
Moi j'y crois souvent, ici c'est difficile, mais la plupart du temps, les évolutions technos du genre ne sont possible qu'avec l'arrivée d'un nouveau brevet ou produit et donc tous le monde le sort et c'est à qui sort une version en premier, jeu auquel nVidia est très fort (et quand ils gagnent pas ils rachètent la boîtes ou les brevets du premier...)
par Eric B., le Dimanche 25 Janvier 2015 à 20h52  
par TildeKa le Dimanche 25 Janvier 2015 à 20h47
Quand NVidia a sorti G-Sync, VESA travaillait déjà à la norme DP1.2a et à sa spécificité adaptative sync non ?
Donc on n'avait pas entendu parler de cette techno, mais ça c'est joué à quelques mois...
C'est juste que NVidia a communiqué en premier pour faire le "buzz", pour qu'on parle d'eux et qu'ils apparaissent comme novateurs et leaders sur ce marché. Alors qu'en fait, ils n'ont rien inventé.
Non, je l'ai écris plus bas, la demande d'évolution du DP1.2a est à l'origine d'AMD en novembre 2013 soit 1 mois après l'annonce de G-Sync par NVIDIA (et adoptée en avril 2014), après on peut croire aux coïncidences.
par Cronos, le Dimanche 25 Janvier 2015 à 20h48  
par StarBuck le Dimanche 25 Janvier 2015 à 20h05
Déjà ça se passe avec le display port et non le HDMI.... heureusement qu'il n'y a pas besoin de s'énerver...

Et ce n'est parce que c'est "actuellement" une différence que ça en fait une solution meilleur... du 4k a 60 fps il y a encore le temps pour voir venir, et il n'y a pas de raison que l'Adaptive Sync fasse l'impasse du le DP 1.3, ça viendra en temps voulu.
Tu captes rien à ce qu'il dit toi
Il dit juste que NVIDIA a eu l'idée d'utiliser le rafraîchissement dynamique différemment le premier et qu'il était forcément meilleur que le V sync d'AMD à l'époque.
Mais du coup, si NVIDIA se fait chier en R&D à imaginer une puce pour dégainer le premier, il ne se doutait surement pas qu'AMD essayerait de faire de sa trouvaille un standard gratuit.
par TildeKa, le Dimanche 25 Janvier 2015 à 20h47  
Quand NVidia a sorti G-Sync, VESA travaillait déjà à la norme DP1.2a et à sa spécificité adaptative sync non ?
Donc on n'avait pas entendu parler de cette techno, mais ça c'est joué à quelques mois...
C'est juste que NVidia a communiqué en premier pour faire le "buzz", pour qu'on parle d'eux et qu'ils apparaissent comme novateurs et leaders sur ce marché. Alors qu'en fait, ils n'ont rien inventé.
par StarBuck, le Dimanche 25 Janvier 2015 à 20h05  
par 007sivade le Dimanche 25 Janvier 2015 à 19h15
OÙ AI-JE DIS RAISON ?
HDMI 1.3 > HDMI 1.2.
Bordel.
Déjà ça se passe avec le display port et non le HDMI.... heureusement qu'il n'y a pas besoin de s'énerver...

Et ce n'est parce que c'est "actuellement" une différence que ça en fait une solution meilleur... du 4k a 60 fps il y a encore le temps pour voir venir, et il n'y a pas de raison que l'Adaptive Sync fasse l'impasse du le DP 1.3, ça viendra en temps voulu.
par 007sivade, le Dimanche 25 Janvier 2015 à 19h15  
OÙ AI-JE DIS RAISON ?
HDMI 1.3 > HDMI 1.2.
Bordel.
par StarBuck, le Dimanche 25 Janvier 2015 à 18h59  
par 007sivade le Dimanche 25 Janvier 2015 à 18h52
Alors non, ça ne m'etonne pas que NVIDIA ait sorti un truc proprio, et qu'il l'exploite compte tenu qu'il est meilleur !
En quoi il est meilleur ?
Perso, je doute fortement de voir une différence significative entre les 2 technologies.
par 007sivade le Dimanche 25 Janvier 2015 à 18h52
EDIT : Voilà entièrement d'accord avec Eric.
Sauf que Eric ne dit pas vraiment la même chose que toi en ce qui concerne le fait que nvidia a eu raison de rendre la chose propriétaire...
par 007sivade, le Dimanche 25 Janvier 2015 à 18h52  
Vous avez pas envie de comprendre ce que je dis c'est pas possible !
Personne n'a rien a me repondre quand je dis que ce type de synchronisation n'etait pas utilisé sur les moniteurs fixe jusqu'à l'intervention de NVIDIA.
Ils proposent une techno, soudainement c'est l'engouement autour. Qui plus est il semblerait que son concurrent libre se cantonnent au HDMI 1.2.
Alors non, ça ne m'etonne pas que NVIDIA ait sorti un truc proprio, et qu'il l'exploite compte tenu qu'il est meilleur !

Je me fais l'avocat du diable je sais bien, mais quand même, vous eexagérez là !

Alors : oui c'est trop cher, non je n'achèterai pas d'ecran g-sync et oui je trouve que c'est dommageable pour les users !
MAIS leur position est légitime, c'est tout.
EDIT : Voilà entièrement d'accord avec Eric.
par Superubu, le Dimanche 25 Janvier 2015 à 18h48  
par Baba the Dw@rf le Dimanche 25 Janvier 2015 à 18h33
Ils n'ont pas mal agit, ils ont agit comme entreprise qui cherche à se faire un maximum d'argent c'est normal, mais ça ne nous oblige pas à cautionner cette habitude et ne nous empêche pas de vouloir rallier un maximum de personne du coté de notre avis vis à vis de la stratégie d'nVidia
+10, je suis avec vous...En plus je viens de passer chez les rouges
par Eric B., le Dimanche 25 Janvier 2015 à 18h47  
par StarBuck le Dimanche 25 Janvier 2015 à 18h10
Il n'est pas question d'énervement ni de râler, juste de ne pas faire passer des choses fausses, c'est tout.

Si Nvidia persiste dans cette voie, les gens vont y penser a 2 fois au prochain changement de carte graphique ou écran, moi y compris, ou alors il va falloir qu'il diminue drastiquement le prix de leur module G-Sync...
Oui mais un peu non quand même ! Certes ce mode de fonctionnement existe depuis longtemps (2008 de mémoire) ) sur les portables au travers de l'eDP dans le but de réduire la consommation des écrans, il n'en reste pas moins que personne n'avait eu l'idée de s'en servir dans un but ludique avant NVIDIA... D'ailleurs, ce dernier annonce en Octobre 2013 son G-Sync et le mois suivant AMD propose une évolution (a) de la norme DP 1.2 pour prendre en charge ce rafraîchissement dynamique : soit on croit aux coïncidences, soit cela montre bien qu'AMD n'avait pas vu du tout l'utilité auparavant et n'y avait pas travaillé. Donc oui le caméléon n'est pas l'inventeur de ce principe de rafraîchissement variable mais c'est bien lui qui en a vu l'usage possible dans le domaine ludique et si on peut profiter de ce type d'écrans à l'heure actuelle, c'est bien de son fait. Après et là tout le monde ne peut être que d'accord sur le sujet, plutôt que de s'enfermer dans une énième solution propriétaire, NVIDIA aurait du proposer son "astuce" au VESA pour en faire une norme ouverte et tout le monde aurait été gagnant d'autant qu'AMD n'était pas prêt du tout et qu'il disposait donc d'un an d'avance!
par Baba the Dw@rf, le Dimanche 25 Janvier 2015 à 18h33  
par 007sivade le Dimanche 25 Janvier 2015 à 17h55
T'énerve pas, je l'ai jamais vu mentionné.
Quoi qu'il en soit, j'ai juste sur le fait qu'avant sur les écrans normaux, ce n'était pas la cas. On peut pas juste râler tout le temps.
Si justement on se doit de râler, si nVidia n'avait pas à chaque fois tenté de couper l'herbe sous le pieds du marché en bossant sur des technos propriétaires dans des domaines ou les solutions standard existaient déjà on aurait beaucoup moins de problèmes et on serait à un bien meilleur niveau pour les moteurs physiques, le calcul GPGPU et maintenant la synchro CG-écran et sans doute d'autres trucs.
Ils n'ont pas mal agit, ils ont agit comme entreprise qui cherche à se faire un maximum d'argent c'est normal, mais ça ne nous oblige pas à cautionner cette habitude et ne nous empêche pas de vouloir rallier un maximum de personne du coté de notre avis vis à vis de la stratégie d'nVidia