COMPTOIR
register

Test • GeFORCE GTX 1070 Ti

• Évolution des fréquences

Pour jauger l'ampleur des éventuelles baisses de fréquences induites par les limites de température et consommation imposées à la GTX 1070 Ti FE via GPU Boost 3.0, nous avons mesuré la fréquence de son GPU en tâche de fond sous forte charge (Anno 2070 en QHD), soutenue durant 30 min :

 

Evolution de la fréquence GPU sous forte charge

L'évolution de la fréquence GPU de la GTX 1070 Ti FE sous forte charge

 

Malgré un TDP en hausse notable par rapport à la GTX 1070, la version Ti s'avère limitée par ce dernier durant les premières minutes du test, jusqu'à ce que la température joue son rôle limitant, à partir de 82°C. La fréquence du GPU baisse progressivement sous l'effet de ces deux contraintes, pour se stabiliser entre 1733 et 1746 MHz. En poussant le test durant une heure, nous obtenons une fréquence moyenne de 1742 MHz, soit 60 MHz de plus que le Boost annoncé, nous disposons donc d'un "bon" exemplaire.

 

Sur le même test et dans les mêmes conditions, notre 1080 FE se retrouve avec un déficit de fréquence moyenne à pratiquement 130 MHz, avec 1614 MHz. Point remarquable, elle a plus de mal à s'approcher de sa limite de consommation que la nouvelle venue. Cette dernière profitant à priori des progrès du procédé de gravure 16 nm de TSMC depuis la commercialisation des GTX 1070/1080, il y a de cela 18 mois. Un exemplaire plus récent devrait probablement se comporter mieux que notre sample, cela explique la proximité des 2 cartes lors de notre test.

 

Pour rappel ce comportement n'est en rien un défaut, c'est ce qui est recherché par NVIDIA pour soigner l'efficacité de sa puce et la garder sous contrôle, ce mécanisme permettant de s'affranchir des marges de sécurité que prenaient auparavant les concepteurs de GPU, pour valider les fréquences de fonctionnement dans toutes les conditions de leurs GPU. Cela permet ainsi un gain de performance lorsque les conditions sont plus favorables (charge 3D moins lourde, conditions climatiques plus clémentes, etc.), mais induit plus de variabilité.

 

 

• Overclocking

Nous venons de le voir, la GTX 1070 Ti FE est une carte limitée par sa consommation maximale autorisée ainsi que la température. Dans ces conditions, est-il possible d'en tirer davantage par overclocking ? Chez les verts, cette opération est toujours bénéfique car elle consiste à appliquer un offset au niveau de la courbe tension/fréquence. De quoi améliorer l'efficience, mais on peut aller encore plus loin en autorisant des limites de température et consommation plus élevées, limitant ainsi la baisse de fréquence du fait de GPU Boost, mais au détriment de l'efficacité cette fois ! Pour cette opération, nous utilisons la dernière version d'eVGA Precision XOC, sans souci notable.

  

GPU-Z GeFORCE GTX 1070 Ti : overclocking

GeFORCE GTX 1070 Ti  FE overclockée

 

Au final nous avons réussi à grignoter un peu plus de 17% pour le GPU et 10% côté mémoire, de quoi gagner un peu moins de 12% sous The Witcher III, pour une consommation en hausse de 39 W et des nuisances sonores plus élevées de 4,4 dBA. Page suivante, passons aux mesures de bruit et températures.



Un poil avant ?

Afterburner 4.4.0 est en version finale/stable

Un peu plus tard ...

EPYC 2 serait-il un monstre ?

Les 71 ragots
Les ragots sont actuellement
zone limitée - permis de ragotage requisouverts aux ragoteurs logués
par Eric B., le Lundi 20 Novembre 2017 à 19h19  
le dernier patch corrige les problèmes de performances des rouges sous Wolfenstein II avec New York : ainsi, la VEGA64 obtient sur une scène similaire (sauvegarde réinitialisée suite à une précédente mise à jour du jeu) de Manhattan, un score de 102.9 i/s contre 94.8 i/s à la GTX 1080 FE. De quoi donner un avantage de 8,5% à la première citée, soit un rapport de force similaire à celui séparant les deux cartes sur le niveau Roswell (8,4%).
par Sarge, le Vendredi 03 Novembre 2017 à 17h09  
Test au top (merci bcps) et cette nouvelle verte est franchement pas mal. Bien joué aux Verts, mais je préfère "tuer" du Nazi en AMD...il y a une certaine classe, surtout avec ma HBM2 audible, en arrière plan.
par Armand Raynal, le Vendredi 03 Novembre 2017 à 16h54  
par Eric B. le Vendredi 03 Novembre 2017 à 15h35
Par souci d'équité, je viens d'ajouter une seconde scène issue de Wolfenstein II (Roswell). J'ai recalculé les indices de performance en conséquences et je les ai ajoutés également, même si l'impact reste réduit du fait du grand nombre de jeux composant notre panel et que cela ne change rien à nos conclusions.

Nous continuerons par contre à suivre l'évolution d'un éventuel correctif d'AMD pour le passage en cause.
par BloodBrother, le Vendredi 03 Novembre 2017 à 16h44  
par Eric B. le Vendredi 03 Novembre 2017 à 15h35
Par souci d'équité, je viens d'ajouter une seconde scène issue de Wolfenstein II (Roswell). J'ai recalculé les indices de performance en conséquences et je les ai ajoutés également, même si l'impact reste réduit du fait du grand nombre de jeux composant notre panel et que cela ne change rien à nos conclusions.

Nous continuerons par contre à suivre l'évolution d'un éventuel correctif d'AMD pour le passage en cause.
par Eric B., le Vendredi 03 Novembre 2017 à 15h35  
Par souci d'équité, je viens d'ajouter une seconde scène issue de Wolfenstein II (Roswell). J'ai recalculé les indices de performance en conséquence et je les ai ajoutés également, même si l'impact reste réduit du fait du grand nombre de jeux composant notre panel et que cela ne change rien à nos conclusions.

Nous continuerons par contre à suivre l'évolution d'un éventuel correctif d'AMD pour le passage en cause.
par pelouze, le Vendredi 03 Novembre 2017 à 14h52  
par ThePapyGeek le Vendredi 03 Novembre 2017 à 07h52
Bah dans la mesure ou les VEGA sont rentables que pour les actionnaires d'EDF ou le geek au bureau mal isolé en hiver y'a pas de quoi pavoiser. Y'a même pas de combat tant c'est risible.

Edit: d'après hfr et cdh les mesures de consommation diffèrent, après ce ne sont pas les mêmes titres.
Entre vega 56 et la 1070 ti, il y'a plus ou moins 30W de différence, donc arrête de dire n'importe car c'est toi qui es risible.

Edit: d'après hfr et cdh les mesures de consommation diffèrent, après ce ne sont pas les mêmes titres.

par Thomas N., le Vendredi 03 Novembre 2017 à 12h14  
par bouba81 le Vendredi 03 Novembre 2017 à 09h20
Je m'explique:
[...]
Comme Éric, je n'ai pas rencontré ce bug. Je viens de tester et RAS, après modif des options et redémarrage du jeu, tout marche bien navette.
par Eric B., le Vendredi 03 Novembre 2017 à 11h42  
Les bugs sont toujours possibles et bien souvent aléatoires, je n'ai personnellement pas rencontré le problème que tu décris. Par contre, même si le jeu ne l'impose pas, je redémarre toujours le jeu après modification des réglages, cela évite les mauvaises surprises, même si dans ton cas, cela ne suffit à priori pas.
par bouba81, le Vendredi 03 Novembre 2017 à 09h20  
Pour Eric,

il me semble avoir détecté un bug sur Wolf2 avec ma Fury que je n'ai pas avec ma 1070. Il doit s'appliquer aux Vega également.

Je m'explique:

Sur une même sauvegarde de Wolf2, il m'arrive qu'en triturant les options graphiques de manière à les modifier une fois la save lancée que je perde la moitié des perfs quand je relance le jeu après l'avoir quitté...avec pourtant exactement les mêmes réglages...mais le rendu graphique me semble pourtant plus fin. C'est à rien y comprendre.
En gros, il faut lancer le jeu avec les réglages au max, aller aux options vidéo et mettre au mini, puis sortir des options et revenir au jeu. Ensuite, revenez aux options graphiques et rebalancez tout à fond manuellement (réglages personnalisé ) et quittez le jeu en revenant au bureau. Redémarrez maintenant le jeu. Chez moi, les détails sont beaucoup plus fins, les lumières plus belles et je perds 40 à 50% de perfs alors que dans les deux cas (avant/après) je mets exactement les mêmes réglages.

Se pourrait-il qu'une option graphique plante ou ne se charge pas avec les Nvidia et AMD par défaut et que sa prise en charge soit aléatoire en triturant les options car liée à un bug?

Sinon, merci pour vos réponses (Eric et Thomas).
par Thomas N., le Vendredi 03 Novembre 2017 à 08h48  
par bouba81 le Jeudi 02 Novembre 2017 à 22h35
Non et justement, "désactivé", ça veut clairement dire ce que ça veut dire: l'occlusion n'est pas gérée même si l'on tente de la paramétrer via les réglages du jeu.

J'ai une 1070 donc je connais le panneau Nv. Toute option réglée sur "désactivé" rend inactive l'option sur le rendu de la scène.
Dans ton panneau de config Nvidia, va à l'onglet "Régler les paramètres d'image avec Aperçu" et choisis "Laisser l'application 3D prendre la décision".
Tu verras que même désactivée, l'occlusion ambiante (ou n'importe quelle autre option) sera gérée dans le jeu par le jeu. Les vidéos du Comptoiroscope en sont la preuve.
par Jte Roule D3ssus, le Vendredi 03 Novembre 2017 à 08h29  
par bouba81 le Vendredi 03 Novembre 2017 à 00h40
Les acheteurs de Pascal, eux,...bah peaudezob pour leur égo! rien de mieux à espérer qu'un magnifique placébo.
Je dirais même mieux : pour les acheteurs de Pascal c'est peaudezob en moins et à vif vu les tarif élevée de Pascal (surtout 1 an et demi après sa sortie).

Le mieux je pense est encore d'attendre Volta (ou Navi de AMD) qui ne devrait plus trop tarder à arriver.
par ThePapyGeek, le Vendredi 03 Novembre 2017 à 07h52  
Bah dans la mesure ou les VEGA sont rentables que pour les actionnaires d'EDF ou le geek au bureau mal isolé en hiver y'a pas de quoi pavoiser. Y'a même pas de combat tant c'est risible.