• Turing

Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et rapides, des SM "plus petits" mais plus nombreux et capables de traiter en parallèle les calculs sur entier ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse). Ces derniers intègrent à présent des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, pierre angulaire de l'accélération matérielle du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à la rastérisation.  

 

Turing en chiffres [cliquer pour agrandir]

Turing en chiffres dans la déclinaison dédiée à la RTX 2080 Ti

 

 

• TU106

NVIDIA a conçu à partir de cette architecture 3 GPU (pour le moment), nous ne nous intéresserons aujourd'hui qu'au plus petit, alias TU106, qui se retrouve au sein de la RTX 2070. Ce dernier mesure tout de même un peu moins de 450 mm², soit très proche du flagship (hors pro) de la génération précédente, alias GP102. Le procédé de fabrication 12 nm personnalisé retenu par NVIDIA, est une optimisation du 16 nm FinFET de TSMC et dont les gains sont à chercher principalement au niveau de la performance des transistors, afin de rester dans une enveloppe thermique "gérable" malgré l'explosion de leur nombre. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur le haut de gamme des GeFORCE série 10 et 20.

 

CartesGPUNombre de transistorsSuperficie Die
GeForce RTX 2080 Ti TU102 18,6 Milliards 754 mm²
GeForce RTX 2080 TU104 13,6 Milliards 545 mm²
GeForce RTX 2070 TU106 10,8 Milliards 445 mm²
GeForce GTX 1080 Ti GP102 12 Milliards 471 mm²
GeForce GTX 1080 GP104 7,2 Milliards 314 mm²
GeForce GTX 1070 (Ti) GP104 7.2 Milliards 314 mm²

 

TU106 s'appuie sur 3 GPC, réduisant d'autant les unités de rastérisation, mais reprenant la constitution de ceux utilisés par TU102, soit 6 TPC / 12 SM. On peut donc voir TU106 comme un demi TU102, à l'interface mémoire près. En effet, alors que le caméléon utilise un bus mémoire 192-bit sur ses puces série xx06 depuis plusieurs années, ce sont cette fois pas moins de 8 contrôleurs mémoire qui prennent place au sein du die, pour une largeur cumulée de 256-bit, la même que TU104. Il en va de même pour les éléments liés, c'est-à-dire les 64 ROP et 4 Mo de cache L2.

 

Diagramme TU106 [cliquer pour agrandir]

 

Le GPU utilisé sur la GeForce RTX 2070 est "complet", c'est à dire qu'aucun bloc/unité n'a été désactivé pour faciliter la production comme c'était le cas des TU102/104 embarqués sur les RTX 2080 / 2080 Ti. Les caractéristiques principales de TU106 sont résumées dans le tableau ci-dessous.

 

GeForce RTX 2070Quantité activée
GPC 3
TPC / SM 18 / 36
CUDA Cores 2304
TMU 144
Tensor Cores 288
RT Cores 36
ROP 64
L2 (Mo) 4
Bus mémoire (bits) 256

 

En parlant chiffres, la RTX 2070 est-elle vraiment pénalisée par rapport à sa devancière de cette "rétrogradation" sur un GPU différent ? En fait, 37 % (calcul) et 25 % (bande passante mémoire) séparaient 1080 et 1070. Si l'on s'attache cette fois aux écarts séparant 2080 et 2070, ils sont de respectivement 35% et ......... 0%. Difficile donc de crier au scandale, sauf pour les amateurs de multi-GPU, puisque les interfaces Ad Hoc sont aux abonnés absents sur TU106.

 

 

• GPU Boost 4.0

Avant d'attaquer la description de la carte testée en page suivante, un petit rappel sur un changement notable au niveau de la gestion des fréquences appliquées au processeur graphique via GPU Boost. Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est est chargé par la suite, de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.

 

La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas les paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.

 

GPU Boost 3.0 [cliquer pour agrandir]

 

Avec Turing, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées et il possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences, n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation, ce ne sera plus le cas avec les versions Turing, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.

 

GPU Boost 4.0 [cliquer pour agrandir]

 

Voilà pour le sujet, passons page suivante à la description de la MSI RTX 2070 ARMOR.




Les 27 Ragots
   
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués