COMPTOIR
register

NVIDIA dévoile Turing et les Quadro RTX, le Ray Tracing en vedette !

Et voilà ! NVIDIA a levé le voile sur l'architecture Turing (detectée pour la premiere fois en février dernier), et Jensen étant Jensen, a qualifié celle-ci de "plus grande avancée depuis l'invention des GPU CUDA en 2006", rien de moins ! Évidemment. En plus des CUDA cores, on connaissait depuis peu aussi les tensors cores, mais il faudra désormais également compter avec les R(ay) T(racing) cores - des unités de calculs dédiées au ray tracing - et des mesures de vitesses en GigaRays/s. En ce qui concerne la visualisation professionnelle (ProViz), Turing fera donc la part belle au rendu hybride et combinera notamment le ray tracing avec la rastérisation traditionnelle afin d'exploiter les avantages des deux technologies.

 

nvidia turing architecture detail

 

Ainsi, le couple RT et Tensor cores - de la Quadro RTX la plus rapide - est présenté par NVIDIA comme étant 25 fois plus capable pour l’accélération ray tracing en temps réel par rapport à Pascal, mais sans spécifier de modèle de GPU en particulier (toutefois certainement à base de GP102). Turing se situe donc dans la continuité de ce que NVIDIA a entamé depuis ce début d'année avec sa technologie RTX et confirme la direction prise par le constructeur sur ce terrain-là.

 

Turing, c'est aussi une nouvelle grosse puce de 18,6 milliards de transistors sur une surface de 754mm², mais dont le procédé de gravure n'a pas été dévoilé. À titre de comparaison, Pascal atteignait les 11,8 milliards sur 471mm², et le V100 de Volta en cumule 21 milliards sur 815mm². C'est donc tout de même une architecture assez imposante ! À noter que Turing intègre également une interface NVLink 100 GB/s et le support pour du HDR natif et 8K DisplayPort. À en croire les caractéristiques des premières Quadro RTX, Turing devrait offrir jusqu'à 4608 CUDA cores et des tensor cores capables d'atteindre les 125 TFLOPs en FP16, 250 TOPS en INT8 et 500 TOPS en INT4, et sans oublier jusqu'à 10 GigaRays/s avec ses RT cores. Concernant cette dernière métrique pas vraiment facile à analyser, ces 10 Gigots-raies/s représentent de quoi calculer un peu plus de 80 rayons par pixel si vous utilisez toute la surface d'un écran FullHD à 60 Hz. D'après Oui Ki Pé Dia ; un rendu reconaissable en path tracing nécessite une centaine de rayons, et on atteint l'apothéose avec plus de 5000 ; autant dire que le 100% ray tracing jouable n'est malheureusement pas pour cette génération. Bien évidemment, tous ces chiffres sont avancés par NVIDIA, à défaut de mieux en attendant de voir Turing en action IRL !

 

nvidia siggraph pascal vs turing

 

NVIDIA a aussi confirmé la compatibilité de Turing avec la GDDR6. Les premiers modèles de Quadro RTX fonctionneront avec de la GDDR6 14Gbps, la mémoire de ce type la plus rapide offerte en ce moment par les constructeurs SK Hynix, Samsung et Micron. NVIDIA a précisé qu'ils utiliseront éventuellement aussi les nouveaux modules de densité 16Gb de Samsung, laissant entrevoir la possibilité de cartes équipées de 8 modules standards pour une capacité totale de 16Go, voire 32Go en clamshell. Pour rappel, de nombreuses innovations de la GDDR6 sont en réalité déjà utilisées par la GDDR5X. Aujourd'hui, les changements majeurs apportés par la GDDR6 sont une baisse de la tension à 1,35V et une mémoire divisée en interne en deux canaux de 16-bit par puce (au lieu d'un seul de 32-bit).

 

Finalement, NVIDIA officialise la marque Quadro RTX (découverte il y a quelques jours en compagnie de Turing et GeFORCE  RTX) et 3 nouveaux modèles de GPU : Quadro RTX 8000, RTX 6000 et RTX 5000.

 

nvidia siggraph quadro rtx annonce

 

GPU MémoireRay TracingCUDA CoresTensor CoresDispo

MSRP

(estimation de NVIDIA)

Quadro RTX 8000 48Go 10 GigaRays/s 4608 576 Q4 2018 10 000$
Quadro RTX 6000 24Go 4608 576 6300$
Quadro RTX 5000 16Go 6 GigaRays/s 3072 384 2300$

 

 

Bref, on pouvait s'en douter, ça pique quand même pas mal. Mais en tant que 8ème génération d'architecture GPU, Turing représenterait tout de même l’équivalent d'un effort de "plus de 10 000 années d'ingénierie" si l'on en croit la sainte parole toujours très terre-à-terre de NVIDIA ! En tout cas, le constructeur semble bien vouloir tout miser en faveur de l'avenir du Ray Tracing avec sa nouvelle plateforme RTX. Pour les professionnels de l'image, les nouvelles cartes sont désormais sur la table, il nous reste maintenant à découvrir sous quelle forme se présenteront les nouvelles GeFORCE peut-être lors de la Gamescom en Allemagne, et si elles intégreront également un peu de Turing à la sauce RTX.

Par contre, en l'absence de contenu adapté pour le grand public et considérant le temps qu'il faudra certainement pour que le ray tracing se démocratise, d'hypothétiques GeFORCE RTX équipées de RT cores ne seraient ainsi probablement pas particulièrement pertinentes dans l’immédiat, mais c'est peut-être enfin une seconde chance pour cette technologie vantée depuis des lustres ? Côté professionel, la soupe se défend bien mieux, NVIDIA ayant des partenaires allant d'Autodesk à Epic Games en passant par Dassault et Pixar : ces alliances permettront ainsi un support de cette nouvelle architecture sur leurs logiciels d'ici mi-2019 au plus tard. (Source, Anandtech, Tom's, NVIDIA blog)

 

nvidia turing ray tracing saint graal

Oui, carrément... Le Ray Tracing : finalement, le nouveau terrain de bataille marketing des GPU

ces prochaines années ?

Un poil avant ?

Quakecon 2018 : entre Doom, Rage 2 et ID Tech 7

Un peu plus tard ...

Live Twitch • Dead Cells et son mode spécial Twitch

Les 16 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par DavVador, le Mercredi 15 Août 2018 à 16h50  
Apparemment la demo Star Wars utilisait 5 rayons par pixel grace à un algo pour enlever le bruit (algo qui pourrait permettre d'utiliser de 2 à 6 rayons par pixel).
Source
Du coup avec les 80 rayons par pixel, on devrait pouvoir faire quelquechose.

Nouvelles démos Porsche en Raytracing avec nvidia :
https://www.youtube.com/watch?v=VkXQLLyRCA4
https://www.youtube.com/watch?v=TYg0apVQH4E
par Deus, le Mercredi 15 Août 2018 à 16h06  
C'est quand meme incroyable, esperons que ca soit reelement utilise dans le jeu video et que ca se retrouve pas a prendre la poussiere comme PhysX ou d'autres technos du meme genre.
par Riseoflegends, le Mercredi 15 Août 2018 à 12h31  
par castor-tout-nu le Mardi 14 Août 2018 à 15h13
Donc pour du rendu 100% ray-tracing en 8k à 200fps en temps réel il faudra donc 1920*1080*16*200*5000/1000000000 = 33177.6 GigaRays/s, soit 3318 fois ce que propose cette carte
Non mais là tu parles d'un rendu cinéma, pas de temps réel. Jamais tu auras ça en temps réel.
par DavVador, le Mardi 14 Août 2018 à 23h20  
 
et sans oublier jusqu'à 10 GigaRays/s avec ses RT cores. Concernant cette dernière métrique pas vraiment facile à analyser, ces 10 Gigots-raies/s représentent de quoi calculer un peu plus de 80 rayons par pixel si vous utilisez toute la surface d'un écran FullHD à 60 Hz. D'après Oui Ki Pé Dia ; un rendu reconaissable en path tracing nécessite une centaine de rayons, et on atteint l'apothéose avec plus de 5000 ; autant dire que le 100% ray tracing jouable n'est malheureusement pas pour cette génération.

Je ne veux pas dire de bêtise, mais il me semble que vous mélangez path tracing et raytracing.
En raytracing, avec un seul rayon lancé par pixel on voit déjà un rendu, sans antialiasing et sans reflets, certes, mais on a déjà quelque chose d'exploitable.
Avec un rayon supplémentaire lancé, on obtient déjà un niveau de réflexion, etc.

Ca date un peu, mais en 2002, quand je bossais là dessus, avec 9 rayons lancés par pixels on avait déjà un bon antialiasing et avec 6 itérations par rayons un nombre suffisamment conséquent de réflexions multiples.
Avec 56 rayons (9x6) par pixels on obtenait déjà des résultats de ce type (scène avec des sphères).
Ou ici avec seulement 3 rayons (scène avec 15k polygones).

A l'époque ce qui bouffait un max de ressources, c'était surtout de calculer les intersections d'un rayon avec chacun des polygones d'une scène (pour les sphères c'était peanuts !).
Le fait que le nombre de lancés de rayon annoncé par seconde soit fixe, ça veut dire que c'est indépendant de la scène (nombre de polys, spheres, etc.), du coup ça me parait bizarre.
Y'a quelque chose qui m'échappe là.
par Aquina, le Mardi 14 Août 2018 à 18h10  
par castor-tout-nu le Mardi 14 Août 2018 à 15h13
Donc pour du rendu 100% ray-tracing en 8k à 200fps en temps réel il faudra donc 1920*1080*16*200*5000/1000000000 = 33177.6 GigaRays/s, soit 3318 fois ce que propose cette carte
3317.76 fois ...........faut être précis
par Reg24, le Mardi 14 Août 2018 à 17h17  
Plus qu'a attendre les premiers tests, et les prix!
par castor-tout-nu, le Mardi 14 Août 2018 à 15h13  
Donc pour du rendu 100% ray-tracing en 8k à 200fps en temps réel il faudra donc 1920*1080*16*200*5000/1000000000 = 33177.6 GigaRays/s, soit 3318 fois ce que propose cette carte
par Matthieu S., le Mardi 14 Août 2018 à 15h06  
par faboss le Mardi 14 Août 2018 à 13h29
Vivement les GeForce RTX 2080... le 20/08
Encore un coup des Illuminatis
par faboss, le Mardi 14 Août 2018 à 13h29  
Vivement les GeForce RTX 2080... le 20/08
par RagogodugrandEST, le Mardi 14 Août 2018 à 13h06  
Pas mal la RTX 2080 euh pardon RTX 5000
par PoRRas, le Mardi 14 Août 2018 à 12h56  
 
D'après Oui Ki Pé Dia ; un rendu reconaissable en path tracing nécessite une centaine de rayons,

Si le rendu est 100% en ray tracing. Heureusement on a a disposition aujourd'hui des rendus mixtes. C'est ce que fait Epic avec UE4 dans la démo Stormtrooper. La RT est limité au calcul des réflexions et des ombres (occlusion incluse) et la gestion des sources de lumière étendues. Du coup, les RT cores viendront épauler la partie classique du rendu pour ajouter ces effets. Et puis après on a l'extrapolation puisque de toute façon on est quand même loin d'avoir assez de rayons, c'est ce qu'ils font avec leur "denoising".
par Scrabble, le Mardi 14 Août 2018 à 12h50  
En tout cas c'est une bonne chose qu'ils introduisent du ray-tracing dans le calcul de l'image, l'ancienne technique de rastérisation commençait à montrer sérieusement ses limites au niveau du calcul de l'éclairage et des réflexions. On va voir de nouveaux graphismes dans les jeux