COMPTOIR
register

×

nvidia turing / GPU

Les tests RTX devraient attendre encore un peu !
nvidia turing / GPU

La disponibilité effective des cartes RTX de la famille 2080 est prévue le 20 septembre comme l'a dit Nvidia. Pour les tests, on aurait pu penser qu'ils auraient été faits bien plus tôt, ce serait d'après nos confrères de Videocardz le 14 septembre que le NDA sur les tests sautera. Mais si cette date semble tout à fait plausible, on ne sait pas non plus quels tests devraient être autorisés : celui de la RTX 2080 ? De la RTX 2080 Ti ? Les deux ?

 

S'il semble acquis que la RTX 2070 aura son heure de gloire plus tard -le site officiel Nvidia ne permettant même pas une précommande sur ce modèle au contraire des deux autres- le 14 septembre devrait lever le voile sur les performances ingame des 2080. S'il est réducteur de ne penser qu'au RTX pour ces cartes, on verra au moins ce que les 754mm² de GPU du gros TU apportent, de même que le TU castré de la 2080. Les gains seront-ils de 50% comme le dit le caméléon ?

 

nvidia turing / GPU [cliquer pour agrandir]

Un poil avant ?

NVIDIA BFGD 65" : pas avant Q1 2019 et très (très) chers ?

Un peu plus tard ...

3DMark Time Spy RayTracing pour bientôt

Les 27 ragots
Les ragots sont actuellement
zone limitée - permis de ragotage requisouverts aux ragoteurs logués
par Scrabble, le Lundi 27 Août 2018 à 10h46  
par bouba81 le Lundi 27 Août 2018 à 06h53
De plus, dans sa prè-présentation du RTX, Nvidia triche dans un autre registre sur le rendu du contour des ombres en mode "RTX OFF" en nous prennant simplement pour des gros newbs du dredi car, avec les techniques avancées dispo en raster, tu peux avoir des ombres aux contours bien plus doux et plus réaliste que sur leurs démo avec RTX désactivé.
D'après ce que j'ai compris, le RTX permet d'avoir mieux que les "techniques avancées" dispo en raster, ceci avec une plus grande simplicité de programmation, c'est donc tout bénef pour le développeur.
par bouba81, le Lundi 27 Août 2018 à 06h53  
par Riseoflegends le Dimanche 26 Août 2018 à 21h42
Le passé montre surtout que tu te trompes 99% du temps
Pas tout à fait mais il l'a mal dit. Le passé a également l'air de t'échapper alors je me propose te te faire une piqure de rappel.

Oui, AMD triche depuis l'arrivée de la tessellation car ils appellent leur magouille "tessellation optimisée AMD". Ils ont également triché sur d'autres points plus discutables.
https://www.clubic.com/carte-graphique/carte-graphique-amd/actualite-606438-radeon-r9-290x-triche-ecart-carte-presse-commerce.html

Oui, Nvidia a triché et s'est fait épinglé à plusieurs reprises pour avoir "optimisé" ou plutôt allégé secrètement certains filtres de lissage tout en dispensant certains calculs géométriques à leurs GPU via des pilotes mafieux taillés pour les benchs ou encore pour avoir magouiller autour de PhysX.
https://www.tomshardware.fr/articles/PhysX-AMD-NVIDIA,1-4286.html
https://www.tomshardware.fr/articles/nvidia-triche,1-16801.html
http s://www.zdnet.fr/actualites/nv idia-accuse-de-tricher-lors-des-tests-de-sa-derniere-puce-graphique-2135331.htm

De plus, dans sa prè-présentation du RTX, Nvidia triche dans un autre registre sur le rendu du contour des ombres en mode "RTX OFF" en nous prennant simplement pour des gros newbs du dredi car, avec les techniques avancées dispo en raster, tu peux avoir des ombres aux contours bien plus doux et plus réaliste que sur leurs démo avec RTX désactivé.

par bouba81, le Lundi 27 Août 2018 à 06h25  
par Jemporte le Dimanche 26 Août 2018 à 19h42
Il faut réfléchir à ce qu'on dit. Il me semble que c'est exactement l'inverse. C'est d'ailleurs dans le propos. La géométrie, ce ne sont pas les textures et le traitement des textures, et les shaders...
Je ne vais pas t'insulter planqué derrière mon clavier en courageux de l'invisibilité mais plutôt tenter de relever le niveau pour t'éviter une gueguerre inutile qui, elle, va tous nous saouler.

Si tu veux discuter GPU en ayant une approche technique objective, il va falloir reprendre la base car tu montres que tu t'emmêles les pinceaux depuis pas mal de comm où tu confonds puissance de calcul et rendu géométrique.

Commence par cet article de Damien Triolet
https://www.hardware.fr/articles/937-5/performances-theoriques-geometrie.html

puis
https://www.commentcamarche.com/contents/731-carte-gr aphique
https://fr.wikibook s.org/wiki/Les_cartes_graphiques/Les_unités_de_gestion_de_la_géométrie

et n'hésite pas à lire "Calcul généraliste sur carte graphique- Du rendu au calcul massivement parallèle" de Dominique Houzet.


par Riseoflegends, le Dimanche 26 Août 2018 à 21h42  
par Jemporte le Dimanche 26 Août 2018 à 14h25
Le passé demontre ce que j'ai dit.
Le passé montre surtout que tu te trompes 99% du temps
par Jemporte, le Dimanche 26 Août 2018 à 19h44  
par BoBoToTo le Dimanche 26 Août 2018 à 15h45
Cette histoire de Ray Tracing me laisse assez perplexe aussi, mais compte tenu du peu d'info que nous avons pour l'instant sur les RTX 20x0, ce monologue est assez vide de sens, Jemporte, non ?
On verra. En tout cas, sur le papier, les specs hardware ne collent pas à ce qui est annoncé,
et les essais de visu de certains sites, genre Anandtech, semblent l'attester.
par Jemporte, le Dimanche 26 Août 2018 à 19h42  
par Thibaut G. le Dimanche 26 Août 2018 à 17h32
@Jemporte
tu t'en lasses pas de tes conneries, j'ai lu tellement de laideurs sur les async compute venant de toi comme d'une force pour amd comme si c'était un truc en plus alors que c'est un forçage mécanique de l'exploitation des unités de calcul pour les exploiter plus que ce qu'elles le sont normalement, ce qui leur permet de revenir à hauteur des GeForce qui ont des unités bien mieux exploitées, des conneries sur l'avantage des radeon en géométrie alors que c'est leur point faible avec GCN, bref tu te ridiculises avec des chiffres sortis de mon cul, sans la moindre démonstration et tu arrives finalement à ce qu'on redoutait : tu saoules tout le monde avec ton blabla, alors qu'il n'y a aucun test ni preuve bien au conrtaire. Basher nvidia est une chose, sucer AMD en parallèle pour tes "démonstrations" qui sont fausses, tout ça concourt au fait que tu nous saoules, et qu'en plus je pense que tu portes énormément préjudice à AMD avec ton fanboyisme. On a été très patient, mais là on te demande d'arrêter. Merci
Il faut réfléchir à ce qu'on dit. Il me semble que c'est exactement l'inverse. C'est d'ailleurs dans le propos. La géométrie, ce ne sont pas les textures et le traitement des textures, et les shaders...

L'async, j'ai du en parler dans 2 posts à tout casser... c'est d'ailleurs marginal.
par BloodBrother, le Dimanche 26 Août 2018 à 18h17  
par Thibaut G. le Dimanche 26 Août 2018 à 10h40
tu te tortures trop, attends les tests.
par Thibaut G., le Dimanche 26 Août 2018 à 17h32  
@Jemporte
tu t'en lasses pas de tes conneries, j'ai lu tellement de laideurs sur les async compute venant de toi comme d'une force pour amd comme si c'était un truc en plus alors que c'est un forçage mécanique de l'exploitation des unités de calcul pour les exploiter plus que ce qu'elles le sont normalement, ce qui leur permet de revenir à hauteur des GeForce qui ont des unités bien mieux exploitées, des conneries sur l'avantage des radeon en géométrie alors que c'est leur point faible avec GCN, bref tu te ridiculises avec des chiffres sortis de mon cul, sans la moindre démonstration et tu arrives finalement à ce qu'on redoutait : tu saoules tout le monde avec ton blabla, alors qu'il n'y a aucun test ni preuve bien au conrtaire. Basher nvidia est une chose, sucer AMD en parallèle pour tes "démonstrations" qui sont fausses, tout ça concourt au fait que tu nous saoules, et qu'en plus je pense que tu portes énormément préjudice à AMD avec ton fanboyisme. On a été très patient, mais là on te demande d'arrêter. Merci
par BoBoToTo, le Dimanche 26 Août 2018 à 15h45  
Cette histoire de Ray Tracing me laisse assez perplexe aussi, mais compte tenu du peu d'info que nous avons pour l'instant sur les RTX 20x0, ce monologue est assez vide de sens, Jemporte, non ?
par HaVoC, le Dimanche 26 Août 2018 à 14h37  
par Jemporte le Dimanche 26 Août 2018 à 13h19
Les GDDR6 14gb/s ne permettent pas une bande passante réelle et de profiter de 40% de perfs supplémentaires par rapport à des GDDR5x 10gb/s.
C'est normal, mais ça touche n'importe quel contrôleur mémoire, on a jamais 100% d'efficacité, bref le débit réel est toujours inférieur au débit théorique, de même pour la GDDR5(X), on a pas non plus 10 ou 8 gb/s réel mais moins en pratique.

Mais on a aura bien environ 40% de gains que ce soit théorique ou pratique.

par Jemporte, le Dimanche 26 Août 2018 à 14h25  
par TwoFace le Dimanche 26 Août 2018 à 14h05
C'est vrai qu'un pro du bashing qui n'arrête pas de raconter des conneries arrive à faire de l'audimat sur le comptoir
Tout le monde à compris tes délires de fanboy faudrait peut-être changer de disque maintenant non ?
Le passé demontre ce que j'ai dit.
Par contre, les CUDA cores servent à l'affichage, donc pas compliqué d'en compter le nombre. Nvidia peut les avoir amélioré, les faire tourner beaucoup plus plus vite (10% apparemment) mais l'ont-ils fait en sachant qu'ils ne se sont pas donné la peine d'intégrer la gestion des RTX et des tensors, qu'ils ont fait par 2 packs d'unités différentes. La bande passante est équivalente en débit et en qualité inférieur.
Donc simple question de logique.

Pour moi, une RTX 2080 sans affichage du ray-tracing n'a mathématiquement aucune raison de dépasser et même d'atteindre les perfs d'une GTX 1080 Ti. Et si ça devait être le cas (car c'est ce qu'annonce Nvidia) c'est par le software gameworks et le pilote qu'elle y arriverait, artificiellement.
D'ailleurs, hasard, il n'est pas annoncé d'effondrement des prix de la GTX 1080 Ti par rapport à la RTX 2080, censément meilleure et dotée de toute la partie tensors et raytracing en plus, alors que personne ne devrait alors plus en acheter. Pour moi c'est l'annonce qui est bidon et Nvidia n'osera pas trop bidouiller les pilotes à cette fin. Certains disent que Nvidia compare ses cartes RTX aux GTX avec les CUDA cores remplaçant les RTX et tensors en calcul raytracing. pour faire valoir ses 70%. Là, ça tomberait par contre sous les sens, mais on restera en Full HD à ce moment.
Pour rappel, on s'en sort très bien, en Full HD, sur la plupart des jeux avec un GT 1030 2Go, sans RTX.
par Jemporte, le Dimanche 26 Août 2018 à 14h07  
par Borny le Dimanche 26 Août 2018 à 00h16
Je suis d'accord avec toi, sauf pour les développeurs qui ne se casseront pas la tête : suffit que Nvidia impose son support dans les jeux avec lesquels ils auront un partenariat « The Way it's Meant to be Played ».
Idem, on peut imaginer que les prochaines versions de moteurs l'intégreront.
Tout à fait ça. C'est intégré à Gameworks, ça en tiendra compte par défaut. Pas de prise en compte des RTX, possible mauvais affichage des jeux récents ou des mises à jour des jeux anciens... Nvidia contrôle le développement et l'affichage au travers de son API et son évolution.
Bonne raison de pas utiliser Gameworks. Par contre les jeux purement DX12 et DXR n'auront pas ce défaut puisque les développeurs devront travailler le DXR en plus du DX12 standard, ils n'auront aucune raison de ne pas soigner le non-DXR.