COMPTOIR
register

Sli de RTX 2080 et 2080 Ti : pas n'importe comment !

Les RTX sont là, inutile de revenir donc sur leurs forces et leurs faiblesses. Un oeil avisé vous sera plus utile, et en plus lire le dossier CDH fera marcher vos neurones, car oui, le fast-food Youtube ne vous rendra plus érudit, bien au contraire ! Pour autant les tests en SLi ne sont pas légion, aussi celui de TPU tombe à pic, tel l'homme ! Nos confrères ont utilisé le fameux pont méga vitesse de la morkitu, et NVLink pour permettre aux deux cartes de copuler.

 

lee majorLe protocole est assez simple : RTX 2080 et 2080 Ti seules et en SLi, mais aussi GTX 1080 Ti seules et en SLi, derrière on retrouve deux célibataires GTX 1080 et RX Vega 64. Les définitions 1920x1080, 2560x1440 et 3840x2160 sont retenues, tout ça passé au révélateur de nombreux jeux. Et là c'est pas le drame mais presque.

 

En gros sur le Full HD ou le WQHD, on a très peu de gains, parfois même un scaling négatif. En revanche, en UHD, ça explose vraiment et les gains sont très bons sans être parfaits, idéalement 100%. Tout cela pour dire qu'un tel SLi, si c'est pas en UHD, il vaut mieux se satisfaire d'un monoGPU. Mais cela n’est guère étonnant.

 

Nous avons toujours préféré un monoGPU à du bi-GPU ou SLi/Crossfire pour plusieurs raisons. Les performances sont assez variables, et la prise en compte de ces technologies n'est pas systématique, en plus d'être en retard sur la sortie d'un jeu. A cela s'ajoutent les inconvénients de la consommation et de la gestion de la chaleur. On a vu que sur des RX 480 c'était pas jojo, chez Nvidia chaque génération voit la liste s'amenuiser, on pense à la GTX 1060 qui n'en n'est pas capable arbitrairement. Il faut dire que les moteurs actuels sont le plus souvent des moteurs à rendus différés, aussi l'ajout d'une seconde carte ne fait pas spécialement avancer le schmilblick.

 

Avec les RTX, on a des cartes qui atteignent des performances en Full HD et WQHD qui sont largement suffisantes pour s'éclater, y compris sur des moniteurs à forts taux de rafraîchissement, l'ajout de la seconde carte se heurte souvent au CPU qui limite tout ça, sans oublier le fait que les données à traiter le sont assez vite sur un seul GPU. Il n'y a qu'en UHD que le volume de données à calculer et le transfert d'informations entre GPU nécessitent le pont kitu, le port PCIe devenant un goulot d'étranglement pour de l'UHD. Au final ces résultats sont assez logiques, et traduisent surtout le fait que les jours du SLi sont comptés encore plus qu'avant, mais on s'en doutait depuis pas mal d'années déjà !

 

nvidia rtx 2080 fe

 

Un poil avant ?

Fan de ROG Et de Black Ops 4 ? ASUS a ce qu'il vous faut !

Un peu plus tard ...

Les prix de la RAM pourraient baisser plus vite que prévu

Les 29 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par Eric B., le Mardi 02 Octobre 2018 à 12h19  
par Jemporte le Mardi 02 Octobre 2018 à 02h53
Le problème c'est que tu confonds tout..[N'importe quoi]...blabla...[/N'importe quoi]
Tu oses écrire ça ? Tu racontes des inepties depuis des mois et tu continues encore dans tes 2 derniers messages, dans lesquels tu parles de choses que tu ne connais/maîtrises visiblement pas, tes pseudos explications le prouvent à tes dépends. J'ai passé suffisamment de temps à essayer de t'expliquer (en pure perte). Tu apportes malheureusement la preuve que tu n'es pas là pour apprendre ou échanger, juste faire du prosélytisme pour ta/tes "marques de coeur" et essayer de "briller en société", en tentant d'enfumer tout le monde avec de pseudos connaissances qui te dépassent (tu te fais d'ailleurs régulièrement reprendre par des lecteurs plus compétents que toi, tu devrais parfois les écouter). Ça peut fonctionner avec certains et peut-être ailleurs, mais pas ici. Rien d'honteux à ne pas savoir, mais malheureusement, pour progresser il faut chercher à comprendre, pas à avoir raison à tout prix. Si ça peut être amusant un moment, tu joues avec notre patience depuis trop longtemps (en plus d'irriter d'autres lecteurs qui s'en plaignent), ce n'est pas faute de te l'avoir dit, il est donc temps pour toi d'arrêter ce petit jeu, il n'y aura plus d'avertissement supplémentaire.
par Jemporte, le Mardi 02 Octobre 2018 à 03h08  
Même à la limite, étant donné la puissance calcul du CPU, on pourrait écrire un pilote DX12 à forte proportion CPU, et le GPU juste pour les shaders 2D et l'affichage et donc combiner un WX2990 et une carte graphique genre GT 1030, et afficher en 1440x2560 et jouer à un jeu à capacité équivalente à une GTX 1080 + un i7 4 cores/8 threads. La config Threadripper coûtera un peu plus, mais amènera une puissance de calcul incomparable et une stabilité hors pair, une souplesse pour le développement bien meilleure.
Dans le monde pro, il en est bien sûr tout autrement, et le Threadripper met une patée aux carte graphiques jeu et pro, en terme de fiabilité et prix, tant qu'on n'a pas affaire à une carte ultime, genre V100 et future Vega 20.
par Jemporte, le Mardi 02 Octobre 2018 à 02h53  
par Eric B. le Dimanche 30 Septembre 2018 à 19h03
Oui il peuvent, mais bien moins vite pour ces tâches spécifiques. Ce n'est pas pour rien que NVIDIA propose...
Le problème c'est que tu confonds tout. Je n'ai jamais dit qu'un WX2990 va afficher mais qu'il va calculer. Mettre un APU sur un Threadripper c'est n'importez quoi. Quand je parle du FP64, c'est une exemple, mais en FP32 il dépote et dépasse pas mal de cartes graphiques moyen gamme.
Comme ça, pour info, la taille d'un CPU Ryzen 8 coeurs est plus petite qu'un Polaris RX 580.
Un Threadripper 32 cores/64 threads, ne fait en taille silicium que la taille d'un RTX 2080 Ti, alors que le Threadripper est gravé avec la techno 12nm mais avec un dessin 14nm.
Or contrairement à ce que tu dis, les jeux tournent aujourd'hui souvent à 90% sur le GPU, en calculant tout dessus. Le CPU n'est plus là que pour assurer le débit de transfert de données et complémenter la carte graphique au niveau du pilote. Ce pourquoi, on est rarement "CPU limited".
Un jeu bien développé, sans les API sponsorisées par Nvidia, pourrait renverser la vapeur, avec le retour des CPU costauds. Plus besoin de gros GPU, tant qu'il sait afficher les pixels et la définition, et tout dans le CPU massivement multi-core. Plus besoin de dépendre du bon vouloir des pilotes graphiques et faire des upgrades à la con parce qu'une fonctionnalité inutile "obligatoire" vient pointer le bout du nez sur la nouvelle gamme, rendue incompatible avec l'ancienne.
par Eric B., le Dimanche 30 Septembre 2018 à 19h03  
Oui il peuvent, mais bien moins vite pour ces tâches spécifiques. Ce n'est pas pour rien que NVIDIA propose par exemple les Mesh Shader afin "d'exclure" au maximum le CPU du pipeline 3D. Ton exemple de FSX est typique d'un jeu CPU limited, donc forcément l'augmentation de puissance de ce dernier sera salutaire, pour peu qu'il soit capable de gérer XX threads en parallèle.

Mais si le rendu 3D de ton jeu nécessite plus de fillrate, de texturing, etc., ton CPU n'y changera rien du tout, on en revient donc à ce que j'écrivais précédemment. Pour avoir connu la période pré-GPU (eh oui je ne suis pas si jeune), ce n'est qu'avec l'émergence de ces derniers que le réalisme du rendu a explosé et ça m'étonnerait fortement que l'on fasse un retour en arrière à ce niveau.

Ce qui est sûr, c'est que même avec 64 thread, un 2990WX dépourvu de GPU dédié (en admettant qu'il soit doté du nécessaire pour afficher l'image) ne ferait pas le poids du tout face à un processeur moins véloce mais appuyé d'un GPU performant pour de la 3D temps réelle telle qu'utilisée dans les jeux, avec des définitions gigantesques par rapport à celles utilisées à l'époque pré-GPU.
par rolo, le Dimanche 30 Septembre 2018 à 18h39  
par Eric B. le Dimanche 30 Septembre 2018 à 16h37
Tu continues dans tes délires, un CPU plus puissant ne remplacera jamais un GPU pour les tâches spécifiques qui lui sont allouées et pour lesquelles il est infiniment plus rapide, ne t'en déplaise.

Concernant le FP64, c'est un usage très spécifique des GPU (le rendu 3D n'en a aucun besoin) et une carte pro ne signifie par forcément douée en FP64 : certaines le sont, d'autres non puisque bcp de pros n'en ont pas forcément l'usage. Il serait donc totalement inutile de gaspiller des ressources sur le die de certains GPU pour ce type d'usage, qui ne concernent q'un fragment du marché. Pour celui-ci il y a des GPU dédiés.

Faut juste arrêter l'écran de fumée en partant dans tous les sens, je te l'ai déjà dit...
et pourtant un cpu peut tres bien faire des taches de gpu
avant 2010 pas mal de jeux utilisait le cpu pour les calcules du moteur physique par exemple. L'exemple le plus parlant est flight simulator X qui avait besoin d'un xeon 10 coeurs pour bien tourner.

des moteurs de jeux comme flight simulator X on pourrais en revoir à l'avenir avec la démocratisation des cpu > 8 coeurs.
etles gens oublie souvent que y'a pas si "longtemps" les gpu n'existait pas, avent les années 2000 beaucoup de pc n'avait que le cpu pour jouer, tous les jeux ms-dos - windows 95 exploitait exclusivement des cpu monoceurs.
par exemple le jeu rise en triads, un fps en 3D
ou gt racing 97, rayman 1...

pour gt racing 97 il est loin d'etre moche ce jeu n'empeche et rayman 1 est un jeu qui pourrais encore se vendre en 2018, on voit pas trop de pixel.

je serais curieux de voir ce qu'il serait possible de faire aujourd'hui avec un threadripper 32 coeurs.
par Eric B., le Dimanche 30 Septembre 2018 à 16h37  
par Jemporte le Dimanche 30 Septembre 2018 à 15h14
La puissance graphique c'est pas tout et l'usage de la puissance CPU va monter exponentiellement. C'est pas parce que Intel a décidé de mettre un frein à 4 cores, 8 threads, que les jeux ne vont jamais nécessiter plus. Je pense au contraire qu'actuellement ils ont été orientés GPU à cause de l'auto-limitation chez Intel mais que rien ne les empêche à optimiser leurs jeux pour le multi-thread massif plutôt que d'aller tout chercher sur le GPU. Parce que les jeux modernes ne se servent pas du GPU que pour le graphisme et qu'avec beaucoup de cores, un CPU concurrence avantageusement un GPU.
Sous FP64 en calcul parallèle, un Threadripper WX2990 (32 cores) bat ou égalise une carte Pro plus chère que lui. C'est une situation inédite. or les calculs parallèles sous GPU sont plus compliqués à mettre en oeuvre et plus contraignants et les GPU utilisés à fond sont moins stables.
De façon étrange les GPU étaient devenues des puces nettement plus grosses que les CPU
Tu continues dans tes délires, un CPU plus puissant ne remplacera jamais un GPU pour les tâches spécifiques qui lui sont allouées et pour lesquelles il est infiniment plus rapide, ne t'en déplaise.

Concernant le FP64, c'est un usage très spécifique des GPU (le rendu 3D n'en a aucun besoin) et une carte pro ne signifie par forcément douée en FP64 : certaines le sont, d'autres non puisque bcp de pros n'en ont pas forcément l'usage. Il serait donc totalement inutile de gaspiller des ressources sur le die de certains GPU pour ce type d'usage, qui ne concernent q'un fragment du marché. Pour celui-ci il y a des GPU dédiés.

Faut juste arrêter l'écran de fumée en partant dans tous les sens, je te l'ai déjà dit...
par Jemporte, le Dimanche 30 Septembre 2018 à 15h28  
par Sebastien T. le Dimanche 30 Septembre 2018 à 08h39
Ne serait-ce pas ce genre de remarque que l'on devrait qualifier de "hautement sentimentale"?
Ton idée quant à la periode d'efficacité d'un SLI repose sur une image un chouilla pessimiste et totalement anachroniques, tu ne trouves pas? tu prends le pire des scénarios SLI de 2013 et en fais la vérité de 2018...
Non, au contraire. Le SLI est un peu dépassé aujourd'hui. Actuellement en défile plusieurs GPU sur un PC, par le PCIe 3.0 x16 plutôt pour faire du calcul massivement parallèle, du calcul Pro. Windows 10 tire profit des installations hétérogènes, même au niveau graphique.
L'idée c'est que l'affichage et le calcul destiné à l'affichage sont deux choses distinctes, ce qui, en réalité, est bien le cas. D'où l'affaire du Freesync affiché par une carte AMD et "calculé" par une carte Nvidia, pour profiter de la carte Nvidia et de l'affichage compatible Freesync d'AMD.
Par conséquent une optimisation de GPU visant à améliorer les performances par un mode sli maison ne va pas dans le sens du progrès. AMD semble vouloir aller dans le même sens, à moins qu'ils collent directement 2 GPU sur une même carte pour simuler une seule carte, ce qui est mieux.
En tout cas la norme PCIe 4.0 sera largement suffisante pour s'en passer.
L'usage du SLI par Nvidia semble par ailleurs avoir un objectif bizarre qui est d'afficher plus de pixels par image et par unité de temps. On peut se poser des questions sur l'usage réel de ces GPU, puisque à basse définition ça ne présente pas d'intérêt. Ca se passe comme si seuls les shaders supplémentaires sont utilisés.
par Jemporte, le Dimanche 30 Septembre 2018 à 15h14  
par Eric B. le Dimanche 30 Septembre 2018 à 08h54
Je t'invite à relire plus attentivement son message et ma réponse : ton processeur 16 coeurs t'apportera plus de puissance pour certains usages, mais ne compensera en rien la perte de puissance graphique. Mettre les 2 sur un "plan de compensation" comme il l'a fait n'a strictement aucun sens. Je ne cautionne pas le SLi (suffit de relire mon message) et ne dis à aucun moment qu'il serait préférable d'investir dans un second GPU plutôt qu'un CPU plus large, juste que l'apport de chaque choix n'est pas comparable : si tu as besoin de plus de performance graphique, un CPU plus véloce ne t'y aidera pas, pas plus qu'une seconde carte graphique ne t'aidera si tu as besoin de plus de puissance CPU (sauf cas particuliers)...
La puissance graphique c'est pas tout et l'usage de la puissance CPU va monter exponentiellement. C'est pas parce que Intel a décidé de mettre un frein à 4 cores, 8 threads, que les jeux ne vont jamais nécessiter plus. Je pense au contraire qu'actuellement ils ont été orientés GPU à cause de l'auto-limitation chez Intel mais que rien ne les empêche à optimiser leurs jeux pour le multi-thread massif plutôt que d'aller tout chercher sur le GPU. Parce que les jeux modernes ne se servent pas du GPU que pour le graphisme et qu'avec beaucoup de cores, un CPU concurrence avantageusement un GPU.
Sous FP64 en calcul parallèle, un Threadripper WX2990 (32 cores) bat ou égalise une carte Pro plus chère que lui. C'est une situation inédite. or les calculs parallèles sous GPU sont plus compliqués à mettre en oeuvre et plus contraignants et les GPU utilisés à fond sont moins stables.
De façon étrange les GPU étaient devenues des puces nettement plus grosses que les CPU
par Eric B., le Dimanche 30 Septembre 2018 à 08h54  
par rolo le Dimanche 30 Septembre 2018 à 08h38
pourtant je trouve qu'il n'a pas tord.
il est préférable d'acheter 1 gpu 2080Ti et un processeur 16 coeurs que 2 gpu 2080ti

Je ne pense pas que l'achat du sli sera rentabilisé dans l'avenir, a l'inverse par contre d'un cpu 16coeurs qui sera dans l'avenir plus exploité.

mais dans les 2 cas c'est débile, le mieu en 2018 c'est de rien n'acheter tellement c'est cher (gpu et ram),
il faut attendre que les prix baisse et s'acheter un cpu Zen2 8-12coeurs, 24Go de ram et attendre les prochains gpu navi si les prix sont correcte

mais de toute faocn la 4K et la 8K sa sert a rien sur des écrans de pc (écran trop petit)
il vaut mieux s'orienter vers un écran 2K 144hz, meme si pour atteindre les 120fps il faudra une 2080ti
Je t'invite à relire plus attentivement son message et ma réponse : ton processeur 16 coeurs t'apportera plus de puissance pour certains usages, mais ne compensera en rien la perte de puissance graphique. Mettre les 2 sur un "plan de compensation" comme il l'a fait n'a strictement aucun sens. Je ne cautionne pas le SLi (suffit de relire mon message) et ne dis à aucun moment qu'il serait préférable d'investir dans un second GPU plutôt qu'un CPU plus large, juste que l'apport de chaque choix n'est pas comparable : si tu as besoin de plus de performance graphique, un CPU plus véloce ne t'y aidera pas, pas plus qu'une seconde carte graphique ne t'aidera si tu as besoin de plus de puissance CPU (sauf cas particuliers)...
par Sebastien T., le Dimanche 30 Septembre 2018 à 08h50  
par rolo le Dimanche 30 Septembre 2018 à 08h38


Je ne pense pas que l'achat du sli sera rentabilisé dans l'avenir, a l'inverse par contre d'un cpu 16coeurs qui sera dans l'avenir plus exploité.
Tu sais, le genre de "gamer" qui peut se permettre de passer à la caisse avec 2 cartons de 2080Ti dans son caddie ne doit pas trop se poser la question de la rentabilité (ou plutôt de l'amortissement parce qu'il n'y a que le minage qui soit "rentable" en hardware).
par Sebastien T., le Dimanche 30 Septembre 2018 à 08h39  
par Jemporte le Samedi 29 Septembre 2018 à 22h57
Investissement hautement sentimental... qui va poutrer 1 an à tout casser, c'est à dire le temps que les jeux compatibles RTX sortent
Ne serait-ce pas ce genre de remarque que l'on devrait qualifier de "hautement sentimentale"?
Ton idée quant à la periode d'efficacité d'un SLI repose sur une image un chouilla pessimiste et totalement anachroniques, tu ne trouves pas? tu prends le pire des scénarios SLI de 2013 et en fais la vérité de 2018...

par rolo, le Dimanche 30 Septembre 2018 à 08h38  
par Eric B. le Dimanche 30 Septembre 2018 à 07h46
Tu n'as pas l'impression de mélanger des choux et des carottes là (encore une fois devrais-je dire) ? Un SLi et un CPU largement multicoeur ne visent clairement pas les même usages (sauf cas extrêmement spécifique), alors écrire comme tu le fais que ce serait plus pertinent de remplacer l'un par l'autre (ou que tu paries plus sur le multithread que RTX) n'a tout simplement aucun sens...

Vouloir à tout prix taper sur NVIDIA pour encenser AMD derrière, te fait perdre tout sens des réalités, ce serait bien que tu t'en rende compte à minima. Clairement les RTX sont trop chères pour la plupart et le SLi très peu pertinent (ça ne date pas d'aujourd'hui, nous n'avons jamais été fan du multi-GPU), mais ça n'autorise pas à sortir des âneries à répétition derrière.

Un jour prochain, on va finir par sortir une liste de ces dernières lues dans les ragots, si tu continues ainsi tu vas être fortement représenté.
pourtant je trouve qu'il n'a pas tord.
il est préférable d'acheter 1 gpu 2080Ti et un processeur 16 coeurs que 2 gpu 2080ti

Je ne pense pas que l'achat du sli sera rentabilisé dans l'avenir, a l'inverse par contre d'un cpu 16coeurs qui sera dans l'avenir plus exploité.

mais dans les 2 cas c'est débile, le mieu en 2018 c'est de rien n'acheter tellement c'est cher (gpu et ram),
il faut attendre que les prix baisse et s'acheter un cpu Zen2 8-12coeurs, 24Go de ram et attendre les prochains gpu navi si les prix sont correcte

mais de toute faocn la 4K et la 8K sa sert a rien sur des écrans de pc (écran trop petit)
il vaut mieux s'orienter vers un écran 2K 144hz, meme si pour atteindre les 120fps il faudra une 2080ti