COMPTOIR
  
register

Test • Crossfire de RX 480 vs GTX 1070

• La déception !

defunes gif"Grrrrrr euh !" Nous voici au terme de cet article que vous nous aviez suggéré au travers des ragots. Pour montrer tout l'intérêt des RX 480 en WQHD, beaucoup arguaient qu'il suffisait d'en mettre deux en Crossfire et que le tour était joué pour faire mieux qu'une 1070. Malheureusement, nous ne partageons pas le même enthousiasme à la suite de cet article qui fera pleurer voire rager certains, assurément.

 

Belote : support aléatoire et stuttering moins aléatoire

Si on fait un petit bilan basé sur notre expérience passée ou présente, on sait que deux cartes consomment et chauffent davantage plus qu'une seule (plus La Palice tu meurs). On sait aussi que les pilotes sont souvent en retard pour aider à la prise en charge des jeux fraîchement sortis. Notre article montre que même sur des titres majeurs, le Crossfire n'est pas forcément actif, soit 4/18 (soit 22% du panel tout de même) dans notre cas.

 

D'autres titres scalent très peu ou mal, au final on a des moyennes de 40 et 52% en Full HD et WQHD. Si c'est toujours ça de pris, ça ne justifie certainement pas un investissement doublé.

 

Ensuite, il y a ce satané stuttering et là, c'est quand même pénible si on veut se régaler tellement il est présent. Certes il est presque absent sur 9 jeux, mais sur 9 autres il va de modéré à pénible. À vrai dire il faut se souvenir que les moteurs de rendu 3D actuels sont variés, mais utilisent souvent des techniques de rendus différés rendant l'usage du Multi-GPU de plus en plus complexe et donc extrêmement chronophage. La gestion du stuttering par les deux grands AMD et NVIDIA est, qui plus est, compliquée, le caméléon l'avait pris en compte depuis fort longtemps avec son Frame Metering ce qui avait conduit les rouges à l'imiter avec une technique similaire nommée Frame Pacing.

Ca reste un travail de suivi régulier pour maintenir la qualité au fil du temps (NVIDIA s'est par exemple retrouvé limité en haute définition par le débit de ses connecteurs SLi avant l’avènement de Pascal). Car ne nous y trompons pas, ce n'est pas le procès du seul AMD, mais aussi celui de NVIDIA qui subit les mêmes difficultés au final. Les moteurs ont pris cette orientation et il sera difficile de remédier aux inconvénients inhérents au multiGPU, que l'on soit en DX11 ou DX12 d'ailleurs. Pourquoi DX12 nous direz-vous ? Parce que les développeurs devront écrire le code spécifiquement pour chaque architecture et faire à la main le boulot d'optimisation que faisaient les pilotes via les équipes en charge. Et on pense que ces développeurs de jeux préféreront allouer leurs forces dans l'écriture de code qui touche un maximum de cartes graphiques plutôt que de perdre du temps dans du multiGPU qui est très loin d'être une pratique généralisée (il suffit de regarder les déboires sous AOTS avant le patch 1.30).

 

Dans cette optique, nous comprenons l'orientation certes controversée, mais pas dénuée d'opportunisme et finalement logique du caméléon. Ce dernier en supprimant le SLi de la GTX 1060 officialise certainement des raisons économiques pour favoriser le GP104 au lieu du GP106, mais il est probablement conscient que le SLi est compliqué à gérer en 2016 avec les moteurs actuels. Et s'il a commencé par réduire le nombre de cartes le prenant encore en charge (plus de SLi supérieur à 2 cartes, sauf exception benchmark, ben ouais, faut pas pousser quand même), il y a fort à parier qu'à terme il soit de plus en plus élitiste et ne constituera plus un élément marketing moteur de vente comme peuvent l'être les environnements logiciels qui permettent d'améliorer le rendu de scène (Gameworks et toutes ses déclinaisons, GPUOpen, etc.) . Mais ce ne sont que des suppositions, en tout état de cause, nous avons des éléments immédiats pour répondre à la question posée.

 

Rebelote : ça vaut le coup, du coup ?

Clairement non, ça ne vaut pas le coup de prendre deux RX 480 fussent-elles modifiées pour éviter d'acheter une GTX 1070 elle aussi customisée ! Il y a d'abord l'aspect financier, deux cartes RX 480 aujourd'hui coûtent plus qu'une seule GTX 1070, on se base uniquement sur des cartes personnalisées, les plus pertinentes dans les 2 cas. Ensuite, les performances des cartes en monoGPU restent bien plus solides en toutes circonstances, le stuttering est inexistant aujourd'hui chez AMD comme NVIDIA. asus rx480 strix ocElle est belle ma Strix ! Dans ces conditions de test, nous avons largement préféré nous satisfaire d'une seule RX 480 dans les jeux en 1080p, que de deux même si les framerates moyens étaient en hausse, et ce à cause du stuttering bien trop présent. Au-delà de ce point majeur, deux fois plus de cartes = deux fois plus de soucis ! Plus de chaleur à dégager, alimentation plus solide à avoir pour encaisser, donc exit en gros les modèles de moins de 600 W...

 

Pour ceux qui ne veulent jouer qu'avec les Radeon, la Strix nous a donné grande satisfaction et c'est une excellente carte qui fait le boulot pour lequel elle a été conçue, et qui le fait très bien, mais à un prix conséquent. Il va falloir soit se payer une RX 480 custom ou une autre de génération passée du même calibre, soit attendre Vega toujours planifié pour début 2017 aux dernières nouvelles officielles. On peut aussi penser que les Crimson arriveront à régler ces problèmes de stuttering, mais la question est de savoir si ça sera vraiment le cas et surtout dans combien temps ? Jusqu'au "prochain nouveau jeu" ? Et à nouveau corrigé dans des délais raisonnables ? Et quid de la prise en charge de ces problèmes par les développeurs eux-mêmes ? Vu l'ancienneté des titres touchés, et en dépit du fait que ce sont des titres AAA, on peut légitimement en douter. Ceux qui voyaient le calcul d'ajouter une autre carte dans quelque temps, une fois passée la crise des prix, nous leur souhaitons tout le courage du monde devant cette aventure pleine de rebondissements qui les attend. Nous partions vraiment plein d'espoir, et nous fûmes douchés !

 

bogdanov multigpu

Finalement le multiGPU, ça ne fait pas toujours la paire !

 

Et 10 de der !

Pour conclure, il ne vous aura pas échappé que notre plateforme de test était basé sur du LGA1151, référence actuelle en mainstream, exactement le même créneau que la RX 480. Nous connaissons les limites du multiGPU sur ce genre de matériel, surtout depuis qu'AMD a abandonné le pont CF pour une gestion logicielle par les lignes PCIe. Mais il ne semble pas du tout pertinent de penser qu'il fallait tester sur du LGA2011V3 Enthusiast qui offre au minimum du 16x + 8x lignes à pleine vitesse. Tout d'abord deux cartes mainstream sur une plateforme Enthusiast, cela sonne faux, c'est incohérent. Sur ce genre de puces Haswell-E et Broadwell-E, on place généralement des cartes plus "assorties". Ensuite, bien que ça mouline mieux niveau stuttering sur LGA2011 V3, nous ne conseillons pas de passer sur cette plateforme pour deux RX 480, par contre passer à 16Go de RAM centrale sera plus pertinent. Si vous en avez 8, il faudra songer à en acheter, ce qui déséquilibrera encore plus la balance financière en faveur d'une carte calibrée monoGPU qui s'en satisfait de 8 pour le moment et sans sourciller. En deux mots comme en mille, nous ne conseillons pas 2 RX 480 à la place d'une GTX 1070, ou même de toute autre carte monoGPU calibrée pour la définition de votre moniteur chéri.

 


Nous remercions naturellement tous les partenaires qui nous ont prêté du matériel nécessaire à l'élaboration de cet article !

gigabyte 40 gskill 40 intel 40 kingston 40 asus 40



Un poil avant ?

Trois nouvelles boiboites chez Jonsbo, les MOD1, MOD1-Mini et VR1

Un peu plus tard ...

Mise à jour du logiciel TriXX de SAPPHIRE en version 6.0.0

Les 55 ragots
Les ragots sont actuellement
zone limitée - permis de ragotage requisouverts aux ragoteurs logués