COMPTOIR
register

×

gigabyte gv-3d1

Hardware Rétro : il était une fois la GV-3D1 multiGPU de GIGABYTE...
gigabyte gv-3d1
gigabyte gv-3d1

Les confrères germains de Computerbase se prêtent régulièrement au jeu de la nostalgie en ressortant certains de leurs (nombreux) très vieux dossiers hardware, de quoi se replonger dans un passé finalement pas encore si lointain et de se souvenir des prouesses (ou pas) d'une autre époque. Aujourd'hui, c'est la  fameuse carte GV-3D1 de GIGABYTE qui a brièvement été déterrée de sa tombe le temps d'une petite commémoration. Par contre, si la GV-3D1 ne vous évoque aucun souvenir,  c'est assez normal. En fait, il s'agissait d'une carte multiGPU un peu obscure lancée en 2005 et qui unissait deux 6600 GT sur un seul PCB. Son truc, c'est qu'elle n'a jamais été commercialisée individuellement, mais uniquement en bundle avec la carte mère GA-K8NXP-SLI (socket 939) et cette dernière était même indispensable pour profiter de la carte graphique en mode SLI, qui ne pouvait en fait fonctionner correctement avec aucune autre mobale de l'époque, fut-elle certifiée SLI !

 

gigabyte gv-3d1 [cliquer pour agrandir]

Ah, la mode d'une autre époque...

 

Sur le plan technique, c'était donc deux puces NV43 de NVIDIA - qu'on vous invite à resituer sur la superbe compilation 1998-2018 partagée sur cette brève -  sur un même PCB, chacune accompagnée de 128 Mo de GDDR3 branchés sur un bus 128-bit. Chaque GPU moulinait selon les spécifications de NVIDIA à 500 MHz, tandis que la mémoire planait à 560 MHz au lieu de 500. Enfin, l'alimentation de la carte se faisait via une prise PCIe 6 pins, en complément du jus fourni par le slot PCIe.

En pratique, cette GV-3D1 ne se distinguait pas des masses d'un SLI standard de deux 6600 GT, un combo généralement supérieur à une Geforce 6800, mais bien loin des 6800 GT et 6800 Ultra, ou encore la Radeon X800 XT qui se positionnait entre les deux. Beaucoup se souviendront certainement aussi que rares étaient à ce moment-là les GPU pouvant se vanter d'être silencieux, la GV-3D1 culminait donc à 50,4 dBA, un peu plus qu'un SLI de 6600 GT, mais quand même en deçà d'une 6800 GT à 55 dBA (57 pour le SLI) ou X800 XT à 56 dBA (ouch les oreilles). Et la consommation ? En moyenne, 144 W en mode 2D et 255 W en 3D !

 

gigabyte gv 3d1 mobale ga k8nxp sli computerbase

L'ère (révolue) du RGB sans les LED,  la carte mère en question et unique hôtesse SLI de la GV-3D1.

 

Bref, autant dire que la GV-3D1 n'avait pas grand-chose pour elle en matière de performance et relativement peu d'un point de vue commercial (même si le bundle à 499 $ pouvait être jusqu'à 100 $ moins cher que d'opter pour deux 6600GT individuelles), d'autant plus qu'elle imposait à l'acheteur un usage quasi limité à la carte mère du bundle, ce qui en faisait également un hardware virtuellement impossible à revendre à l'unité. Il est aujourd'hui évident que la GV-3D1 n'était essentiellement qu'un exercice d'innovation, une nouvelle expérience et démonstration technique de faisabilité (parmi d'autres) sur la route vers les cartes graphiques multiGPU des générations suivantes - par exemple 7950 GX2, 3870 X2, HD 4850/4870 X2, GTX 295 ou encore HD 5970.

 

gigabyte gv-3d1 [cliquer pour agrandir]

Tiens, on se demande aussi ce que notre spécialiste de l'éléc pourrait bien lui reprocher...

 

Toutefois, au fil des années les performances croissantes en monoGPU ont progressivement rendu inutiles de tels montages pour les joueurs et qui présentaient d'ailleurs aussi pas mal d'inconvénients (microsaccades et support aléatoire en jeu, chauffe, nuisances sonores, prix, volume), et c'est sans parler des essais laborieux de Quad SLI et Quad Crossfire ! Ainsi, le multiGPU "mainstream" (hors minage de cryptomonnaie ou machine learning) s'éteignit définitivement chez NVIDIA en 2014 après la Titan Z (2 GPU Kepler GK110B) au TDP de 375 W et MSRP de 2999 $, et la même année chez AMD après la R9 295X2 (2 GPU Vesuvius XT) au TDP fulgurant de 500 W et MSRP de 1499 $ !

Si le SLI et le Crossfire vivotent encore un peu de nos jours, la fin potentielle de l'un ou de l'autre a déjà fait parler à plusieurs reprises. D'ailleurs, AMD n'a conféré aucun support Crossfire aux Radeon Navi RX 5000 et chez NVIDIA seules les 2070 (SUPER) et 2080 (SUPER)/Ti supportent encore le SLI, et la solution n'est que très rarement intéressante financièrement parlant. 

 

Reverra-t-on jamais de carte multiGPU pour le marché du jeu vidéo ? En cette ère des chiplets et puces uniques toujours plus complexes, la probabilité est certainement faible, mais rien n'est vraiment impossible... En attendant, les cartes comme celle-ci encore en circulation resteront des souvenirs peut-être toujours bien au chaud dans un PC, en vitrine dans un musée ou pour les étagères des collectionneurs ! (Source)

Un poil avant ?

L'hiver vient encore chez ASUS, cette fois-ci pour la RTX 2080 SUPER

Un peu plus tard ...

Nvidia publie un pilote pour dézinguer du nazi, mais du nazi zombie

Les 27 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Ragoteur qui prend l'eau en Provence-Alpes-Côte d'Azur, le Mercredi 05 Février 2020 à 05h42  
par Un champion du monde en Île-de-France le Mardi 04 Février 2020 à 21h03
Euh, pourquoi tu répond à sa place en usurpant son nom ?
boulot, proxy, toussa...
par Superubu, le Mardi 04 Février 2020 à 22h07  
par Matthieu S. le Mardi 04 Février 2020 à 15h22
Crossfire de HD7970 dans un laptop Clevo, sacrée machine
Sinon, la seule carte multiGPU que j'ai eu entre les mains fut la HD6990, belle bestiole, mais bruyante et chaude
Perso j'ai roulé un temps avec la 7990, que j'avais eu la chance de dégoter à vil prix...Un raffut de biplan au démarrage, une consommation de Cadillac d'occasion, mais une sacrée puissance sous la pédale...Je n'ai jamais regretté mon achat et j''ai encore le bestiau à la maison
par Un champion du monde en Île-de-France, le Mardi 04 Février 2020 à 21h03  
par Ragoteur qui prend l'eau en Provence-Alpes-Côte d'Azur le Mardi 04 Février 2020 à 20h32
Trolle autant que tu veux, mais les exemples rien que dans les BP de David Sergent sont nombreux :
été 2011, 5870 2Go à 140 euros
Juin 2011, à 159 euros
mai 2011 à 138 euros (1Go)
C'est pas les exemples qui manquent, pourquoi attaquer ma bonne foi ou penser direct à de l'occaz foireuse ?

Par contre il fallait effectivement avoir pensé à prendre une alim dimensionnée pour les bêtes, et de quoi les refroidir (les accelero Xtrem III m'ont tenu plusieurs générations à l'aise)
Euh, pourquoi tu répond à sa place en usurpant son nom ? :
par Ragoteur qui prend l'eau en Île-de-France le Mardi 04 Février 2020 à 16h12
par Ragoteur qui prend l'eau en Provence-Alpes-Côte d'Azur, le Mardi 04 Février 2020 à 20h32  
par Un champion du monde en Île-de-France le Mardi 04 Février 2020 à 20h22
Une HD 5870 à 150E ?
On trouvait des HD 6850 (soit à peine en dessous d'une HD 5850) blower à 125E quand c'était en promo pendant l'été 2011.
J'imagine que c'était en occaz du coup, vu les soudures foireures des HD 5xxx et HD 6xxx, j'aurais jamais acheté et aurait revendu direct la carte. :
Trolle autant que tu veux, mais les exemples rien que dans les BP de David Sergent sont nombreux :
été 2011, 5870 2Go à 140 euros
Juin 2011, à 159 euros
mai 2011 à 138 euros (1Go)
C'est pas les exemples qui manquent, pourquoi attaquer ma bonne foi ou penser direct à de l'occaz foireuse ?

Par contre il fallait effectivement avoir pensé à prendre une alim dimensionnée pour les bêtes, et de quoi les refroidir (les accelero Xtrem III m'ont tenu plusieurs générations à l'aise)
par Un champion du monde en Île-de-France, le Mardi 04 Février 2020 à 20h22  
par Ragoteur qui prend l'eau en Île-de-France le Mardi 04 Février 2020 à 16h12
Une HD 5870 à 150E ?
On trouvait des HD 6850 (soit à peine en dessous d'une HD 5850) blower à 125E quand c'était en promo pendant l'été 2011.
J'imagine que c'était en occaz du coup, vu les soudures foireures des HD 5xxx et HD 6xxx, j'aurais jamais acheté et aurait revendu direct la carte.

Après dans le haut de gamme, c'est le seul cas où sa peut encore se tenir effectivement.
Mais vu que la HD 7970 était deux fois plus puissante que la HD 5850 et avec une quantité de RAM triplée, ça aurait pas mieux valu le coup de revendre ta HD 5870 plutôt ? Ou même, pour une HD 7950 plus rentable ?

Pas forcément pour les mêmes GPUs, si en théorie tu pouvais faire +100% avec la même carte (des fois c'était même des gains réels à l'époque), tu pourrais normalement avoir +75%, +50%, etc théoriques avec une carte plus faible.
D'ailleurs, la série HD 5xxx a été la plus flexible sur ce point: https://www.game-debate.com/news/10732/complete-list-of-amd-crossfire-gpu-combinations

Y'a aussi l'histoire du sttering aussi. Mais on s'en est rendu compte que trop tard, comme 3-4 ans après.

Pour le choix, les développeurs qui se foulent pas , etc
par lerevolteur83 le Mardi 04 Février 2020 à 16h50
Nan c'est un terme de gamer ça, c'est pour augmenter ton DPS !
Tain, ça en fait des DP à la seconde. C'est très Hard tout ça.
par lerevolteur83, le Mardi 04 Février 2020 à 16h50  
par murasame6 le Mardi 04 Février 2020 à 12h01
excellent! encore une idée de marketeux!
Nan c'est un terme de gamer ça, c'est pour augmenter ton DPS !
par Ragoteur qui prend l'eau en Île-de-France, le Mardi 04 Février 2020 à 16h12  
par Un champion du monde en Île-de-France le Mardi 04 Février 2020 à 15h54
[coupé pour avoir de l'espace]
Je tempèrerais tout de même ton message, d'autant qu'il est parfois question de biGPU au sein d'une même carte, et de multi-GPU avec deux cartes différentes.

- Sur le coût, je ne suis pas d'accord. Acheter une HD 5870 à sa sortie puis une autre à 150 euros deux ans plus tard, m'a permis de tenir plus longtemps et pour bien moins cher que si je m'étais acheté un plus gros GPU (ou un biGPU) de puissance équivalente dès le départ ;
- Evidemment qu'il faut reprendre le même GPU, le goulot d'étranglement se faisant sur le moins rapide des deux, ce n'est pas vraiment un inconvénient, d'autant encore une fois que reprendre le même au moment où ton GPU commence à être un peu dépassé (sinon autant prendre direct un gros GPU), ça ne coûte plus rien ;
- Sur tous les autres points tu as parfaitement raison, la VRAM notamment, c'est clairement le principal problème lorsqu'on voulait prendre un second GPU deux ans après, les quantités ayant évolué très vite, idem sur les développeurs de jeux ou de moteurs graphiques qui ne voulaient pas se fouler...

Enfin que ce soit pour des raisons techniques, pratiques, commerciales ou autre, c'est toujours triste d'enlever aux clients une possibilité d'évolution

Pour les messages dont la fin est illisible, j'ai le même problème mais je croyais que ça venait peut être de mes extensions alors j'osais pas en parler. J'suis obligé de cliquer sur "Citer" pour voir ce que les gens ont écrit, le bouton "+" n'apparaissant que rarement quand il y a une quote dans le message.
par MirageFL, le Mardi 04 Février 2020 à 15h58  
par Un ragoteur Gaulois en Auvergne-Rhône-Alpes le Mardi 04 Février 2020 à 10h01
Al'époque j'étais passé d'une FX 5200 à une GF 6600 GT en AGP. Pour 160€ c'était une tuerie !
Ouais... Maintenant, pour le même niveau de gamme qu'une 6600 GT de l'époque, c'est x2
par Un champion du monde en Île-de-France, le Mardi 04 Février 2020 à 15h54  
Update @Pascal ou Thierry:

J'ai retesté plusieurs fois avec Ctrl + F5. Des fois ça me le fait, des fois pas.
par Matthieu S. le Mardi 04 Février 2020 à 12h14
Il était peut-être en partie là le problème aussi
Du point de vue de l'acheteur y'avait surtout ces problèmes:

- En vrai, le coût final revenait plus cher qu'un bon mono GPU même 2 ans après.
- En général, il fallait avoir le même GPU, pas possible de cumuler une GTX 470 et une GTX 750 Ti par exemple. Ca aurait était bien pratique pour augmenter d'au moins +50% les perfs alors que théoriquement les performances auraient pu être doublées.
- La VRAM ne se voyait pas cumulée.
- Il fallait une alimentation avec assez de prises PCIe 6 pins voire 8 pins (parfois 4 !)
- Le stuttering
- Le gain devenenait de plus en plus réduit (+75% il y a 13 ans) avec de moins en moins de jeux qui en profitaient. C'était trop dépendant des drivers, AMD, Nvidia et Intel n'avaient pas que ça à faire de mâcher le boulot des développeurs, sachant que le marché dictateur est devenu celui la console (donc portages finis à la pisse).

Bref, beaucoup d'inconvénients en fait.
par Campi le Mardi 04 Février 2020 à 12h19
+1 le multi gpu pour avoir testé à part en bench l'efficacité est vraiment aléatoire.
par Un champion du monde en Île-de-France, le Mardi 04 Février 2020 à 15h38  
par Thierry C. le Mardi 04 Février 2020 à 13h25
après un CTRL+F5 c'est toujours le cas ?
Je vois bien sa réponse (sous FF dernière version toussa toussa).
Ca vient de recommencer
par Matthieu S., le Mardi 04 Février 2020 à 15h22  
par Sarge le Mardi 04 Février 2020 à 14h57
Incroyable, je me souviens encore de mon sli de 8800m GTX (en bi-GPU) sur mon dell xps.. c'était beau !
Crossfire de HD7970 dans un laptop Clevo, sacrée machine
Sinon, la seule carte multiGPU que j'ai eu entre les mains fut la HD6990, belle bestiole, mais bruyante et chaude
par Sarge, le Mardi 04 Février 2020 à 14h57  
Incroyable, je me souviens encore de mon sli de 8800m GTX (en bi-GPU) sur mon dell xps.. c'était beau !