COMPTOIR
  
register

Une carte Bi-GPU en embuscade chez Nvidia

Mesdames et messieurs, avant de commencer à lire, nous vous invitons à enfiler anorak, bonnet, lunettes de protection et moufles, sans oublier de sortir vos pincettes (difficile à manipuler avec les moufles…), car l’information qui suit arrive de chez Fudzilla !

 

Selon nos confrères, une carte réunissant deux GF 110 sur un même PCB serait en sommeil dans les cartons chez Nvidia. Les partenaires du caméléon seraient déjà "plus ou moins prêts" à lancer l’éventuelle Bi-GPU,  pour contrer Antilles ! On va même plus loin en affirmant que, si Nvidia le voulait, la carte pourrait bien apparaitre avant la fin de l’année. Toutefois, chez les verts on attendrait de voir ce que valent les HD 6970/6990.

 

La carte en question, appelons-la GTX 590 puisque c'est le nom que la rumeur lui prête, pourrait voir le jour au début de l’année 2011, une fois Cayman dévoilé. Alors, AMD sera-t-il vert de rage si les HD 6900 ne sont pas à la hauteur ? Nvidia verra-t-il rouge si ses GTX 500 n’arrivent pas à enterrer les cartes d’AMD ? Le wait and see est de mise. Rendez-vous en décembre. (Source : Fudzilla)

 

ati_vs_nvidia.jpg

Un poil avant ?

Windows : 25 ans d'histoire en 25 anecdotes

Un peu plus tard ...

La GTX 59X déjà paparazzée!

Les 57 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un Ragoteur de passage, le Dimanche 21 Novembre 2010 à 07h09  
Pour faire simple, si on veut avoir moins d'impact sur notre planète en limitant les contraintes sur nos vies, il faut être responsable est privilégier le matériel consommant le moins d'énergie tout en répond à nos besoins.

Pour moi aussi le FERMI est has-been comme Nvidia.
par Un ragoteur lambda, le Samedi 20 Novembre 2010 à 23h18  
Faut arréter avec la consommation , personne ne joue pendant plus de 4/5 h sur son pc , du coup vous bouffer pas plus que votre chauffe eaux la nuit , ou que votre machine a laver . Au pire si sa vous gêne quand même activer la synchro verticale , vos carte ne feront pas plus de 60 fps , ne feront pas un boucan du diable te ne consommeront pas comme des dingue pour rien .
par Un ragoteur inspiré, le Samedi 20 Novembre 2010 à 22h52  
***Modération : et le "ta mère", c'est pas une insulte ? au revoir***
par PoRRas, le Samedi 20 Novembre 2010 à 19h50  
par k'stor le Samedi 20 Novembre 2010 à 14h47
"Toutafé" d'accord, la norme pcie devrait arrêter d'augmenter la puissance dispo pour les GPU, ça devient n'importe quoi..
l'augmentation de la norme PCIe en terme de puissance accompagne tout simplement les capacités de dissipation d'aujourd'hui pour un volume restreint (2 slots et longueur limitée), c'est histoire d'assurer les compatibilités avec les composants alentours.
quoi qu'il arrive, si tu n'es pas satisfait de la conso électrique du haut de gamme, il restera toujours des cartes milieu de gamme qui n'en bouffent pas autant, voir ne requierent aucun connecteur.
par Un ragoteur de passage, le Samedi 20 Novembre 2010 à 19h38  
commencez par utiliser des ampoules basse consommation et éteindre la lumiere dans les pièces non utilisées avant de parler de l'équivalent en CO2 de la surconsommation d'une carte graphique.

comment est ce qu'on en est arrivé à un bazzard pareil sur l'effet de serre?
par Un ragoteur de transit, le Samedi 20 Novembre 2010 à 19h33  
par lerevolteur83 le Samedi 20 Novembre 2010 à 01h32
ça serait plus logique vis à vis de la GTX295...
Mais avec nvidia il faut s'attendre à tout
la GTX 295 a un 5 comme dans 285 car c'est un GT200b qui est utilisé, la révision de celui qui se trouve dans la 280.
donc 590 serai le plus logique pour moi, puisqu'il n'y aura pas de révision du GF110 d'ici là (et pas de raison d'ailleurs)
par pirocrazy, le Samedi 20 Novembre 2010 à 19h25  
par SoKette le Samedi 20 Novembre 2010 à 12h06
Ils viennent de sortie une GTX580 qui consomme 250W (et je suis ultra gentils, vu qu'elle consomme 350W en burn), et ils ils veulent sortir un bi-gpu ?
Vu que la limite imposée par la norme pci-e est de 300W, ils ont juste à o/c leur GTX580 et c'est bon ils les ont atteint les 300W, pas besoin de faire un bi-gpu...
Cette course aux watts commence à être de plus en plus débile.
juste pour info , la norme pci-e ne limite en rien la conso.
sur les cartes mere actuelles tu as le droit a 150w directement au pci ( mais jusque la , les deux géant ne les exploitent pas pour des raisons de rétro compatibilité )
ensuite ils peuvent coller 3 ou 4 connecteur 8 pins , ce qui permettrai d'atteindre 750W tout en restant dans la norme pci-e 2.0.
par L'Ours, le Samedi 20 Novembre 2010 à 18h29  
La 295 était une version bi gpu de la 275 si je me souvient bien (fréquence, ram etc). Donc on va surement trouver une bi-570.
De toute manière la consommation sera plus faible qu'un sli de 570 donc pourquoi gueuler sur cette carte?
Allez plutôt gueuler sur les mec qui font du Sli haut-de-gamme.

HS: Le spam massif commence sérieusement à être lourd. Un peu de fair-play les gars.
Troller sur le sujet non-commenté ça ira mieux
par Un ragoteur temporaire, le Samedi 20 Novembre 2010 à 15h42  
***Modération : tu viens de te manger un BAN pour insulte, et si tu continues un dépôt de plainte sera déposé dans la semaine, nous ne tolérons pas tes insultes, prends toi le pour dit et comme dernier avertissement, parce que même si tu changes ton IP avec Wanadoo, on te retrouvera***
par k'stor, le Samedi 20 Novembre 2010 à 14h47  
par SoKette le Samedi 20 Novembre 2010 à 12h53
Et c'est bien une course aux watts, quand tu faisais une configs il y a 4 ans, 2 connecteurs d'alim c'était totalement "anormal", il y a 6 ans, c'était une monstruosité. Là ça vous parait normal qu'une CG bouffe 300W... Banalisation du danger.
Ce n'est que mon point de vue.
"Toutafé" d'accord, la norme pcie devrait arrêter d'augmenter la puissance dispo pour les GPU, ça devient n'importe quoi.
Il n'y a que dans le cas d'un calculateur où l'important est la puissance importe et on préfère avoir une carte qui fait 1000Gflops pour 300W que deux de 500 Gflops pour 150W. Surtout quand il s'agit d'arriver à 100000Gflops.
Dans ce cas les 480 et 580 ont un intérêt, sinon consommer 300W pour tourner à 200FPS...
Bref, ils peuvent optimiser mais ça prend du temps et ça coute, pour trouver des sous, faut vendre alors ils le font. Sinon on n'aurait pas encore vendu de cartes et on attendrait tous les 28nm. Et quand il sera maitrisé, on attendra le 20nm...
par k'stor, le Samedi 20 Novembre 2010 à 14h45  
par lerevolteur83 le Samedi 20 Novembre 2010 à 12h45
Si bigpu il y a, je l'aurais fait sur le GF114 si j'avais été nvidia et le tout à un tarif violent vis à vis de la concurrence. Mais la course au watt c'est nvidia vs nvidia, AMD n'en est plus à ce petit jeu là
D'après ce que j'ai pu lire, la 5970 comme les 480 et 580 sont proches de la limite du pcie, AMD est donc toujours dans la course.
Ce que j'ai du mal à comprendre c'est comment on peut faire avec un bi GPU aussi bien qu'un monoGPU à architecture et consommation égale ? Globalement ce qui fait les perfs, c'est le nombre d'unités de calcul multiplié par la fréquence. Bizarrement c'est aussi ça qui fait la consommation. Même s'il y a de légères optimisations supplémentaires sur le Bi-GPU, il ya les problèmes de scaling qui le font partir avec un bon handicap.
Le seul avantage du bi GPU est qu'il permet d'avoir un meilleur rendement dans le sens où il assemble deux puces plus petites.
par k'stor, le Samedi 20 Novembre 2010 à 14h45  
par Un ragoteur lambda le Samedi 20 Novembre 2010 à 09h55
trop mal fait ton montage, ça vaut pas le coup de le mettre.
->Vas y, montre nous que t'es le plus fort, fais mieux.
Ne jamais reprocher à quelqu'un d'avoir mal fait quand il le fait gratuitement et que tu n'as toi même rien proposé.