COMPTOIR
  
register

Le plein d'informations sur le Fermi de Nvidia

Un document PDF émanant de chez Nvidia circule depuis lundi soir sur la toile, et nous donne plusieurs indications intéressantes sur les  cartes C2050 et C2070, les versions Tesla du Fermi de la marque au caméléon.

 

On apprend ainsi, et cela fait grand bruit, que si l'architecture Fermi est à la base constituée de 512SP, seulement 448 processeurs de flux seront réellement activés, avec une fréquence de fonctionnement qui se situera entre 1250 et 1400MHz en fonction des modèles. Les cartes seront accompagnées de 3Go de GDDR5 pour la C2050 et 6Go à la C2070, sur bus mémoire 384bits comme prévu et avec une fréquence comprise entre 900 et 1000MHz. Il est à noter que comme prévu la carte disposera de l'ECC, mais que son activation se fera au choix de l'utilisateur, avec en contrepartie une baisse de la quantité de mémoire disponible de 3 à 2.625Go et 6 à 5.25Go respectivement. Il en sera de même au niveau de la bande passante mémoire qui baissera d'1/8è également. En ce qui concerne le TDP, il est fixé à 225W. Un chiffre impressionnant, surtout pour une carte qui ne semble pas au maximum de sa puissance avec ses processeurs de flux castrés et sa mémoire GDDR5 à "seulement" 1GHz au maximum.

 

Et c'est là que les interrogations se posent. Que pourra donner la version "GeForce" de la carte ? Nvidia activera-t-il alors intégralement les 512SP du Fermi ? La mémoire sera-t-elle cadencée plus haut pour réellement se démarquer d'AMD en termes de bande passante ? Autant de points qui restent actuellement dans l'expectative, et cela peut encore continuer ainsi un moment puisque, pour rappel, les GeForce à base du GF100 sont pressenties pour dans 4 mois environ...

 

tesla_c2070.jpg  

 

Le document PDF en question sur les Tesla C2050 et 2070

Un poil avant ?

Max In Power Toplex 912 : le Turboost aurait-il trouvé son maître ?

Un peu plus tard ...

La fin des cartes mères grand public chez DFI ? MAJ

Les 30 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui se tâte, le Jeudi 24 Décembre 2009 à 13h48  
Mwai...Le problème n'est pas qu'ils se soient reposés sur leurs lauriers, ils sont tout simplement dans la merde depuis le GT200.Le G92 s'en sortait honorablement si ce n'est sa conso, seulement on ne peut pas nier que leurs shrinks soient d'une efficacité désastreuse depuis le 90nm. Si on combine ça avec un peu trop d'arrogance à vouloir sortir un monstre sur un process pas encore arrivé à maturité, faut pas s'étonner si le résultat est inquiétant.
par StarBuck, le Mercredi 23 Décembre 2009 à 23h10  
par Activation le Mercredi 23 Décembre 2009 à 19h54
en comparaison intel ça fait rouleau compresseur ... vu qu il se fait concurrence à lui même... ça l empeche pas de se bouger le cul chaque année pour faire progresser ses cpu
où fait tout pour bloquer la concurrence de façon déloyale, cf le dernier procès en date...
par Crepe182, le Mercredi 23 Décembre 2009 à 20h01  
Mwé AMD et intel c'est pas encore pareil. Et puis bon tu dis intel se bouge mais je pense pas qu'ils visent le même publique. Intel fait clairement du Haut de gamme et semble vouloir y resté. Mais une plateforme AMD a base de phenom II X4 par exemple est moins chère que plateforme intel pour des performance largement suffisante pour le plupart des gens.
par Activation, le Mercredi 23 Décembre 2009 à 19h54  
oui enfin bon moi je disais juste qu on avais déjà des tdp similaire pour perf moindredonc faut pas s offusquer à cause du tdp annoncé pour ce geforce "gzgiguigoui" (nop car comme les noms de puce et nom de CG change tout les 4 matin chez nvidia ... vu que ça les prend comme une envie de pisser (pardonner l'expression)après ce qui est malheureux c'est que faut attendre que nvidia sorte sa carte pour que ati daigne bouger son gros BBIIIPP et nous proposer des cartes avec 2Go, des lunettes 3Dc'est malheureux, que ça soit nvidia ou ati/amd ils sont toujours partisan du moindre effort"on a une chtite avance, alors on va pas se bouger le cul sur le reste.... on attend d abord que le concurrent nous rattrape ou nous double"en comparaison intel ça fait rouleau compresseur ... vu qu il se fait concurrence à lui même... ça l empeche pas de se bouger le cul chaque année pour faire progresser ses cpu (par contre il sent tellement que ses gpu c'est de la merde qui se sent même pas le besoin de les faire evoluer.... y a qu'à regarder la derniere plateforme intel netbook.. faut une puce marvell pour boosté le gpu intel.... risible)bref la crise eco... elle apparait volontairement... cause: moindre effort d'innovation
par David S., le Mercredi 23 Décembre 2009 à 18h27  
Joli malentendu
par atileader, le Mercredi 23 Décembre 2009 à 18h25  
par David S. le Mercredi 23 Décembre 2009 à 14h26
Eh bien permets moi de te dire que je trouve que tu dis n'importe quoi, un PDF de 22 pages de docs sur une nouvelle génération de cartes 3D pour moi ce n'est pas rien, si on ne newse pas ça on ne newse à peu près plus rien
on ne s'est pas compris je pense . je ne vous reproche pas d'en parler vous faites votre boulot et c'est tant mieux. ce que je veux dire c'est que nvidia essaie d'occuper le terrain le plus possible même s'ils n'ont rien de vraiment concret à présenter. la doc c'est bien mais le concurrent est largement en avance et on attend plus de nvidia que de la doc non ?
par Illuminati, le Mercredi 23 Décembre 2009 à 15h24  
par Activation le Mercredi 23 Décembre 2009 à 14h51
la gtx280 (65nm) avait pas un tdp similaire ?
La différence c'est qu'à l'époque AMD ne pouvait pas se battre contre cette GTX 285.Ce n'est plus le cas aujourd'hui, et la HD 5870 consomme très peu en idle et 188W en load.De plus, le RV870 est beaucoup plus petit car il possède 1 milliard de transistors en moins.Le rapport perfs/taille/prix est encore à l'avantage d'AMD.
par Un ragoteur qui passe, le Mercredi 23 Décembre 2009 à 15h23  
C'est vrai que l'architecture joue un rôle très important dans les performances donc attendons des tests en environnement réel avant de critiquer ou encenser le produit.
par Activation, le Mercredi 23 Décembre 2009 à 14h51  
la gtx280 (65nm) avait pas un tdp similaire ?donc voilà quoi
par Un ragoteur qui se tate, le Mercredi 23 Décembre 2009 à 14h49  
Bizarrement cette carte me rappelle de plus en plus le HD2900XT "Vous allez être surpris !"
par Crepe182, le Mercredi 23 Décembre 2009 à 14h43  
Illuminati, la GTX295 est un double GPU, et d'après les tests elle est moins puissante certes que les 5870 mais l'écart n'est pas si énorme que sa. (et je parle en performance, je ne prend pas en compte le prix). On à aucune idée des performances du Fermi mais bon. Je ne peux m'empêché de penser à un phénomène d'il y quelque année dans le domaine du CPU. Athlon 64 Vs Pentium 4. Sur le papier le P4 avait tout à son avantage, la fréquence plus haute, plus de cache etc.. mais se qui à jouer en faveur de l'A64 c'est sont architecture. Donc en attendant de vrai test du fermi il n'y a plus qu'a espérer que leur architecture soit bonne... Certes le CPU est un domaine à part mais bon... De toute façon seul les tests nous dirons ce que donne fermi et rien d'autre, même pas un PDF de nvidia. (Et encore moins les suppositions de certains, ils ont peut être raison mais en attendant ils en savent rien du tout)
par Illuminati, le Mercredi 23 Décembre 2009 à 14h35  
par Un ragoteur qui se tâte le Mercredi 23 Décembre 2009 à 14h28
il y avait une rumeur d'une carte double GPU, comment Nvidia compte faire au niveau de la chaleur et de la consommation si même un GF100 allègé atteint 225W, quelqu'un à la reponse ?
Radeon HD 5970 : TDP = 294WFermi 448 SP : TDP = 225WGF100 512 SP : TDP ~= 250WDual G100 1024 SP : TDP ~= 500WY'a 200W de trop si on respecte les normes PCIe.Conclusion: Une dual-Fermi n'est pas possible avant un shrink en 28nm.