COMPTOIR
register

Performance test de Starcraft II

Alors que David vous indiquait les configurations conseillées par Blizzard pour faire tourner Starcraft II il y a 4 jours, Guru3D quant à lui a fait un Performance test de ce jeu tant attendu. Ainsi au sein d'une configuration musclée basée sur du Core i7, afin de ne pas limiter nos chers GPU, vous trouverez chez les rouge une HD 4770, HD 4870, HD 5770, HD 5830, HD 5850, et enfin une HD 5870, tandis que chez les vert, ce seront une 9800 GTX+, GTX 260 216SP, une GTX 285, une GTX 460 768Mo et 1 gigot, une GTX 470 et enfin une GTX 480.

 

4 résolutions couvrant la quasi totalité du parc d'écrans actuel sont choisies, elles sont le 1280 x 1024, le 1600 x 1200, le 1920 x 1200 et le 2560 x 1600. Voilà, il ne vous reste plus qu'à découvrir le comportement du jeu avec tout ce beau monde !

 

starcraft2.jpg  

 

Lire le Performance test chez Guru3D

Un poil avant ?

Le Thermalright MUX-120 se refait une beauté pour 2010

Un peu plus tard ...

Samsung Spinpoint MT2 : 2.5" et 1To !

Les 52 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par SC2 : 27 juillet 2010, le Mardi 20 Juillet 2010 à 21h08  
SC2 sur la nZone

( Et StarCraft 2 exploite Havok. )
par Revan, le Mardi 20 Juillet 2010 à 20h10  
Légèrement PRO Nvidia le jeu
Il serait pas légèrement "the way it mean to be played" ?

Faut attendre que ATI optimise ses pilotes...
par Un moche qui ragote, le Mardi 20 Juillet 2010 à 18h48  
mouai ben en tout cas blizard a dans le passé été plus proche de ATI que de nvidia .. et concernant blizard / ati aucun partenariat officiel n'est établit, donc blizard n'a rien choisi ... a partir de là si l'un a des drivers mieux optimiser que l'autre pour certains truc à qui la faute ?

bref j'arrete avec ce topic ça sert a rien ...
par Revan le Mardi 20 Juillet 2010 à 20h10
Il serait pas légèrement "the way it mean to be played" ?

Faut attendre que ATI optimise ses pilotes...
en effet j'avais pas vu, merci

ça change rien a mes propos précédent (hormis la partie partenariat nvidia patin coufin )
par Un ragoteur qui se tâte, le Mardi 20 Juillet 2010 à 18h40  
Pourtant vrai un moche qui ragote.
Quand tu paies une carte graphique, tu en paie une partie pour l'aide de Nvidia ou Ati aux développeurs.
Quand le développeur a choisi son fondeur, j'imagine que celui-ci va faire en sorte de mettre quelques bâtons dans les roues des son concurrent, qui va vite se dépêcher de les enlever avec l'optimisation des drivers
par Un moche qui ragote, le Mardi 20 Juillet 2010 à 18h18  
si bien sur mais t'inquiete pas de ce coté la ils nous la foute bien profond avec leurs trois volets, le lan en moins, les 60 euro les jeux etc

mais rien à voir quand meme avec mes propos d'avant, j'ai jamais dit que c'étaient des anges juste qu'il fallait parfois arrêter de sortir des connerie pareil sous pretexte que l un a 20 fps de moins que l'autre c'est pas du tout le même débat ...

bref toute manière c'est la mode de cracher sur nvidia alors certes certaines pratique de nvidia sont contestable, et je suis moi meme dans les premier à raler lors de news la desus, mais faut pas non plus partir dans une espèce parano collective mixé à un effet de mode anti-nvidia au moindre pet de travers chez la concurrence ...

ps : pour prévenir un éventuel com trollesque sur mes propos : je tourne sur une ATI pourtant hein

enfin bref je vous laisse dans vos délires paranoiaques
par Un ragoteur qui passe, le Mardi 20 Juillet 2010 à 17h41  
un mooche qui ragote, tu penses vraiment que quand on est blindé de tune, on ne cherche toujours pas à en gagner le plus possible? C'est dans la nature humaine ça et ceux qui me contrediront sont des hypocrites
par Un moche qui ragote, le Mardi 20 Juillet 2010 à 17h07  
 
Que peuvent ils avoir à gagner ???
Et les dév de Batman AA qu'avaient ils à gagner les développeurs ?
A méditer

leur batman il y avait un risque deja plus important de bide du coup c'est comprehensible qu'ils aient cherché des fond de tous les coté et (hypothétiquement !) accepté la tune de nvidia, surtout apres le bide de leur premier jeux bouze, mais on parle de starcraft,franchement vous voyez blizard faire un coup a la batman pour un jeux pareil, là hein ya aucune prise de risque en sortant un jeux comme ça et niveau tune ils sont plutot à l'aise chez blibli juste avec un seul jeux (oui oui on pense tous au meme !!! )! je suis sur que le premiere jour de sa sortie il sera déjà amorti + bénéfice leur jeux

c'est pas le premier jeux qui sort et ou un des deux constructeur de CG est un peu en dessous, ya aussi les drivers qui joue pour beaucoup regarder un dirt2 a sa sortie 40-50 fps de moyenne en 1680-1050 aa *2 maintenant 60 fps en full hd aa*4 ... donc vous inquiétez pas ATI va, à mon avis vu l'ampleur du jeux, s'investir pas mal dans les opti sur ce jeux dans leurs futurs drivers

bref faut arrêter de psykoter de tous les cotés aussi quand meme ...

edit : saintgermain + 1 ...
par Flanker, le Mardi 20 Juillet 2010 à 16h45  
J'ai lu que ça pouvait venir du fait que la version de physX n'était pas à jour.
par lulu-nico, le Mardi 20 Juillet 2010 à 14h28  
par Flanker le Mardi 20 Juillet 2010 à 14h24
Moi j'ai une 5850 O/C et une E8400 à 3,6ghz (ok le cpu est pas tout jeune) et je lag bien méchant en 1900*1200 ultra. C'est juste injouable, alors je me demande bien d'ou vient le problème parce que je ne suis pas le seul.
a mon avis ati va sortir un driver qu'il sera spécial starcraft 2 c'est pas le premier jeux à avoir cette faveur
par Flanker, le Mardi 20 Juillet 2010 à 14h24  
Moi j'ai une 5850 O/C et une E8400 à 3,6ghz (ok le cpu est pas tout jeune) et je lag bien méchant en 1900*1200 ultra. C'est juste injouable, alors je me demande bien d'ou vient le problème parce que je ne suis pas le seul.
par Petalpusher, le Mardi 20 Juillet 2010 à 14h22  
Non.. DX11 standardise la tesselation, c'est tout, mais l'avance au niveau architecture qu'ont les Fermi c'est au niveau de la géometrie et particulierement tout ce qui est back culling, cad que ce gpu est capable d'afficher 3 fois plus de geometrie environ que l'équivalent ATI car il est plus rapide en triangle culled (gestion des parties visibles ou non), par contre les ATI restent un peu plus fortes niveau shaders. Que ce soit avec dx9,10,11 c'est toujours la même architecture, après ca dépend surtout de la modernité (et l'élégance) du code.
par lulu-nico, le Mardi 20 Juillet 2010 à 14h15  
par Petalpusher le Mardi 20 Juillet 2010 à 14h13
La version de direct x n'a rien a voir avec la technologie du moteur lui même (le jours ou les gens comprendront ca, ca sera un grand pas..), c'est juste une question de souplesse au niveau des features et des librairies. C'est comme si tu me dis que Crysis a un moteur uen bois parcequ'il supporte DX9..
Sinon SC2 est un jeu DX10.
ok mais l'avancent des geforce que tu parle c'est sur dx11 le jeux n'est pas dx11