COMPTOIR
register

50 CPU pour Battlefield 3, mais guère plus hein....

Battlefield 3 continue à occuper la scène. La raison est son Frostbite 2 qui vraiment désosse bien, tellement que tous les effets DX11 sont supportés, avec au premier rang la tesselation. Mais DX11 ce sont aussi les Direct Compute de dernière génération, et le support des CPU multicores. Inpai a voulu savoir ce qu'il en était de ce point de vue là.

 

Alors ils ont pris une GTX 590, testé le 1440x900, 1680x1050 et 1920x1080, et maltraités 50 CPU qui vont du 3960X au Pentium D820 chez Intel, et du FX8150 au X2 3600+ chez Amédé. Ils ont aussi fait des relévés en faisant varier le nombre de core, en désactivant ou pas l'hyperthreading, et en faisant varier la mémoire cache des CPU. Tout cela conduit à voir si le Frostbite 2 est le moteur ultime DX11 capable de tirer partie de la puissance des CPU, anciens et récents.

 

bf3_logo.jpg  

 

Lire le comparo chez Inpai

Un poil avant ?

Nvidia compte sur 2012 pour faire exploser Tegra 3

Un peu plus tard ...

Samsung dégaine son Cortex A15

Les 49 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par , le Mardi 06 Décembre 2011 à 16h07  
C'est du grand n'importe quoi, ce test n'est absolument pas représentatif des réelles différences entre CPU (3 premières slides)sur BF3 car la carte graphique utilisée nivelle gravement les performances et n'est pas vraiment conforme au parc installé(GTX 590, excusez du peu) Je fais de l'assemblage de PC et pour avoir fait des tests avec ce jeu sur 2 ou 3 configs différentes avec des cartes graphiques moyen de gamme supérieures (GTX560 TI ou HD6950), je peux vous dire qu'un DualCore type Phenom même fréquencé à 3,4GHz ne permet pas une bonne fluidité. Idem pour le I3 2100 qui malgré l'HT ne compense pas à 100% son architecture DualCore (lire PC Update N56 pour confirmation). Bref, oubliez ce test si vous ne voulez pas être déçu par votre config (sauf si vous avez une CG à 700 €...) et croyez-en mon expérience, si vous voulez jouer confortablement avec BF3, c'est QuadCore à 3GHz obligatoire et de préférence d'architecture moderne (I5 ou FX 4100)
par CloC, le Lundi 05 Décembre 2011 à 08h09  
je plussoie le Q6600 !! pres de 5 an de bons et loyaux services est toujours vaillant .
Meme avis que Rastamickael sur bf3 il s'en sort bien, couplé a un gtx460@830mhz et lui-meme oc a 3.2ghz vcore origine, qu'importe les maps et le nombre de joueurs on peu jouer en full hd et tous les détails elevés(+terrain ultra)

par Rastamickael, le Dimanche 04 Décembre 2011 à 16h58  
par TheQuebecerInFrance le Dimanche 04 Décembre 2011 à 13h27
Je pense comme toi, moi aussi on me recommandait les dual-core mais j'ai persisté, le Q6600 a été un bon proc. Mais j'ai changé de config il y a un mois car mais @3.4 il ne tenait plus le choc sous BF3, j'étais à 100% CPU. Le 2500K est à 60-70 non overclocké. Et ça avec la mpeme carte graphique (5850). Mais c'était le seul jeu qui a tué le Q6600.
C'est bizarre avec mon q6600@3.6ghz + 4go et une 6950 1go, aucuns problèmes de freezes ou autres en 1920*1200 et avec des réglages élevé/ultra (élevé + quelques options en ultra), même en multi avec 64 joueurs no problems...
par JéJé, le Dimanche 04 Décembre 2011 à 16h46  
par TheQuebecerInFrance le Dimanche 04 Décembre 2011 à 13h27
Je pense comme toi, moi aussi on me recommandait les dual-core mais j'ai persisté, le Q6600 a été un bon proc. Mais j'ai changé de config il y a un mois car mais @3.4 il ne tenait plus le choc sous BF3, j'étais à 100% CPU. Le 2500K est à 60-70 non overclocké. Et ça avec la mpeme carte graphique (5850). Mais c'était le seul jeu qui a tué le Q6600.
Sous BF3 avec une 5870 et e7200@4ghz (1680X1050) je tournais a environ 20 FPS avec en prime des micro freeze . Même CG mais 2500K je descend jamais en dessous de 52 FPS..
par TheQuebecerInFrance, le Dimanche 04 Décembre 2011 à 13h27  
par Rastamickael le Dimanche 04 Décembre 2011 à 10h09
+1, j'ai acheté le miens il y 4ans et demi et c'est surement l'achat le plus rentable que j'ai fait en matos info, oc @ 3.6Ghz (soit +50% de perfs) il doit taquiner sévère les i5 et i7

Et dire qu'a l'époque tout le monde conseillais le e6750 pour le jeu (je ne suis pas sur) dualcore cadencé plus haut... Les gens qui l'ont choisi doivent bien regretter face au Q6600, comme quoi avoir une vision à plus ou moins long terme en informatique et possible et rentable économiquement parlant
Je pense comme toi, moi aussi on me recommandait les dual-core mais j'ai persisté, le Q6600 a été un bon proc. Mais j'ai changé de config il y a un mois car mais @3.4 il ne tenait plus le choc sous BF3, j'étais à 100% CPU. Le 2500K est à 60-70 non overclocké. Et ça avec la mpeme carte graphique (5850). Mais c'était le seul jeu qui a tué le Q6600.
par Un ragoteur qui revient, le Dimanche 04 Décembre 2011 à 10h17  
par Thibaut G. le Dimanche 04 Décembre 2011 à 09h05
J'en connais qui jouent en 1280 encore, ne crois pas que le marché c'est du full HD partout.
+ 1, mon premier écran full HD est en cours d'acheminement, en attendant je suis encore sur un 19", et encore je suis le premier de ma famille à s'équiper de la sorte
par Rastamickael, le Dimanche 04 Décembre 2011 à 10h09  
par BeAble le Samedi 03 Décembre 2011 à 23h34
Oh purée! Que je l'aime le Q6600, si vieux et si puissant et dire que celui du test est @stock.
+1, j'ai acheté le miens il y 4ans et demi et c'est surement l'achat le plus rentable que j'ai fait en matos info, oc @ 3.6Ghz (soit +50% de perfs) il doit taquiner sévère les i5 et i7

Et dire qu'a l'époque tout le monde conseillais le e6750 pour le jeu (je ne suis pas sur) dualcore cadencé plus haut... Les gens qui l'ont choisi doivent bien regretter face au Q6600, comme quoi avoir une vision à plus ou moins long terme en informatique et possible et rentable économiquement parlant
par Thibaut G., le Dimanche 04 Décembre 2011 à 09h05  
n'empêche que tu ne peux pas dire que le 2100 vaut le 2600k, parce que la limite est liée au GPU. Si tu en mets 2 des cartes, c'est évident que les résultats en 1920 changent. La seule chose que tu peux dire, c'est que sur ce jeu, et en 1920, les 2 CPU donnent les mêmes résultats à cause de la limite GPU, ça c'est la seule chose que tu peux dire. Quand tu dis ça "Pour le reste oui et non, puisque même avec le meilleur GPU du marché, les gros procs n'arrivent pas à se démarquer", tu devrais dire SUR CE JEU, car si tel était le cas, les tests en CF ou SLi (la GTX 590 est un SLi à elle toute seule) seraient faits avec un 2100. C'est très loin d'être le cas.

Après jouer les moqueurs par rapports à ceux qui ont un 2600K, et dire que le 2100 est aussi valable que lui partout, c'est aller très vite en besogne. J'en connais qui jouent en 1280 encore, ne crois pas que le marché c'est du full HD partout.
par Ram, le Dimanche 04 Décembre 2011 à 08h55  
par Thibaut G. le Dimanche 04 Décembre 2011 à 08h43
ben une fois encore ton raccourci est faux. En effet en 1920 le 2100 est au niveau du 2600K, la faute à une grosse limitation GPU, ça ne veut pas du tout dire que le jeu n'est optimisé quadcore hein. D'ailleurs quand tu descend en 1440, le 2100 se prend une fessée, c'ets normal puisqu'à cette résolution, on s'affranchit de la barrière du GPU. ET bien entendu, ce n'est vrai QUE pour ce jeu, on ne peut généraliser aussi facilement que tu l'as fait Attention donc aux phrases toutes faites et aux analyses "à la volée" qui induisent des raisonnements biaisés en souvent faux
Qui joue en 1440?
Pour le reste oui et non, puisque même avec le meilleur GPU du marché, les gros procs n'arrivent pas à se démarquer. Donc à l'heure actuelle, ce que je dis n'est pas entièrement faux. On verra à la sortie des prochaines gen, ça changera surement la donne.
par Thibaut G., le Dimanche 04 Décembre 2011 à 08h43  
par Ram le Dimanche 04 Décembre 2011 à 08h16
Excellent ce test. Non seulement en 1080p le vieil i3 2100 avec ses 2 cœurs joue dans la cour des gros i5/i7 mais en plus il se permet les même perfs qu'un 2600 pour 3x moins cher. Quand je vois tous les zouzous qui achètent un 2600k pour faire du jeu ça me fait d'autant plus marrer.
Ca montre aussi que les jeux sont loin d'être optimisé pour les 4cores et plus.
ben une fois encore ton raccourci est faux. En effet en 1920 le 2100 est au niveau du 2600K, la faute à une grosse limitation GPU, ça ne veut pas du tout dire que le jeu n'est optimisé quadcore hein. D'ailleurs quand tu descend en 1440, le 2100 se prend une fessée, c'ets normal puisqu'à cette résolution, on s'affranchit de la barrière du GPU. ET bien entendu, ce n'est vrai QUE pour ce jeu, on ne peut généraliser aussi facilement que tu l'as fait Attention donc aux phrases toutes faites et aux analyses "à la volée" qui induisent des raisonnements biaisés en souvent faux
par Ram, le Dimanche 04 Décembre 2011 à 08h16  
Excellent ce test. Non seulement en 1080p le vieil i3 2100 avec ses 2 cœurs joue dans la cour des gros i5/i7 mais en plus il se permet les même perfs qu'un 2600 pour 3x moins cher. Quand je vois tous les zouzous qui achètent un 2600k pour faire du jeu ça me fait d'autant plus marrer.
Ca montre aussi que les jeux sont loin d'être optimisé pour les 4cores et plus.
par Un ragoteur qui passe, le Dimanche 04 Décembre 2011 à 07h52  
par cabou83 le Samedi 03 Décembre 2011 à 23h54
le pb c'est que dans ton test la HD6990 est en version classique et donc elle peut faire mieux et le site le conclu bien à la fin dans les jeux où la GTX590 égale ou dépasse la HD6990 n'est pas représentatif car l'oc effectué est jugé dangereux par le site lui même pour la durée de vie de la carte et c'est sans compter sur un oc de HD6990.
Ton test est un peut comme testé un core 2 quad face à un PhenomII (je site eux car ils sont à peut prés = niveaux perf) et oc un à 5Ghz et laisser l'autre d'origine le quel sera le plus perfs on connait déjà la rep.
la 590 est meilleur pour beaucoup de filtre et les jeux direct x 11 et toutes les options activés ce qui n'est pas le cas des 6990, de plus je conseil des 580 gtx 3go car la 590 n'a que 2*1,5go