COMPTOIR
register

L'Intel Iris Pro 5200 GT3e testé : AMD rattrapé en perfs GPU ?

Avec l'arrivée d'Haswell, tout le monde a bien rapidement compris que la principale source de nouveauté n'était finalement pas à chercher du côté de la partie CPU du processeur, mais plutôt de son GPU particulièrement en ce qui concerne la fameuse version "GT3e" alias Iris Pro 5200 avec sa mémoire intégrée au processeur.

 

Intel a souhaité voir disparaitre la mention "HD" pour appuyer sur le gouffre de performances qui le sépare des générations précédentes de GPU intégrés et opté donc pour une nouvelle dénomination, est-ce que ce choix se vérifie en pratique ? Nos confrères d'Anandtech ont pu mettre la main sur un Haswell mobile Core i7-4950HQ avec donc son Iris Pro 5200 de 40 EUs possédant une fréquence maximale de 1300MHz pour 832 GFLOPS. L'occasion de l'opposer aux HD 4000 et 4600 d'Intel mais aussi aux GT 650M et GT 640 de Nvidia. Sous quelques benchmarks (pas tous), les HD 7660D et HD 7660G intégrés aux APU d'AMD sont également présents pour avoir une idée face au Trinity d'AMD.

 

iris_pro_5200.jpg  

 

L'Iris Pro 5200 en test chez Anandtech (EN)

Un poil avant ?

Crucial Ballistix Sport XT: qu'est-ce qui est bleu et vert et fait 5cm de haut ?

Un peu plus tard ...

Les SanDisk Extreme II 120, 240 et 480Go en test

Les 34 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par lulu-nico, le Mercredi 05 Juin 2013 à 21h01  
par GhostKilla le Mercredi 05 Juin 2013 à 20h34
Sachant que pour le moment, AMD se base sur la vieille architecture des HD6900, les prochains APU Kaveri basés sur GCN vont juste les déboiter méchamment, et Intel pourra aller se rhabiller
Sans compter qu'ils passeront enfin à la gravure 28nm, qui permettra des consommation réduites par rapport au 32nm (plus les efforts qu'ils feront certainement pour améliorer l'IPC et les courants de fuite). Bref pour moi, AMD est sur la bonne voie, et ses efforts seront certainement payant à terme (car beaucoup de kikoolol oublient que l'architecture est entièrement nouvelle, et qu'il y a forcément du temps avant d'arriver à maturité )
Normalement kaveri 512 sp gcn.
par GhostKilla, le Mercredi 05 Juin 2013 à 20h34  
Sachant que pour le moment, AMD se base sur la vieille architecture des HD6900, les prochains APU Kaveri basés sur GCN vont juste les déboiter méchamment, et Intel pourra aller se rhabiller

Sans compter qu'ils passeront enfin à la gravure 28nm, qui permettra des consommation réduites par rapport au 32nm (plus les efforts qu'ils feront certainement pour améliorer l'IPC et les courants de fuite). Bref pour moi, AMD est sur la bonne voie, et ses efforts seront certainement payant à terme (car beaucoup de kikoolol oublient que l'architecture est entièrement nouvelle, et qu'il y a forcément du temps avant d'arriver à maturité )
par Un ragoteur bélote embusqué, le Mercredi 05 Juin 2013 à 19h04  
par Un ragoteur macagneur du Centre le Mercredi 05 Juin 2013 à 16h24
Tu oses donner una vis négatif quand trinity est à 150 euros et le intel à 650 ..... Franchement je vois bien que intel est plus rapide pour le cpu et la carte grpahique (seulement sur le haut de gamme niveau gpu).

AMD est quoi qu'on dise tout de meme compétitif...
Don't feed the troll please...
par Un ragoteur qui draille de Provence-Alpes-Cote d'Azur, le Mercredi 05 Juin 2013 à 17h39  
par Un ragoteur inspiré de Picardie le Mercredi 05 Juin 2013 à 16h31
Non justemeent, AMD n'est pas compétitif, s'ils l'étaient, intel sortirait ce CPU à 300€ et pas 650€...
Mais cela convient bien à intel d'avoir une entreprise qui lui évite la situation de monopole. Et ca permet de créer une pseudo concurence (au niveau des prix...) et de multiplier ses marges par 10...
Du point de vu d'INTEL AMD n'est pas compétitif mais du notre (pauvre consommateur) si :
Le rapport perf/prix d'AMD est meilleur que celui d'INTEL sur ce produit.
donc AMD est plus compétitif , et donc j'achète

par Un ragoteur inspiré de Picardie, le Mercredi 05 Juin 2013 à 16h31  
par Un ragoteur macagneur du Centre le Mercredi 05 Juin 2013 à 16h24
Tu oses donner una vis négatif quand trinity est à 150 euros et le intel à 650 ...
AMD est quoi qu'on dise tout de meme compétitif...
Non justemeent, AMD n'est pas compétitif, s'ils l'étaient, intel sortirait ce CPU à 300€ et pas 650€...
Mais cela convient bien à intel d'avoir une entreprise qui lui évite la situation de monopole. Et ca permet de créer une pseudo concurence (au niveau des prix...) et de multiplier ses marges par 10...
par Un ragoteur macagneur du Centre, le Mercredi 05 Juin 2013 à 16h24  
par Un ragoteur inspiré de Picardie le Mercredi 05 Juin 2013 à 16h16
Si AMD avait plus de moyen ils nous ressortiraient la même m**** qu'actuellement mais overclocker, un peu comme les FX9000.

AMD avait racheté ATI pour nous sortir des APU ultra perf, au final intel nous sort des APU plus perf sur la partie GPU et plus perf sur la partie CPU.
Donc AMD c'est finit pour le haut de gamme, encore quelques années et j'espere qu'ils vont disparaitre du marché des cpu.

Le manque de concurence est maintenant trop important, Intel nous sort des APU pour portable à 50W de TDP plus perf que les CPU desktop d'AMD à 220W de TDP !
ok c'est plus cher (et encore...), mais la qualité à un prix...
Tu oses donner una vis négatif quand trinity est à 150 euros et le intel à 650 ..... Franchement je vois bien que intel est plus rapide pour le cpu et la carte grpahique (seulement sur le haut de gamme niveau gpu).

AMD est quoi qu'on dise tout de meme compétitif...
par Un ragoteur inspiré de Picardie, le Mercredi 05 Juin 2013 à 16h16  
 
Si AMD avait plus de moyen...

Si AMD avait plus de moyen ils nous ressortiraient la même m**** qu'actuellement mais overclocker, un peu comme les FX9000.

AMD avait racheté ATI pour nous sortir des APU ultra perf, au final intel nous sort des APU plus perf sur la partie GPU et plus perf sur la partie CPU.
Donc AMD c'est finit pour le haut de gamme, encore quelques années et j'espere qu'ils vont disparaitre du marché des cpu.

Le manque de concurence est maintenant trop important, Intel nous sort des APU pour portable à 50W de TDP plus perf que les CPU desktop d'AMD à 220W de TDP !
ok c'est plus cher (et encore...), mais la qualité à un prix...
par Un ragoteur "ArthaX" du Centre, le Mercredi 05 Juin 2013 à 16h08  
par lulu-nico le Mercredi 05 Juin 2013 à 15h27
Il y a plus simple passer le plus vite possible a la ddr 4.
D'accord avec toi, mais DDR4=2015.
2014 pour les serveurs chez Intel. Et grand public 2015.
Chez AMD ils ont dis que la DDR4 au plus vite, mais quand ? Je ne le sais pas. Mais ça fera un grand bien à AMD.
2014, le prix de la DDR4 sera réservé au monde des serveurs. Peut être 2015 pour les prix, mais pas si sur. Reste qu'à attendre.
@++
par TheRagoteur d'Ile-de-France, le Mercredi 05 Juin 2013 à 15h37  
 
AMD rattrapé en perfs GPU ?

En rêve...
par lulu-nico, le Mercredi 05 Juin 2013 à 15h27  
par Un ragoteur "ArthaX" du Centre le Mercredi 05 Juin 2013 à 15h15
Si AMD mettait 8Mo de L3 unifié et 4 fois 256Ko de L2 pour 4 coeurs CPU, je pense l'avantage de l'eDRAM d'Intel serait annihilé.
Mais 8Mo de L3 c'est 60mm² sur le DIE. Mais je pense qu'une L3 unifié serait un bon compromis pour AMD. Ca permet de ne pas trop monter en fréquence tout en n'augmentant pas le nombre de coeurs du GPU.
@++
Il y a plus simple passer le plus vite possible a la ddr 4.
par Un ragoteur "ArthaX" du Centre, le Mercredi 05 Juin 2013 à 15h15  
Si AMD mettait 8Mo de L3 unifié et 4 fois 256Ko de L2 pour 4 coeurs CPU, je pense l'avantage de l'eDRAM d'Intel serait annihilé.
Mais 8Mo de L3 c'est 60mm² sur le DIE. Mais je pense qu'une L3 unifié serait un bon compromis pour AMD. Ca permet de ne pas trop monter en fréquence tout en n'augmentant pas le nombre de coeurs du GPU.
@++
par Un ragoteur inspiré de Rhone-Alpes, le Mercredi 05 Juin 2013 à 15h08  
par PoRRas, aujourd'hui à 17h01
oui, mais la on quand même un i7, c'est normal que cela soit plus cher, ce n'est pas i5 comme tu dis.
Donc compare le prix d'un pc portable avec un i7 et une gt650m.
Et puis tant qu'a faire, cela serait dommage de prendre qu'une gt650m pour jouer sur 1920X1080, c'est trop juste.