COMPTOIR
register

Broadwell comparé à Haswell : moins de 5% de gain d'IPC ?

Nos confrères suédois du site Sweclockers ont eu une idée un peu farfelue : comparer les gains architecturaux (IPC) de Broadwell sur Haswell. Mais comment faire puisqu'aucune puce Broadwell n'est encore disponible dans le commerce ? Facile : aller chercher un Lenovo Yoga 3 Pro équipé d'un Core M-5Y70 (Broadwell-Y à 1,1 / 2,6 GHz) et le comparer à une Surface Pro 3 avec son Core i5-4200U (Haswell-U à 1,6 / 2,6 GHz). On fait tourner quelques benchmarks sur les deux machines et on normalise les résultats du Core M comme s'il était cadencé à la même fréquence que le Core i5 lorsqu'il est chargé sur les deux coeurs : 2 296 MHz.

 

Les benchmarks sont au nombre de quatre : deux sous Cinebench 11.5 et deux en encodage x264. Le gain de Broadwell sur Haswell à fréquence égal n'est pas énorme : entre 1,81 et 2,97% dans le meilleur des cas. On est pas tout à fait aux 5% promis par Intel. D'autant plus que le Core M possède 4 Mo de cache L3 contre 3 Mo pour le Core i5. La grande nouveauté que devrait apporter Broadwell sera davantage à chercher du côté de la consommation et notamment grâce à la gravure en 14nm.

 

Est-ce la raison pour laquelle Broadwell sera abandonné sur les puces desktop non overclockables ? Du Broadwell-K pour les overlockeurs qui bénéficieront de fréquences élevées et du Skylake-S pour un gain en IPC et un combo fréquences / consommation contenu. Décidémment, on a du mal à distinguer le chemin emprunté par Intel, mais ce qui est certain, c'est que le manque de réponse d'AMD permet au fondeur de prendre son temps et de tester ses stratégies.

 

Intel.png  

Un poil avant ?

Crossfire de Sapphire R9 290X Vapor-X 8Go en UHD : quel bilan face aux autres solutions ?

Un peu plus tard ...

Bon Plan: Metro 2033 gratuit sur l'Humble Store

Les 37 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par sweetdarika, le Dimanche 09 Novembre 2014 à 14h16  
par lulu-nico le Samedi 08 Novembre 2014 à 10h42
Nvidia a augmenter le nombre de sp en meme temps.
C'est comme si intel avait rajouter des core.
Si tu compare nvidia a intl compare avec les xeon qui eux on eu droit a des augmentation de core.
C'est bien la multiplication des core mais quand je vois l'activité de ma Quadro au taquet (80-100%) et mon Hexacore qui se tourne les pouces (en montage et édition vidéo - max 60% 70% quand la Quadro est moins sollicitée - j'ai rarement vu mon CPU fonctionner à 90-100%), je me pose encore vraiment de l'utilité du nombre de core CPU si les logiciels même pros ne permettent pas d'utiliser toute leur puissance...
par sweetdarika, le Dimanche 09 Novembre 2014 à 14h08  
par Gros le Samedi 08 Novembre 2014 à 11h01
C'est la première fois en 25 ans de possession d'ordinateurs que je ne vois aucun intérêt à changer une config qui a 4 ans... mon 2600K a encore de beaux jours devant lui. Mon seul investissement aura été la GTX670 qui a remplacé le SLI de 460 il y a 2 ans, et même celle là je ne ressens pas l'intérêt de la remplacer en ce moment (mais faut dire que sacrifier des options graphiques ne me dérange guère).

Bref merci à nos fondeurs qui me font faire de substantielles économies sur le desktop...
Pareil. Pour ma part j'ai juste remplacé mon i7 950 par un HEXA i7 970 (d'occaz à 160 Euros) il y a tout juste un an. Je pêche juste par un manque de ram par moment. Je pense que je vais garder ma plateforme encore un moment et passer de 12Go à 18 voir 24Go de ram si aucune nouvelle plateforme n'offre vraiment pas un réel intérêt pour changer...

par Vincent S., le Dimanche 09 Novembre 2014 à 09h22  
par Un ragoteur foufou du Nord-Pas-de-Calais le Samedi 08 Novembre 2014 à 14h39
pourquoi ils n'ont pas fixé la fréquence des deux CPU plutôt que de normaliser les résultats?
Ils ne pouvaient pas avec les machines qu'ils avaient. Pas de BIOS aussi complet que ceux que l'on connait.
par Un fossile de Lorraine, le Samedi 08 Novembre 2014 à 19h22  
C'était un peu le sens, c'est pas tant le fait qu'on parle de web que la lourdeur inutile qui est imposée pour ce qui n'est finalement qu'un support comparable à une publication papier.

Quand on a de la puissance à ne plus savoir qu'en faire, tant que ça fonctionne, on se fout de faire léger/optimisé/intelligemment, on fait par contre des trucs inutiles qui pompent des ressources à gogo (type pubs flash ou assimilables sons et lumière).
par Un ragoteur foufou d'Ile-de-France, le Samedi 08 Novembre 2014 à 16h43  
par Un ragoteur inspiré de Lorraine le Samedi 08 Novembre 2014 à 15h54
Et par expérience, 99% n'optimisent pas du tout tant que le matos fait tourner le sort.

C'est comme ça qu'on arrive à avoir besoin d'un Core i3 pour afficher une page web.
C'est aussi que si l'on est dev et que l'on fait du web c'est que l'on ne se sait pas coder correctement pour faire de la vrai programmation (petit troll pro )
En plus des pages codé avec des pieds les navigateurs web sont devenu des monstres a force de devoir supporter des nouveaux standards.
Aujourd'hui on demande a un navigateur de pouvoir gerer des API capable de faire tourner un jeu 3D moderne... normal que la moindre page soit bien plus lourde que du temps où on ne demandait a un navigateur de ne pouvoir qu'afficher du texte et quelques images.
par Un ragoteur inspiré de Lorraine, le Samedi 08 Novembre 2014 à 15h54  
par Un ragoteur foufou d'Ile-de-France le Samedi 08 Novembre 2014 à 15h27
Sauf que non... par expérience professionnel 90 % des programmeurs n'optimisent pas pour du multi-threading pour plein de raison. (pas possible avec cette algo, trop compliqué, pas assez de temps, flemme, etc...)
Et par expérience, 99% n'optimisent pas du tout tant que le matos fait tourner le sort.

C'est comme ça qu'on arrive à avoir besoin d'un Core i3 pour afficher une page web.
par Un ragoteur foufou d'Ile-de-France, le Samedi 08 Novembre 2014 à 15h37  
par Un ragoteur foufou du Nord-Pas-de-Calais le Samedi 08 Novembre 2014 à 14h35
IPC > reste
Sauf que non tu dois aussi prendre en compte la taille de ton pipeline, la fréquence, la tailles des caches, le nombre de registre, ton temps d'acces mémoire etc...
par Un ragoteur foufou d'Ile-de-France, le Samedi 08 Novembre 2014 à 15h27  
par Un ragoteur foufou de Picardie le Samedi 08 Novembre 2014 à 14h02
Les appli s'adapte au hardware présent sur le amrché et non l'inverse.
Sauf que non... par expérience professionnel 90 % des programmeurs n'optimisent pas pour du multi-threading pour plein de raison. (pas possible avec cette algo, trop compliqué, pas assez de temps, flemme, etc...)
C'est pour cela qu'intel préfère aujourd'hui sortir des CPU grand publique avec seulement 4 coeurs max et une fréquence autour de 4 GHz que plus de coeur et une fréquence moindre
par Un ragoteur foufou du Nord-Pas-de-Calais, le Samedi 08 Novembre 2014 à 14h39  
pourquoi ils n'ont pas fixé la fréquence des deux CPU plutôt que de normaliser les résultats?
par Un ragoteur foufou du Nord-Pas-de-Calais, le Samedi 08 Novembre 2014 à 14h35  
IPC > reste
par Un ragoteur foufou de Picardie, le Samedi 08 Novembre 2014 à 14h02  
par Un ragoteur qui se tâte d'Ile-de-France le Samedi 08 Novembre 2014 à 12h59
Le nombre de coeur c'est bien mais encore faut-il que les applis les utilisent alors que l'ipc c'est utilisé automatiquement sans besoin de modifier ou d'adapter le code.
C'est comme la fréquence, on a eu beau abandonner cette course, c'était ce qui était le plus fonctionnel rapidement même si c'est ce qui est le plus dur à faire progresser sans exploser le dégagement thermique.
Les appli s'adapte au hardware présent sur le amrché et non l'inverse.

Et ce n'est pas un problème de TDP vue qu'intel fait des dodecacore (12 core ) avec 65W de TDP en 22nm pour les pro.
Le 14nm permettrait donc du 32 core avec un TDP avoisinant les 130W et une fréquence aux alentour des 2GHz.
Mais le manque de concurrence fait qu'il est préférable de sortir des soc avec cpu, gpu, vrm, contrôleur mémoire, mémoire, chipset, modem... tout intégré dans un faible TDP plutôt que de sortir de vrai processeur avec 130W de TDP.
par Un fossile de Lorraine, le Samedi 08 Novembre 2014 à 13h43  
par lulu-nico le Samedi 08 Novembre 2014 à 13h35
Si on reste a 4 core max pour le grand public les logiciels n'évolueront pas.
En ace de cpu avec beaucoup de core rien n'empêche intel de faire des cpu avec moins de core mais une meilleur fréquence.
Si j'embarque mon parapluie, il va pleuvoir.