COMPTOIR
register

Il n'y a qu'un code optimisé qui peut exploiter plein de coeurs ! La preuve !

Anandtech a fait une triste expérience, et pourtant sur le papier l'enthousiasme devait être là : tester un PC équipé de 4 Xeon E5-4650L et 128Go de DDR3 1600 ECC, ça fait un sacré paquet de patate et de pognon quand on sait que chaque CPU coûte plus de 3500$ ! Donc un Xeon E5-4650L a la faculté de se lier à 3 autres comme lui, mouline à 2.6 GHz et 3.1 GHz via turbo, a 8 coeurs et 16 threads, 20Mo de cache, oui c'est un Sandy Bridge EP

 

Oui mais voilà, malgré les 256 coeurs max théoriques gérés par Windows Serveur 2008 R2, et donc les 64 threads totaux correctement affichés dans le taskmanager, les logiciels du panel ont un peu fait ce qu'ils ont voulu, détectant souvent au mieux 32 coeurs. Premier problème donc, il a fallu bidouiller pour faire prendre en compte tous les threads, mais si ce n'était que cela...

 

Car dans les résultats que vous allez regarder avec attention, vous allez voir que rares sont les logiciels qui sont codés pour autant de coeurs, du coup il est fréquent qu'un Core i5 2500K fasse mieux, une hérésie. En revanche quand tout roule, c'est une tuerie forcément. Cela montre bien que le codage et l'optimisation, c'est avant tout un problème plus humain que technique.

 

xeon_logo.jpg  

 

Le test, mais ça c'était avant le drame !

Un poil avant ?

Prétest d'un AMD FX-9590 à 5GHz

Un peu plus tard ...

Que nous réserve Microsoft pour son rustipatch day de juillet ?

Les 34 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par David S., le Mercredi 28 Août 2013 à 09h54  
par Un ragoteur inspiré embusqué le Mercredi 28 Août 2013 à 09h38
Pour Thibaut: peut puisse
Merci pour la news
Il y a la fonction "signaler un truc" pour les fautes . Cela permet en plus de ne pas accentuer le HS comme je vais devoir le faire ici pour te répondre, en te disant que je ne suis personnellement pas d'accord et ne considère pas qu'il y a de faute, car c'est un cas typique de langue vivante. Si "historiquement parlant" il faudrait toujours utiliser le subjonctif, il est depuis longtemps toléré d'utiliser l'indicatif, tout se fait finalement à l'oreille, en fonction de ce qui sonne le mieux et évoque le mieux sa pensée (affirmation, doute, etc.).
par Un ragoteur inspiré embusqué, le Mercredi 28 Août 2013 à 09h38  
Pour Thibaut: peut puisse

Merci pour la news
par Un ragoteur qui revient de Rhone-Alpes, le Lundi 08 Juillet 2013 à 17h42  
Car changer d'architecture pour avoir un gros bon en avant en terme de performances, cela se passe rarement dans le monde des processeurs X86, un cas comme pentium 4 au core 2 duo,c'est loin quand même.
Maintenant, intel fait beaucoup évoluer ses gpu intégré comme amd, mais son cpu X86 ne progresse que très peu lui sur la performance par rapport a l'ancienne architecture et je parle de performance et pas en dégagement watt ou intel fait de gros progrès actuellement.
Ceci dit, je vois quand même le marché du pc fixe se réduire de plus en plus comme une peau de chagrin quand même a part pour certains usage pour les pro et autres.
Donc a voir comment va évoluer les logiciels avec les nouveaux xeon 12 cores et hyperthreading, faut espérer qu'ils ne soit plus autant limité en performances quand on sort des logiciels aussi spécifique.

par Un ragoteur qui revient de Rhone-Alpes, le Lundi 08 Juillet 2013 à 17h23  
Il faudra bien pourtant que les logiciels utilisent plus de 4 core un jour pour le grand, sinon les performances vont vraiment stagner si l'augmentation de fréquence ne se fait plus ou trop peu.
Une entreprise comme intel, il faut qu'elle vende pour faire du bénéfice, si demain il n'y plus de progrès en performances dans ses nouveaux produits et elle vend moins, c'est d'ailleurs ce qui se passe pour l'instant avec le marché du pc qui est aussi délaissé pour cela.
Justement si les gens n'ont plus besoin d'acheter des nouveaux pc, car les leurs sont assez puissant et surtout il y a trop peu de différence avec les nouveautés, cela ne donne pas du tout envie de racheter du neuf.
Donc si le marché du pc ne veut pas sombrer du tout a part pour les professionnels ou certains réfractaires du pc fixe, le marché sera mort dans ce secteur dans pas longtemps si a un moment, il n'y a plus aucun progrès d'optimisation des logiciels et un nombre de core plus important ou l'augmentation de la fréquence ou les deux.
Pour l'instant pourquoi le marché du mobile et tablette et même hybride bas son plein car il démarre de loin par rapport au pc fixe en puissance, donc les évolutions rapides donne envie de racheter rapidement un matériel bien plus puissant, si demain ce n'est plus le cas car la puissance est suffisante et surtout que l'évolution ralentie fortement alors, que vont faire les constructeurs pour ne pas se retrouver dans la même situation que le déclin du marché du pc...
par shadelv d'Ile-de-France, le Lundi 08 Juillet 2013 à 08h22  
J'espère qu'Anand n'a pas payé les Xeons de sa poche
par Un ragoteur lambda embusqué le Dimanche 07 Juillet 2013 à 23h41
Je sais que ce secteur est de plus en plus délaissé par les consommateurs qui progressivement bascule sur des pc portables puissant ou tablette et autres hybrides ou avec plusieurs appareils de ce type et le marché du pc haut de gamme va se réduire encore,alors pour l'instant, intel et amd se tournent plus sur l'évolution de leurs versions mobiles pour venir concurrencer les processeurs amr qui est un marché juteux.
Ce n'est pas directement à cause des portables et des tablettes.
Les logiciels pour le grand public qui ont besoin et qui utilisent plus de 4 coeurs n'ont jamais été et ne seront jamais légion. Il n'y a pas besoin de 64 threads pour naviguer sur internet, écrire un mail, taper un texte ou faire ses comptes.
par Un ragoteur lambda embusqué, le Dimanche 07 Juillet 2013 à 23h54  
Je pense donc qu'il y aura de plus en plus un fossé entre les xeon multicore qui iront en augmentation pour les pro et les processeurs de bureau multicore qui en auront beaucoup moins car les logiciels seront de plus en plus spécifique pour les exploiter correctement.
Voila la finalité de ce test je pense, un secteur qui sera de plus en plus a part d'un processeur de bureau.
par Un ragoteur lambda embusqué, le Dimanche 07 Juillet 2013 à 23h41  
Je sais que ce secteur est de plus en plus délaissé par les consommateurs qui progressivement bascule sur des pc portables puissant ou tablette et autres hybrides ou avec plusieurs appareils de ce type et le marché du pc haut de gamme va se réduire encore,alors pour l'instant, intel et amd se tournent plus sur l'évolution de leurs versions mobiles pour venir concurrencer les processeurs amr qui est un marché juteux.
Donc je pense aussi que les performances pure seront délaissé en pc fixe jusqu'à un moment ou amd reviendra assez et viendra talonner intel ou voir plus pour de nouveau le faire bouger la dessus, mais la demande mobile est si forte par rapport au pc fixe, que a part pour les pro qui en ont besoin, la recherche de plus de puissance en pc fixe est mal parti.
Les gens veulent toujours plus du mini, sauf pour les tv ou c'est l'inverse.
Même si la le 4k arrive pour les tv, qui demandera beaucoup plus de puissance au gpu, mais au final pas beaucoup plus au processeur.
Je pense que les logiciels pour les pro vont être mieux développé pour pouvoir supporter l'augmentation des cores de 8 cores a 12 cores sur les nouveaux xeon pour plus de multitread au final avec ceux la.
C'est surtout aussi la consommation en moins d'un processeur 8 cores pour avec 24 cores, 2 xeon suffiront maintenant au lieu de 3, ce n'est pas négligeable pour avoir la même performance pour les pro,sur des grosses structures,ce n'est pas négligeable du tout,et ce n'était qu'un exemple.
par Un ragoteur "ArthaX" du Centre, le Dimanche 07 Juillet 2013 à 23h34  
par Un ragoteur qui se tâte du Nord-Pas-de-Calais le Dimanche 07 Juillet 2013 à 21h31
sans oublier la qualité des développeurs, suffit de voir certaines requêtes sql faites part des personnes se disant ingénieur en base de données, lol.
J'avais un problème avec les serveurs d'un client, lundi les sauvegardes étaient OK. Mais dès mardi les sauvegardes commence à être chaud. Vendredi tout rentrait dans l'ordre. Samedi et dimanche tout le monde cherche le pourquoi du problème. Pendant deux mois ils ont rien trouvé. Jusqu'à ce qu'un de mes collègues se rende sur site du client dès lundi matin et il passe en revu les procédures, et il s'aperçoit que l'ingénieur qui a écrit les requêtes SQL était une burne total. Vendredi, samedi et dimanche c'est mon collègue qui s'en charge, et il connaissait bien les limites du serveur et il en tenait compte. L'autre il te le faisait mode bourrin, sans optimisation. A mourir de rire.
@++
par Un ragoteur lambda embusqué, le Dimanche 07 Juillet 2013 à 23h24  
par Un ragoteur qui se tâte du Nord-Pas-de-Calais, hier à 23h31
Il est bien évident que monter en ghz est possible on est plus a l'époque du pentium 4, la gravure a nettement diminué pour moins de dégagement thermique.
Il y a une grosse différence entre presque 4 ghz et 10ghz.
La barrière physique quand elle arrivera au niveau gravure, on changera de matériel, on utilisera plus du silicium, il n'a été évoqué nulle part que intel par exemple continuerai toujours a utiliser celui ci pendant encore longtemps et bien au contraire.
On voit bien que amd peut sortir un processeur plus rapide, si il n'avait pas les problèmes de dégagement thermique qui lui font défault, et on sait tous que amd a déja des problèmes de consommation sur ses processeurs de bureau qui consomment beaucoup par rapport a intel en haut de gamme.
Sinon cela serait parfaitement possible.
Je ne compte pas le nombre de processeur qui tourne a plus de 4 ghz en air tous les jours chez intel une fois un peu overcloké.
C'est plutôt en ce moment une barrière de consommation qu'intel ne veut pas passer, car pour l'instant, on n'est beaucoup plus bloqué par les logiciels que par la montée en fréquence possible, on voit bien que l'évolution de l'architecture en dehors de la faible consommation n'arrive plus a permettre un gros gain de performance par rapport a l'ancienne.
Intel et amd devront faire un choix pour progresser en perf si les logiciels ne suivent pas avec trop de multicore disponible, la montée en ghz.
par Un ragoteur de passage de Quebec, le Dimanche 07 Juillet 2013 à 21h52  
7 vs 92 secondes pour convertir une vidéo. (quand c'est optimisé )
par Un ragoteur qui se tâte du Nord-Pas-de-Calais, le Dimanche 07 Juillet 2013 à 21h31  
Le CPU et sa fréquence ne font pas tout, même à 10gzh on n'irait pas plus vite si rien ne change à coté, à savoir mémoire, support de données (suffit de voir comme un SSD change la vitesse d'une machine lambda), vitesse réseau, etc, sans oublier la qualité des développeurs, suffit de voir certaines requêtes sql faites part des personnes se disant ingénieur en base de données, lol. Les matos est là, faut les "bons" programmes qui tournent dessus maintenant, testant déjà sur quoi ils tournent en démarrant (1,2,4, x cores), et lançant les thread optimisés.
par Un ragoteur de transit d'Ile-de-France, le Dimanche 07 Juillet 2013 à 21h00  
il me semble que la principale barriere de montee en frequence, c'est le semi conducteur soit le sillicium...
on arrive a une telle frequence que le processeur fait des "erreurs" qu'il doit donc corrige, ce qui fait qu'une partie des perfs doit compenser les erreurs dues aux electrons (et tout le bordel) qui vont dans le mauvais trous (ou un truc comme ca, je n'ai etudie que tres partiellement les semi-conducteurs) ce qui signifie donc une perte sur le potentiel total...
Il y a en plus bien entendu l'echauffement et la conso qui s'ajoute a cet effet...
Apres, j'ai lu qu'avec d'autres materiaux style nanotubes de carbone ou graphene, on pourrait avoir des frequences bien plus hautes (de l'ordre d'un facteur 10 de ce que j'ai pu lire) mais vu que le fonctionnement n'est pas pareil... (graphene = megaconducteur...)