COMPTOIR
register

Le futur des Xeon Phi dévoilé : Knights Landing en 14nm

Actuellement composée des Knights Corner gravés en 22nm, la gamme Xeon Phi d'Intel devrait avoir droit l'année prochaine à un important rafraichissement lui permettant de multiplier par 3 environ la puissance de calcul en double précision du coprocesseur pour supercalculateurs d'Intel. De quoi continuer à proposer un 3e choix en plus d'AMD et Nvidia qui, eux, obligent à passer via le GPU là où Intel, pour rappel, permet de rester sur une archtecture 100% x86 en cumulant CPU Xeon et coprocesseur Xeon Phi au lieu du classique CPU + GPU.

 

intel_xeonphi.jpg  

 

Selon une roadmap dévoilée par nos confrères de X-bit labs, Intel aurait dans ses cartons une nouvelle génération de Xeon Phi pour l'année prochaine, avec pour nom de code Knights Landing. Le 22nm laisserait la place au 14nm, avec une puissance de calcul en double précision annoncée aux alentours de 3 TFLOPS contre 1.2 TFLOPS pour rappel au plus puissant des Xeon Phi actuels (le 7120 avec 61 coeurs à 1.24GHz, 30.5Mo de cache L2 et 16Go de GDDR5 à 1375MHz). Un impressionnant gain de puissance donc, qui se traduirait par un ratio compris entre 14 et 16 GFLOPS / W contre 4 à 6 GFLOPS / W pour les Knights Corner.

 

A noter également que les Knights Landing devraient être toujours proposés en cartes PCIe à la norme 3.0, mais aussi cette fois en socket. Il est également question de délaisser la GDDR5 au profit de la DDR4.

 

intel_knightslanding_roadmap.jpg  

Un poil avant ?

7 GTX 650 Ti Boost face à face à face à face à face à face à face

Un peu plus tard ...

Après Asrock, ECS fait péter l'overclocking Haswell-K sur des cartes mères autres que Z87

Les 45 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par TheRagoteur d'Ile-de-France, le Dimanche 07 Juillet 2013 à 11h27  
par chambolle le Dimanche 07 Juillet 2013 à 10h58
Si par GPU tu veux dire au sens propre : processeurs graphique alors c'est possible. Mais Intel a réussi puisque leur CPU sont des GPU puisque qu'ils permettent de faire de l'affichage graphique. Dans ce cas tu ne peux pas dire que Xeon Phi sont des GPUs puisqu'ils n'affichent plus rien.
A partir du moment où je dis que ce sont des GPU avec des coeurs x86, c'est que ce ne sont plus vraiment des GPU, tu comprends?
Et ne t'inquiète pas pour moi, je me laisse rarement prendre au piège marketingo-journalistique qu'Intel sait si savamment orchestrer.
par chambolle, le Dimanche 07 Juillet 2013 à 10h58  
par TheRagoteur d'Ile-de-France le Dimanche 07 Juillet 2013 à 10h38
Lis un peu ce que j'ai dit: c'est un GPU, avec des coeurs x86!
Si par GPU tu veux dire au sens propre : processeurs graphique alors c'est possible. Mais Intel a réussi puisque leur CPU sont des GPU puisque qu'ils permettent de faire de l'affichage graphique. Dans ce cas tu ne peux pas dire que Xeon Phi sont des GPUs puisqu'ils n'affichent plus rien.
Si par GPU on entend ordinateur permettant de faire du parallelisme de données vectorielle, utilisé en graphisme alors Xeon Phi n'est pas non plus un GPU comme cela puisque cela ne fait pas du parallelisme de données comme les NVidia et AMD.
Ce n'est pas parce que les journalistes on décidé d'un truc ou que quelqu'un du marketing d'Intel a balancé une info que c'est vrai.
par TheRagoteur d'Ile-de-France, le Dimanche 07 Juillet 2013 à 10h38  
par chambolle le Dimanche 07 Juillet 2013 à 10h25
Tu veux une source sur quoi ? Parce que jusque maintenant, mis a part nous dire que ca vient à l'origine du projet Larrabee, je ne vois pas bien ce que tu apportes ?
Si tu lisais la page wikipedia que tu cites tu verrais que Larrabee a été créé pour concurrencer le GPGPU. c'est exactement ce que je dis et pas du tout ce que tu dis.
Regarde par exemple dans wikipedia: "Le but d'Intel avec Larrabee est donc multiple. En premier de rendre le GPU obsolète"
Donc tu n'as pas compris Intel n'a pas pour but de faire des GPU mais de concurrencer le GPGPU avec une autre technique
Lis un peu ce que j'ai dit: c'est un GPU, avec des coeurs x86!
Maintenant je sais bien que c'était pour concurrencer le GPGPU mais pas seulement. Ils voulaient concurrencer aussi le GPU grâce au ray tracing mais ce n'est pas mentionné dans wikipédia, pas le français en tout cas (oui, on a un wikipedia de merde en France).
par chambolle, le Dimanche 07 Juillet 2013 à 10h25  
par TheRagoteur d'Ile-de-France le Dimanche 07 Juillet 2013 à 10h17
Maintenant, je constate que tu ne donnes toujours pas de lien...Où est donc ta source à toi hein?
Tu veux une source sur quoi ? Parce que jusque maintenant, mis a part nous dire que ca vient à l'origine du projet Larrabee, je ne vois pas bien ce que tu apportes ?
Si tu lisais la page wikipedia que tu cites tu verrais que Larrabee a été créé pour concurrencer le GPGPU. c'est exactement ce que je dis et pas du tout ce que tu dis.
Regarde par exemple dans wikipedia: "Le but d'Intel avec Larrabee est donc multiple. En premier de rendre le GPU obsolète"
Donc tu n'as pas compris Intel n'a pas pour but de faire des GPU mais de concurrencer le GPGPU avec une autre technique
par TheRagoteur d'Ile-de-France, le Dimanche 07 Juillet 2013 à 10h17  
par chambolle le Dimanche 07 Juillet 2013 à 10h04
Joli dialectique. Aucun argument, ne sait rien mais utilise des smiley et balance des references journalistiques et croit que cela constitue une argumenation
Apprend ce que c'est que le GPGPU (regarde CUDA par exemple) et puis ensuite reviens discuter. Commence par wikipedia sur le GPU, le GPGPU puis un CPU classique
Et tu crois vraiment que je ne sais pas ce qu'est le GPGPU Seriously?
Allez, fais donc un effort de relecture
Le projet Larabee tu connais? C'était un projet dont les journalistes parlaient tant que ça nous rabattait les oreilles et au bout d'un moment on avait envie d'entendre parler de tout sauf de ça.
Il était prévu de sortir au départ des GPU pour concurrencer AMD et Nvidia mais avec la particularité d'utiliser des coeurs x86 et le ray tracing.
Ce projet fût un fail monumental, c'est d'autant plus rigolo quand on voit la com qu'ils ont fait autour de ça.
Ce fail ils l'ont recyclé, et ce sont les xeon Phi que tu vois maintenant qu'ils ont nommé coprocesseur juste pour dire qu'ils utilisent du x86.


Et si ça te suffit pas et que tu comprends pas l'anglais, y a ça

Maintenant, je constate que tu ne donnes toujours pas de lien...Où est donc ta source à toi hein?
par chambolle, le Dimanche 07 Juillet 2013 à 10h04  
par TheRagoteur d'Ile-de-France le Dimanche 07 Juillet 2013 à 08h59
ça sent l'argumentaire du gars qui va dire qu'il est ingé chez intel.
Tu n'es même pas capable de sortir un lien...
Joli dialectique. Aucun argument, ne sait rien mais utilise des smiley et balance des references journalistiques et croit que cela constitue une argumenation
Apprend ce que c'est que le GPGPU (regarde CUDA par exemple) et puis ensuite reviens discuter. Commence par wikipedia sur le GPU, le GPGPU puis un CPU classique
par TheRagoteur d'Ile-de-France, le Dimanche 07 Juillet 2013 à 08h59  
par chambolle le Dimanche 07 Juillet 2013 à 08h52
Xeon Phi c'est pas du GPGPU ! Faut vous renseigner un peu les grands !
C'est des cœurs x86. Il y a des chances pour que ce soit une partie du futur du parallelisme. C'est pas parce que cela vient d'un projet qui n'est pas alle dans le sens voulu que c'est nul.
Alors avant d'etre dédaigneux avec Intel comme vous l'etes. Allez bosser un peu pour comprendre ce que c'est ou lisez mon poste. J'ai expliqué ce que c'était
ça sent l'argumentaire du gars qui va dire qu'il est ingé chez intel.
Tu n'es même pas capable de sortir un lien...
par chambolle, le Dimanche 07 Juillet 2013 à 08h52  
par TheRagoteur d'Ile-de-France le Dimanche 07 Juillet 2013 à 07h52
Très convainquant, je m'incline.
Allez puisqu'il faut faire le boulot de renseignement à ta place, comme d'hab...
lien
Xeon Phi c'est pas du GPGPU ! Faut vous renseigner un peu les grands !
C'est des cœurs x86. Il y a des chances pour que ce soit une partie du futur du parallelisme. C'est pas parce que cela vient d'un projet qui n'est pas alle dans le sens voulu que c'est nul.
Alors avant d'etre dédaigneux avec Intel comme vous l'etes. Allez bosser un peu pour comprendre ce que c'est ou lisez mon poste. J'ai expliqué ce que c'était
par TheRagoteur d'Ile-de-France, le Dimanche 07 Juillet 2013 à 07h52  
par chambolle le Samedi 06 Juillet 2013 à 19h46
Tu dis n'importe quoi.
renseigne toi un peu
Très convainquant, je m'incline.
Allez puisqu'il faut faire le boulot de renseignement à ta place, comme d'hab...
lien
par chambolle, le Samedi 06 Juillet 2013 à 19h46  
par TheRagoteur de Provence-Alpes-Cote d'Azur le Samedi 06 Juillet 2013 à 18h26
Le projet Larabee tu connais? C'était un projet dont les journalistes parlaient tant que ça nous rabattait les oreilles et au bout d'un moment on avait envie d'entendre parler de tout sauf de ça.
Il était prévu de sortir au départ des GPU pour concurrencer AMD et Nvidia mais avec la particularité d'utiliser des coeurs x86 et le ray tracing.
Ce projet fût un fail monumental, c'est d'autant plus rigolo quand on voit la com qu'ils ont fait autour de ça.
Ce fail ils l'ont recyclé, et ce sont les xeon Phi que tu vois maintenant qu'ils ont nommé coprocesseur juste pour dire qu'ils utilisent du x86.
Tu dis n'importe quoi.
renseigne toi un peu
par TheRagoteur de Provence-Alpes-Cote d'Azur, le Samedi 06 Juillet 2013 à 18h26  
par chambolle le Samedi 06 Juillet 2013 à 15h56
Ca n'a pas de sens ce que tu dis. En gros le GPU c'est du parallelisme de données: tu reproduits à l'identique la MEME sequence d'operation. Cela convient donc parfaitement au graphisme ou a du calcul matriciel. Le GPU c'est pas bon quand tu as des tests dans ton programme. A l'inverse le CPU est tres bon avec les tests mais du coup se parallélise mal. L'idee d'Intel est de proposer du // en CPU pour peu cher. C'est donc tres interessant.
Le projet Larabee tu connais? C'était un projet dont les journalistes parlaient tant que ça nous rabattait les oreilles et au bout d'un moment on avait envie d'entendre parler de tout sauf de ça.
Il était prévu de sortir au départ des GPU pour concurrencer AMD et Nvidia mais avec la particularité d'utiliser des coeurs x86 et le ray tracing.
Ce projet fût un fail monumental, c'est d'autant plus rigolo quand on voit la com qu'ils ont fait autour de ça.
Ce fail ils l'ont recyclé, et ce sont les xeon Phi que tu vois maintenant qu'ils ont nommé coprocesseur juste pour dire qu'ils utilisent du x86.
par chambolle, le Samedi 06 Juillet 2013 à 15h56  
par Striker embusqué le Vendredi 05 Juillet 2013 à 23h50
Génial on sait pas encore a quoi ca peut servir (enfin pour nous autres), c'est probablement cher, donc c'est INDISPENSABLE j'achète
Une carte coute dans les $3000