COMPTOIR
register

Le Tesla K40 annoncé officiellement, ainsi qu'un accord stratégique NVIDIA / IBM

La mise à jour du Top 500 des supercalculateurs révélé lors du Supercomputing Conference de Denver ne révèle rien de nouveau puisque les trois bestiasses qui font péter le score au benchmark Linpack restent les mêmes.

  1. Le supercalculateur chinois Tianhe-2, développé par China's National University of Defense Technology à base de Xeon + Xeon Phi (3,12 millions de coeurs au total), est largement en tête de ce classement avec 33,86 PFLOPS (peta flop par seconde) pour une consommation de 17,8 MW.
  2. L'américain Titan(18 688 AMD Opteron 6274 + 18 688 NVIDIA Tesla K20) utilisé par le Department of Energy's Oak Ridge National Laboratory, est largement battu en puissance pure avec ses pauvres 17,59 PFLOPS, mais son efficacité énergétique est bien meilleure que son concurrent puisqu'il ne consomme que 8,21 MW.
  3. Au 3e rang du classement se trouve un supercalculateur à base d'IBM BlueGene/Q (en partenariat avec Levi's), le Sequoia qui pousse à 17,17 PFLOPS quand même et avec des performances énergétiques similaires au Titan.

NVIDIA profite du SC13 pour officialiser le nouveau Tesla K40. Il s'agit comme prévu d'un refresh du Tesla K20X à base de GK 180, c'est à dire un full GK110. On passe donc de 2688 Cuda Cores (732 MHz) à 2880 (745 MHz). On double la capacité mémoire avec 12 Go de GDDR5 (comme la FirePro d'AMD présentée récemment), le tout contenu dans un TDP à peine 10 W supérieur à l'ancienne version (245 W) et pour des performances 20 % supérieures à 1,43 TFLOPS d'après NVIDIA.

 

nvidia-tesla-k40-features.jpg

 

D'autre part, la firme de Santa-Clara et IBM dévoilent un partenariat pour conjuguer la puissance et l'efficacité énergétique des Tesla et des processeurs Power8 (respectivement les plus puissants GPU et CPU dans le domaine du supercalcul). Big Blue optimisera tout son parc logiciel pour le rendre compatible avec l'accélération graphique. Ce n'est plus seulement les grands instituts scientifiques ou les organisations gouvernementales qui sont visées, mais l'objectif est bien de donner accès au calcul massivement parallèle aux entreprises. D'ailleurs, selon l'International Data Corporation, le marché du serveur professionnel, sur lequel IBM a généré 3,3 milliards de dollars de revenus au 2e trimestre, connaît un déclin important (-6,2 % sur un an au niveau global, -10 % pour IBM). Big Blue compte bien sur ce tableau également booster le marché en proposant des serveurs bien plus performants, à même de gérer d'énormes bases de données de façon beaucoup plus rapide et efficace.

 

l'annonce officielle du Tesla K40 par NVIDIA. le top 500 chez top500.org

Un poil avant ?

Bon plan: SSD Kingston V300 120 Go à 66,38€ livré (MAJ)

Un peu plus tard ...

Intel toujours maître du marché des puces graphiques

Les 9 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par sweetdarika, le Vendredi 22 Novembre 2013 à 17h05  
par Un vieux ragoteur de Rhone-Alpes le Jeudi 21 Novembre 2013 à 21h47
en même temps en 2001, internet ca existait quasiment pas, c'est sur qu'il y avait deni de service même avec un modem 56K et un pov pentium 2 plu TNT......
Non mais qu'est-ce qu'il ne faut pas lire ! Tu as eu quand ton premier accès à internet ? J'avais le Câble en 2001, je m'en souviens très bien, avec une connexion de 380kbps, c'était tout de même mieux que le modem 56k. Mon premier PC connecté à internet (en 56k), c'était en 1997 et il y avait déjà beaucoup de site internet à visiter dont le très célèbre Hardware.fr, jexvideo.com, baguette.com, mygale.fr, ces deux derniers ont ensuite fusionné pour devenir Multimania... etc.
Détrompe toi aussi, je trouve encore que les sites internet et serveur à cette époque étaient bien plus stables. Aujourd'hui, la majorité des hébergeurs mutualisés ont de sérieux problèmes de stabilité depuis la démocratisation des CMS, que ce soit OVH, Online.net (le pire), etc.
par ThelittleSlut, le Jeudi 21 Novembre 2013 à 23h18  
Il faut surtout comprendre (CF: Canard PC Hardware (nan patapey jvous jure je suis pas payé je ne touche rien !) Qu'on arrive aux limites physiques du silicium, on grave plus petit on consomme moins mais la limite des 10nm approche à grands pas ! D'une génération à l'autre on gagne actuellement Difficilement (CPU) 15% de perf en plus ! Vous souvenez-vous de l'époque ou chaque CPU nouvelle génération était près de deux fois plus puissante que celui d'il y a deux ans ?
Donc on peu optimiser, réduire un peu la conso mais on stagne dans ce domaine et je pense personnellement que (à moins révolution majeure comme CPU quantique ou en carbone) si on reste sur du Silicium dans 30ans on n'aura pas la puissance d'un Tianhe-2 (sans vouloir jouer à Nostradamus). Car les limites physiques du support même sont la : OK on à gravé au plus petit, OK on consomme moins, OK on optimise, mais avec ce matériau on ne peux faire plus. Et vu comme ça vous vous voyez dans 30ans un PC avec 18000CPU tout ça car chaque CPU est Silicium Limited© ? Donc soit on stagne soit on fait un bon de géant avec un nouveau matériau CQFD (ceci est un avis purement personnel =) )
Dernier exemple : Prenez le CPU Desktop top moumoute l'Intel 4960X à 1000boules, est bien ce CPU sera largement suffisant pour JOUER pendant les 5 voir 10 prochaines années ! La génération d'avant était au mieux 15% moins perfomante...
par Un ragoteur qui se tâte d'Ile-de-France, le Jeudi 21 Novembre 2013 à 22h11  
par Un ragoteur qui draille de Lorraine le Jeudi 21 Novembre 2013 à 21h50
Je doute que dans 10-15 tes 2 petites éoliennes au fond du jardin ne produise les MW nécessaires
Le Cray-2 réclamait 100 KW pour faire fonctionner 2 à 4 proc à 283 MHz, m'étonnerait pas que pour avoir la puissance d'un Titan faudra beaucoup moins qu'à l'heure actuelle, surtout si on ne prend pas en compte la même quantité au niveau des supports de stockage.
Le truc c'est que les premiers supercalculateurs avaient encore beaucoup d'innovations à implémenter pour optimiser leurs besoins en ressources et évidemment leur puissance.
De nos jours nous sommes arrivés à certaines limites et il est clair que nous ne verrons plus ce genre de comparaisons entre matos individuel et les mastodontes les plus puissants d'une époque sauf peut-être avec de très longues années d'écarts.
par Un ragoteur qui draille de Lorraine, le Jeudi 21 Novembre 2013 à 21h50  
nécessaires
par Nanabozo732 le Jeudi 21 Novembre 2013 à 20h50
Dans 10-15 ans il est fort probable qu'un particulier bien équipé ait du matériel presque aussi puissant que l'un des 100 plus puissants supercalculateurs actuels.
Mais y'a un moment où on tombera sur une grosse limite car pour avoir chez soi ce qu'offrent les super-ordinateurs il faudra que la puissance des composants évolue de manière quasi-exponentielle.
Et un paradoxe apparaitra, si les supercalculateurs de demain sont composés de composants des centaines ou des milliers de fois plus puissants que ceux d'aujourd'hui on ne pourra pas perpétuellement les battre avec du matos domestique.
Surtout si on continue à en assembler des de plus en plus gros avec de plus en plus de composants.
Je doute que dans 10-15 tes 2 petites éoliennes au fond du jardin ne produise les MW nécessaires
par Un vieux ragoteur de Rhone-Alpes, le Jeudi 21 Novembre 2013 à 21h47  
par Un ragoteur qui draille d'Ile-de-France le Jeudi 21 Novembre 2013 à 20h32
à la maison (gtx 690 sous H²O - 1300mhz +7 de T/flops ) j'ai plus de puissance de calcul qu'un qu'un supercalculateur de 2001...

le brute force et le denis de services n'est pas reservé aux chinois

TOP SUPERCOMPUTER NOV 2001
http://www.top500.org/lists/2001/11/
en même temps en 2001, internet ca existait quasiment pas, c'est sur qu'il y avait deni de service même avec un modem 56K et un pov pentium 2 plu TNT......m'enfin, on faisait tourner Half-Life; Que demande le peuple ?
par Nanabozo732, le Jeudi 21 Novembre 2013 à 20h50  
par Un ragoteur qui draille d'Ile-de-France le Jeudi 21 Novembre 2013 à 20h32
à la maison (gtx 690 sous H²O - 1300mhz +7 de T/flops ) j'ai plus de puissance de calcul qu'un qu'un supercalculateur de 2001...
Dans 10-15 ans il est fort probable qu'un particulier bien équipé ait du matériel presque aussi puissant que l'un des 100 plus puissants supercalculateurs actuels.
Mais y'a un moment où on tombera sur une grosse limite car pour avoir chez soi ce qu'offrent les super-ordinateurs il faudra que la puissance des composants évolue de manière quasi-exponentielle.
Et un paradoxe apparaitra, si les supercalculateurs de demain sont composés de composants des centaines ou des milliers de fois plus puissants que ceux d'aujourd'hui on ne pourra pas perpétuellement les battre avec du matos domestique.
Surtout si on continue à en assembler des de plus en plus gros avec de plus en plus de composants.
par Un ragoteur qui draille d'Ile-de-France, le Jeudi 21 Novembre 2013 à 20h32  
à la maison (gtx 690 sous H²O - 1300mhz +7 de T/flops ) j'ai plus de puissance de calcul qu'un qu'un supercalculateur de 2001...

le brute force et le denis de services n'est pas reservé aux chinois

TOP SUPERCOMPUTER NOV 2001
http://www.top500.org/lists/2001/11/
par Un ragoteur foufou de Provence-Alpes-Cote d'Azur, le Jeudi 21 Novembre 2013 à 20h15  
ayé j'ai capté l'equation des markéteux de chez nvidiou: k20+20%= k40!!!
tjs aussi puissants les verts...
par Alandu14, le Jeudi 21 Novembre 2013 à 18h06  
Je dois avouer être surpris de l'utilisation du GPU pour gérer des bases de données, bien qu'après généralement ce soit pleins de petites requêtes, ce à quoi la multiplication des coeurs doit être très pratique.
A voir s'ils arrivent à rendre les performances/watts intéressantes face aux concurrents !