NVIDIA a lancé, la semaine dernière, ses accélérateurs GPU A100 PCIe, épaulés par pas moins de 80 gigots de HBM2E, offrant 2 To/s de bande passante mémoire via un bus 5120-bit. Derrière, on retrouve l'A100 finalement sous une forme plus conventionnelle, l'A100 étant déjà lancé sous le format propriétaire SXM2 mais avec 40 Go de mémoire graphique. Bref, la belle est désormais enfichable, et elle vient de l'être dans le nouveau supercalculateur maison HGX A100.

 

nvidia a100 80go pcie

 

Mais pour éviter le plus possible, les goulots d'étranglement, le caméléon a dû mettre au point deux autres technologies. Cela s'appelle NDR 400G InfiniBand Networking, et Magnum IO GPUDirect Storage La première citée permet des débits entre les éléments grâce à des commutateurs Quantum-2, assurant un débit total bidirectionnel de 1.64 Petabits/s. La seconde est un nom pour désigner la possibilité d'offrir un accès entre la mémoire des GPU et le stockage, réduisant les latences et optimisant les accès et traitements. Il faut bien entendu un environnement logiciel adapté, et NVIDIA a su le faire depuis des années, et continue avec cette nouvelle famille de machines.

 

nvidia hgx a100Sous sa forme SXM2

 

Plusieurs acteurs sont déjà signataires, comme DELL, IBM, Micron, Atos, HP Entreprise, Lenovo, MS Azure. En vitrine technologique, l'Université d'Édimbourg a opté pour le HGX A100 de seconde génération, un peu too much pour du Far Cry, mais au pwal pour du supercalculateur.


Un poil avant ?

Faute de CPU, voilà au moins des infos sur le socket LGA1700

Un peu plus tard ...

Un nouveau ProArt 32" plutôt polyvalent arrive chez ASUS

 L'A100 améliorée est incorporée dans le nouveau HGX A100, perfs en hausse, VRAM aussi, sacrée machine pour l'IA 

Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 

afficher plus de prixAffichez donc moi tout, nom de nom
Les 5 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !