COMPTOIR
register

L'IA et le hardware : et si tout était à recommencer ?

Si l'IA cartonne bien sur les cartes graphiques du fait de leur architecture massivement parallèle, ce n'est pas pour autant qu'elles sont les plus adaptées pour ce job. En effet, nombreux sont les chercheurs qui doutent de la capacité des serveurs actuels à traiter massivement les données inhérentes aux problématiques d'apprentissage automatisé ; le fameux machine learning dont les entreprises raffolent à l'heure actuelle. Non pas que la marge de progression soit totalement rognée, mais il s'agirait en fait d'une faiblesse structurelle de nos machine.

 

En effet, toutes les puces actuelles sont construites suivant un même modèle logique abstrait : une ou plusieurs unités de traitement, reliées à une unique mémoire centrale accessible à tous. Ce modèle est appelé Architecture de Von Neumann en référence à son créateur (mort en 1957, c'est dire l'ancienneté du principe). Si des caches ou des mémoires dédiées ont bien été développés depuis (on pense notamment à la VRAM des cartes graphique ou les cache L1/L2/L3 CPU), il est toujours nécessaire de passer par un bus pour synchroniser les données avec la RAM globale.

 

architecture pour ia

Si c'était trop simple, voilà de quoi vous perdre !

 

Or les réseaux de neurones n'ont pas besoin de tels mécanismes. En fait, il suffit d'une mémoire locale privée à chaque unité de calcul pour retenir les poids des différentes entrées du neurone : on se passe ainsi d'un coûteux accès RAM qui, en plus d'utiliser ce bus global pouvant être encombré, doit sortir du silicium de la puce pour contacter les barrettes, autant vous dire que cela est coûteux en temps comme en énergie.

 

Le problème est tel que An Chen, un docteur (en informatique !) employé par IBM assigné à la Nanoelectronics Research Initiative va même jusqu'à déclarer que le transistor CMOS ne serait pas la brique de base idéale pour l'IA, car leur vitesse de fonctionnement est structurellement limitée par un effet capacitif, ce qui augmente également sa consommation d'énergie. Des travaux récents sur les Tunnel-FET - TFET - ainsi que les structures à nanotubes permettraient d'améliorer les choses, mais on est encore loin de la production industrielle.

 

Pour rapprocher le stockage des unités de traitement, les alternatives ne manquent pourtant pas : la HBM est en effet un candidat tout désigné. Dans un avenir plus lointain on pensera à la ReRAM, de la mémoire non volatile basée sur les propriétés conductimétriques d'un matériau ; mais aussi à des mémoires à changement de phase comme la PCM (passage d'un composée d'une phase amorphe à une phase cristalline) ou encore la STT-MRAM, une idée qui utilise quant à elle le spin de particules. Le nec plus ultra de la BX qui tue serait atteint en réussissant à empiler sur l'unité de calcul sa mémoire correspondante, ce qui réduirait l'encombrement et la latence... mais attention à la chauffe !

 

compute in memory nouvelles memoires

Pas tout suivi ? Un petit récap', sauce scientifique toujours !

 

Si tout cela paraît bien charmeur sur papier, gardons en tête que la plupart des idées ne sortent pas des labos fautes de moyens ou de rentabilité trop faiblarde. Par exemple, la STT-MRAM que nous citions précédemment était déjà dans le collimateur de Toshiba il y a un peu plus de quatre ans ! Et même si l'idée de calcul-en-mémoire est séduisante, encore faut-il un système, une API et le coûteux investissement qui leur est lié, pour un rentabilité encore incertaine, ce qui doit avoir de quoi refroidir les géants des semi-conducteurs actuels. On en reparle dans 20 ans ?(Source : SemiEngineering)

Un poil avant ?

Seulement 12 cartes mères Z390 à l'horizon chez GIGABYTE ?

Un peu plus tard ...

Test • AMD Ryzen Threadripper 2950X / 2990WX

Les 9 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par PapaGrosNouNours, le Mercredi 22 Août 2018 à 06h00  
par Pascal M. le Lundi 20 Août 2018 à 08h41
Tu es tout pardonné, tout ce qui complète l'info sus traitée est bonne à prendre, et encore plus lorsquue c'est bien écrit
Merci . . .
par Pascal M., le Lundi 20 Août 2018 à 08h41  
par PapaGrosNouNours le Lundi 20 Août 2018 à 07h41
Tu es tout pardonné, tout ce qui complète l'info sus traitée est bonne à prendre, et encore plus lorsquue c'est bien écrit
par PapaGrosNouNours, le Lundi 20 Août 2018 à 07h41  
Bonjour,

Si j'ai bien aimé, globalement, cet article, j'avoue avoir été chagriné par la lecture de cette phrase : « Ce modèle est appelé Architecture de Von Neumann en référence à son créateur (mort en 1957, c'est dire l'ancienneté du principe) .»

En effet, je pense que Von Neumann mérite beaucoup mieux que cette évocation assez inappropriée de « l'ancienneté du principe de l'architecture éponyme ».
J'encourage le lecteur à consulter l'article de Wikipédia qui lui est consacré.

Tiré de cet article, on retiendra :
« John von Neumann, né Neumann János Lajos en 1903 à Budapest et mort en 1957 à Washington, est un mathématicien et physicien américano-hongrois. Il a apporté d'importantes contributions tant en mécanique quantique qu'en analyse fonctionnelle, en théorie des ensembles, en informatique, en sciences économiques ainsi que dans beaucoup d'autres domaines des mathématiques et de la physique. Il a de plus participé aux programmes militaires américains. »

==> Il est aussi intéressant de savoir que John von Neumann attribuait en fait « son » architecture à Alan Turing (dont la vie montre comment l'État britannique peut (pouvait?) « assassiner » ses héros.).

Quant à l'ancienneté du principe, qui devient encore plus « vieux » si on le fait remonter à Turing, que dire alors de celui de la mécanique classique, qui nous fait remonter à Isaac Newton (1642-1727), mécanique qui fonde la physique newtonienne que nous utilisons toujours aujourd'hui dans la vie courante pour sa simplicité, sa facilité et son efficacité.

Et pour finir, veuillez excuser ce ragot un peu longuet, perpétré évidemment par un « vieux con », qui restera toujours un homme de la seconde moitié du 20ème siècle!

« BIZOUX » à TOUS
par Nicolas D., le Lundi 13 Août 2018 à 20h46  
par Hamster1er le Lundi 13 Août 2018 à 19h14
Mais c'est valable pour le Machine/Deep learning uniquement ça, ou pour tous type de calculs ?
Faudrait pas non plus se faire sucrer sur des applications "non-IA".

Enfin je me doute que des gens plus malins que moi y réfléchissent
Plutôt que pour du deep learning. Avec des grandes moufles, ça se comparerait bien aux carte graphiques, tout le monde n'en a pas, mais pour ceux qui en ont besoin c'est bien utile
par Hamster1er, le Lundi 13 Août 2018 à 19h14  
Mais c'est valable pour le Machine/Deep learning uniquement ça, ou pour tous type de calculs ?
Faudrait pas non plus se faire sucrer sur des applications "non-IA".

Enfin je me doute que des gens plus malins que moi y réfléchissent
par Un ragoteur qui aime les en Bourgogne-Franche-Comté, le Lundi 13 Août 2018 à 17h53  
J'imagine plus des sociétés chinoises qui tentent de faire le propre proc ( surtout qu'il y a des tensions commerciales avec les USA) repenser tout de zero pour leur nouveau produit plutôt qu'intel qui ne bougera que quand il ne pourra plus faire autrement.

On verra bien . Mais oui , on commence à atteindre les limites . Comme on a pas pu augmenter la fréquence on a mis plus de coeur , mais le nombre de coeur utile n'est pas forcément illimité et comme ça a été dit ,la gravure ne devrait plus diminuer éternellement.
par Cristallix, le Lundi 13 Août 2018 à 13h44  
Il va bien falloir se bouger un jour car on atteint la limite de gravure. Ça peut être un relais pour accroitre la puissance des PC.
par angelofsoul, le Lundi 13 Août 2018 à 12h06  
par Xorg le Lundi 13 Août 2018 à 11h49
Oui, c'est vrai que l'architecture de Von Neumann date, et ça ne m'étonnera pas de voir une nouvelle architecture débarquer. Mais c'est effectivement toute la difficulté : repartir de (presque) zéro.
Allez, ce n'est pas pour demain non plus.
ça peut aller bien plus vite que tu ne penses. Je travaille dans une équipe ou l'on cherche à implémenter des ReRAM en réseau pour effectuer du calcul parallèle. Nos méthodes de fabrication sont basé sur des techniques communes à l'industrie. Après je ne peux pas en parler beaucoup plus vu qu'il y a des intérêts financier dedans.
Mais vu le nombre de publi existante sur le sujet, l'engouement et le budget recherche, on peut avoir les premières puces possiblement d'ici 5 ans. Après ce ne sera pas pour du grand public mais les grandes entreprises sont très intéressé surtout celles utilisant des algorithmes de machine learning.
Toutefois, il faut savoir que ce système ne serait efficace que dans une catégorie de problèmes de types matriciels. Tout ce qui est calcul binaire est bien plus rapide sur une architecture de Von Neumann.
par Xorg, le Lundi 13 Août 2018 à 11h49  
Oui, c'est vrai que l'architecture de Von Neumann date, et ça ne m'étonnera pas de voir une nouvelle architecture débarquer. Mais c'est effectivement toute la difficulté : repartir de (presque) zéro.
Allez, ce n'est pas pour demain non plus.