Le Process in Memory, ou PIM, est une des directions possibles pour prolonger une augmentation des performances des processeurs proche des prévisions de Moore. Dans le principe, rien de bien foufou : donner à la mémoire quelques capacités de prétraitement des informations, histoire d’accélérer la vitesse du bousin. En fait, le bénéfice est double : d’une part, le CPU se retrouve déchargé de ces opérations, permettant d’économiser quelques précieux cycles ; mais il se trouve que la structure de la mémoire permet parfois (en particulier sur la DDR) de réaliser certaines opérations plus facilement que sur processeur, comprenez par là avec moins d’énergie par des circuits moins généralistes.

 

Si l’idée plane depuis quelque temps dans la recherche académique, Samsung est les premiers à en avoir fait un produit disponible librement aux industriels avec la HBM-PIM, orientée IA également connue sous le nom de code de leur puce, Aquabolt XL. Cependant, depuis son annonce officielle, peu de données avaient été communiquées sur les performances... jusqu’aux Hot Chips 2021, une conférence ayant eu lieu le 22-23 août dernier. À cette occasion, la firme a montré un système intégrant cette fameuse HBM, basé sur un FPGA de chez XILINX — encore eux —, plus précisément un Virtex Ultrascale+ Alveo dédié à l’IA. En interne, les capacités de calcul de la mémoire sont pourtant limitées : addition et multiplication sur des données 16-bit, et c’est tout ! Or, vu que les réseaux de neurones ne réalisent quasiment que ces opérations, les performances sont bien au rendez-vous.

 

Déporter des calculs en mémoire ? Pourquoi faire ? [cliquer pour agrandir]

Réduire les mouvements de données : le B.A.-BA du PIM

 

Les résultats ont été sans appel : sur un réseau de neurones récurrents servant à de la reconnaissance vocale, le bousin a été 2,5 fois plus rapide et a économisé 62 % de sa consommation énergétique par rapport à une version sans PIM. Il faut dire que l’ajout des unités de calcul n’augmente que de 5,4 % la consommation totale de la puce de RAM, rendant leur Aquabolt XL intégrable exactement de la même manière que la HBM2 standard dont elle reprend les grandes lignes. Avec une intégration de masse prévue pour 2022 (les premiers exemplaires de test étant livrés en ce moment même aux partenaires), Samsung espère bien inonder le marché avant la concurrence.

 

En pratique, comment cela rend-il ? [cliquer pour agrandir]

 

Reste à voir si cela va convaincre les industriels et, pourquoi pas, arriver un jour dans des modules DDR ou des SoC de smartphone/tablettes pour toujours plus de performances ? Car une version LPDDR5 serait à l’étude, ce qui permettrait de voir la technologie débarquer pour le grand public plus tôt que prévu... (Source : IEEE Spectrum)


Un poil avant ?

Les prix des CPU Alder Lake en fuite, fuite des capitaux surtout !

Un peu plus tard ...

EVGA blâme de mauvaises soudures pour les RTX 3090 mortes sous New World

1 pauvre ragot
Les ragots sont actuellement
ouverts à tous, c'est open bar !