COMPTOIR
register

Apple lance son M1 Ultra, au bon goût de chiplets

Hier se tenait la dernière keynote d’Apple, une séance d’autocongratulation live ponctuée d’annonces de nouveaux produits à la vitesse quasi luminique. Entre le nouvel iPad Air, le Studio Display, le Mac Studio, il y avait largement de quoi se perdre... Petit démêlage orienté SoC avec le Comptoir. Hasard du calendrier, cet événement se place peu après la découverte d’un sympathique mod du Mac Mini - qui n’a par ailleurs pas connu de mise à jour en dépit de son alimentation et refroidissement surdimensionné : coïncidence ? Nous ne le croyons point !

 

apple keynote 092017

 

Si, côté iPad, la sauce interne est bien connue puisque le SoC n’est autre que le M1, première puce Arm intégrée dans un MacBook en fin d’année 2020, l’iPhone n’est guère plus croustillant puisqu’il n’est question que d’un nouveau coloris et d’un SE intégrant l’Apple A15 bionic déjà connu. Non, la grande nouveauté de la pomme se situe dans le M1 Ultra, un nouveau SoC de la firme... avec un petit goût de déjà-vu. En effet, tel AMD dévoilant que ses dies Zen 3 avaient été en fait optimisés pour accueillir un 3D V-Cache, Apple avait caché une petite partie de sa puce : un interconnect maison offrant quelques 2,5 Tio/s de bande passante.

 

apple m1 ultra

Un M1 Ultra ? C’est Ultra bien fichu !

 

Pourquoi faire ? Hé bien, relier deux M1 Max ensemble via un interposer afin de produire à plus bas coût une puce à la fois économe et performante, le M1 Ultra : une idée bien en vogue ces temps-ci avec les chiplets des rouges. Et, tout comme les chiplets des rouges, nous émettons quelques réserves sur le scaling des applications sur cette topologie : en gluant ensemble deux SoC, vous obtenez certes deux fois plus de cœurs CPU, de cœurs GPU et de contrôleurs mémoire, mais leur partage n’est pas si évident. Des effets nommés NUMA (côté RAM) et NUCA (pour le cache) peuvent ainsi apparaître comme ce fut le cas sur Zen 1 et son cache distribué entre deux CCX sur les dies Zepplins (plus de précisions à ce sujet par ici !). À l’époque, l’interconnet utilisé, l’Infinity Fabric, était un peu faiblard pour la tâche, d’où des performances en demi-teinte : à voir comment Apple a cuisiné sa sauce sur ce coup et mêlé efficacement architecture et politique de gestion de cette dernière au niveau système. Par contre, au niveau com', c’est parfait : en multipliant le nombre de canaux mémoires supportés, la bande passante maximale est également boostée : de quoi afficher 800 Gbits/s, soit un peu plus que... la RTX 3080. De plus, la distribution de la charge de travail au niveau du GPU doit davantage relever du SLI que des traditionnelles architectures monolithiques ; mais, étant donné la clientèle professionnelle ciblée par le bousin, cela ne devrait pas être trop handicapant.

 

Nommé UltraFusion, cet assemblage de deux dies permet d’offrir le support de 128 Gio de RAM « unifiée » (soudée), un CPU à 20 cœurs comprenant 16 gros (48 Mio de L2 en tout) pour 4 petits (8 Mio de L2 de ce côté), complémenté par un GPU à 64 cœurs maximum (8192 unités d’exécution, pour 21 TFLOPS de puissance brute) et un accélérateur de réseau de neurones à 32 cœurs (22 TOPS annoncés). Pour le reste, les fréquences ne sont pas plus officielles que le reste de la microarchitecture : pour les curieux, c’est niet ! En outre, côté performance, difficile de se prononcer tant la maison-mère sélectionne attentivement ses métriques au moyen de truchements en annonçant les gains maximums et non moyens... Nous bottons donc en touche sur ce sujet, si ce n’est qu’elles devraient être encore supérieures au M1 Pro et Max : encore heureux ! Par contre, le TDP n’est pas dévoilé, et risque de tourner autour de la centaine de Watt en lisant entre les lignes des maigres chiffres disponibles et au vu du refroidissement actif des modèles proposés.

 

apple mac studio 2022

 

Car, puisque cet Apple M1 Ultra n’est pas sur socket, il faut bien l’acheter quelque part : voilà la responsabilité du Mac Studio, une nouvelle machine de la firme ressemblant à un Mac Mini un peu plus haut, pour des performances largement plus grandes, puisqu’intégrant au choix un M1 Max ou un M1 Ultra. Notez la compatibilité Wifi 6, Bluetooth 5 ainsi que l’intégration de 4 ports Thunderbolt 4, 2 USB 3,1 gen 1, le classique Ethernet 10 Gb ainsi qu’un jack optimisé pour les appareils à haute impédance. Rajoutez un port HDMI ainsi que 2 USB 3,1 Type-C sur la façade — Thunderbolt 4 si vous optez pour une version M1 Ultra - et voilà pour ce Mac Studio. Si jamais vous souhaitez vous en procurer un, les tarifs commencent à 2299 € pour une livraison le 18 mars, prix pour lequel vous aurez accès à un M1 Max (10 cœurs CPU + 24 GPU), 32 Gio de VRAM et 512 Gio de SSD. Pour un M1 Ultra, ce ticket d’entrée grimpe à 4 369 € (pour 20 cœurs CPU et 48 GPU), la RAM grimpant elle aussi pour atteindre 64 Gio. Avec toutes les options maxées, vous en aurez pour la bagatelle 9 199 € (et la RAM soudée...) : un bon Mac, ça se mérite !

 

Un poil avant ?

Tout juste lancé, déjà testé, Relic of Life sur les GPU compatibles RT hardware

Un peu plus tard ...

La baisse du prix des CG se poursuit en Allemagne...

Les 64 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Vendredi 18 Mars 2022 à 07h28  
Les derniers essais des rédactions donnent en gros, un M1 Ultra équivalent à une Threadripper 3970X, donc 32 coeurs Zen 2 et la partie GPU, quand on la met au travail, égale à une RTX 3060.

Donc GPU franchement pas au niveau annoncé (mais en gros 1/4 de ce qui est annoncé ) mais la partie CPU pas mal, même si annoncée au niveau d'un Threadripper 5995WX (donc seulement moitié moins performante qu'annoncée).

Mais j'imagine que les fans Apple ne liront que ce que Apple leur annonce. Ca rappelle les décollement de rétine quand on regardait les graphiques made in Apple qui comparaient les PowerPC qui laminaient tout sur leur passage, notamment les X86.
par Helba, le Mercredi 16 Mars 2022 à 21h30  
par Jemporte le Mercredi 16 Mars 2022 à 13h53
C'est pas idiot sa comparaison. Le CPU ARM de l'époque faisait aussi bien que les X86, en étant directement 32 bits, malgré une gravure de techno inférieure et grâce à une taille de chips sensiblement moindre. C'était une preuve que le RISC permettait des économiques sur le CISC.
ça dépend de quoi en parle , dans les années 80 , le M68000 était bien plus puissant qu'un x86 (pareil pour ARM et MIPS qui ont suivis).

La grosse différence s'est surtout creusé vers la fin des années 90 (avec le Pentium 2) avant le x86 était soit moins bon , soit équivalent a certain proc.
par Jemporte le Mercredi 16 Mars 2022 à 13h53
Les autres architectures n'ont jamais égalé les exploits des Dec Alpha depuis leur abandon
Les PowerPC était bien meilleurs que les Pentium 2 et 3 donc non , on va dire que c'est Pentium 4 et les core duo , qui a laissé Intel sans concurrent.

Mais la cause est à mon avis surtout le manque de marché des gros CPU , vendre des processeurs performant c'est coûteux et manque de marché , difficile de mettre de l'argent et des efforts sur ce créneaux là.
(sauf pour Intel et AMD qui peuvent profiter du marché du PC ).
par Un #ragoteur connecté de Bretagne le Lundi 14 Mars 2022 à 16h23
Dans le texte : "Supérieur en termes de puissance face à ses rivaux les Atari ST d'Atari et Amiga 500 de Commodore, et PC et Apple de l'époque, l'Archimedes ne connaîtra pas de succès auprès du grand public
Disons que son marché réduit + son coûts élevé n'ont pas aidé non plus .
par Un ragoteur de transit du Centre-Val de Loire, le Mercredi 16 Mars 2022 à 16h14  
par Jemporte le Mercredi 16 Mars 2022 à 14h00
Aucun problème avec Windows 7 et MacOS, mais Windows 10 c'est une galère pour tout le monde y compris les vieux. L'évolution de Windows n'y est pas, du moins pas dans le bon sens depuis W10. Et W11 n'en prend pas le chemin non plus.
Le problème ce sont aussi les outils de développement et la rétrocompatibilité très à avantage de Windows.

La base de MacOS (et d'Apple en général) c'est une base de fans. La base (inébranlable) de Windows c'est une base liée à la rétrocompatibilité. Il n'y a rien d'étonnant à ce que M$ rate tout (ou du moins ait moins de succès) dès qu'on sort du cadre Windows.
tu connais tout le monde?tu te prends pour Jupiter?

j'ai jamais eu le moindre problème avec windows 10 alors que que parfois j'avais des écrans bleus avec windows 7 avec la meme configuration.

tu expliques ça comment?

et puis windows 10 est obligatoire ,tout comme certains drivers, pour faire tourner certains jeux.
par Jemporte, le Mercredi 16 Mars 2022 à 14h00  
par Scrabble le Samedi 12 Mars 2022 à 14h29
Non, mais moi ça fait depuis Windows 95, que je suis sous Windows
Et j'ai initié ma tante de 75 ans à Windows (Elle en a 80 maintenant), et elle s'en sort très bien
Windows a beaucoup progressé en matière de simplicité d'utilisation, depuis 25 ans
Mais n'empêche que le Mac, c'est le top pour quelqu'un qui ne veut pas mettre les mains dans le cambouis
Aucun problème avec Windows 7 et MacOS, mais Windows 10 c'est une galère pour tout le monde y compris les vieux. L'évolution de Windows n'y est pas, du moins pas dans le bon sens depuis W10. Et W11 n'en prend pas le chemin non plus.
Le problème ce sont aussi les outils de développement et la rétrocompatibilité très à avantage de Windows.

La base de MacOS (et d'Apple en général) c'est une base de fans. La base (inébranlable) de Windows c'est une base liée à la rétrocompatibilité. Il n'y a rien d'étonnant à ce que M$ rate tout (ou du moins ait moins de succès) dès qu'on sort du cadre Windows.
par Jemporte, le Mercredi 16 Mars 2022 à 13h53  
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes le Lundi 14 Mars 2022 à 14h20
C'est juste absurde de comparer un processeur de 1987 avec un CPU superscalaire out-of-order haute perf. qui decode 8 instruction par cycle, très large, qui peut avoir jusqu'à plus de 2000 instructions dans le ROB et peut retire jusqu'à 56 instructions par cycle, etc.

Le seul point commun c'est que c'est sur desktop, mais même le desktop en question n'a rien a voir avec les desktop moderne.
C'est pas idiot sa comparaison. Le CPU ARM de l'époque faisait aussi bien que les X86, en étant directement 32 bits, malgré une gravure de techno inférieure et grâce à une taille de chips sensiblement moindre. C'était une preuve que le RISC permettait des économiques sur le CISC.
Mais l'évolution de la complexité des traitements des processeurs a rapproché les deux. Ca n'empêche que le principe du Risc a gardé une part d'économie qu'on appliquera au niveau qu'on voudra. Il faut aussi savoir que l'architecture de bas niveau des X86 contient des éléments risc qui ne la différencie plus beaucoup.
Les premiers chips qui ont profité d'une architecture Risc pour vraiment dépasser le X86, en pointe et même de beaucoup, c'était l'architecture Dec Alpha (plus de deux fois plus rapides en monothread en flottants, et 1.5x plus en entiers du temps de la concurrence face aux Pentium).
Les autres architectures n'ont jamais égalé les exploits des Dec Alpha depuis leur abandon, y compris l'usine à gaz Itanium d'Intel.
par ockiller en Auvergne-Rhône-Alpes, le Mercredi 16 Mars 2022 à 08h55  
Certes, c'est cool, mais il faut réaliser aussi qu'à part la philosophie RISC, il n'y a aucun lien entre les premiers CPU ARM et ceux de ces 10 dernières années. Et la philosophie RISC n'a pas été inventée par ARM non plus. Ceci dit ton article est très intéressant pour voir ce que pouvait apporter le RISC à l'époque, qui était une véritable révolution dans le design des CPU.
par Un #ragoteur connecté de Bretagne, le Lundi 14 Mars 2022 à 16h23  
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes le Lundi 14 Mars 2022 à 14h20
C'est juste absurde de comparer un processeur de 1987 avec un CPU superscalaire out-of-order haute perf. qui decode 8 instruction par cycle, très large, qui peut avoir jusqu'à plus de 2000 instructions dans le ROB et peut retire jusqu'à 56 instructions par cycle, etc.

Le seul point commun c'est que c'est sur desktop, mais même le desktop en question n'a rien a voir avec les desktop moderne.
Monté sur ses grands chevaux est aussi absurde. Là je te parle de la naissance de l'architecture Arm qui était à la base conçu pour un desktop. Et il faut le comparer au machine de l'époque.
Dans le texte : "Supérieur en termes de puissance face à ses rivaux les Atari ST d'Atari et Amiga 500 de Commodore, et PC et Apple de l'époque, l'Archimedes ne connaîtra pas de succès auprès du grand public". Moi, cette machine m'a fait rêver par sa puissance. Un peu d'histoire de la naissance d'ARM ne fait pas de mal
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Lundi 14 Mars 2022 à 14h20  
par Un ragoteur blond de Bretagne le Lundi 14 Mars 2022 à 13h01
Ne pas oublier que l'architecture Arm est née avec un Ordinateur de bureau. Apple n'a rien inventé
Acorn Archimedes
C'est juste absurde de comparer un processeur de 1987 avec un CPU superscalaire out-of-order haute perf. qui decode 8 instruction par cycle, très large, qui peut avoir jusqu'à plus de 2000 instructions dans le ROB et peut retire jusqu'à 56 instructions par cycle, etc.

Le seul point commun c'est que c'est sur desktop, mais même le desktop en question n'a rien a voir avec les desktop moderne.
par Un ragoteur blond de Bretagne, le Lundi 14 Mars 2022 à 13h01  
Ne pas oublier que l'architecture Arm est née avec un Ordinateur de bureau. Apple n'a rien inventé
Acorn Archimedes
par Scrabble, le Samedi 12 Mars 2022 à 14h29  
par Un ragoteur sans nom en Île-de-France le Samedi 12 Mars 2022 à 13h21
Qui ?Scrabble à pas tord?
Rien ne l'empêche de stopper Windows si il n'y arrive pas.
Après explication basique un gamin qui sait lire est capable de se servir de Windows,d'apprendre très vite et de faire beaucoup de choses.
Beaucoup de logiciels sont très simples maintenant.
Non, mais moi ça fait depuis Windows 95, que je suis sous Windows
Et j'ai initié ma tante de 75 ans à Windows (Elle en a 80 maintenant), et elle s'en sort très bien
Windows a beaucoup progressé en matière de simplicité d'utilisation, depuis 25 ans
Mais n'empêche que le Mac, c'est le top pour quelqu'un qui ne veut pas mettre les mains dans le cambouis
par Un ragoteur sans nom en Île-de-France, le Samedi 12 Mars 2022 à 13h21  
par Pascal M. le Samedi 12 Mars 2022 à 12h03
pour le coup il n'a pas tord, l'une des grande force de l'écosystème apple a été historiquement de rendre les choses très intuitives, que ce soit leurs OSs ou leurs appareils. D'ailleurs toute l'industrie a tenté de les pomper, avec plus ou moins de réussite. W11 en est une belle illustration. C'est aussi une de leur faiblesse, car en fermant ces derniers, les possibilités en sont restreintes.. et parlent donc moins au clients + experts.
Qui ?Scrabble à pas tord?

Rien ne l'empêche de stopper Windows si il n'y arrive pas.

Après explication basique un gamin qui sait lire est capable de se servir de Windows,d'apprendre très vite et de faire beaucoup de choses.
Beaucoup de logiciels sont très simples maintenant.

.

par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Samedi 12 Mars 2022 à 12h32  
par Un #ragoteur connecté d'Occitanie le Vendredi 11 Mars 2022 à 10h13
Je parle des perfs du M1 dans son ensemble
Bah.. non, tu parlais explicitement du CPU et je réponds explicitement sur le CPU. Pour plusieurs raisons simples: Le GPU et le CPU se sont 2 sujets très différents, je n'ai pas pas étudié la uarch du GPU donc je n'en parle pas, mixer les sujets comme ça ne permet pas d'arriver à des conclusions fiables. En faite au mieux ça sert à cacher son incompétence
 
Cela reste à voir car du code opti en arm, faudrait pouvoir comparer avec le même code mais tout aussi optimisé en x86 et donc avec exactement le même degré d'optimisation. Malheureusement, cela n'existe pas car personne ne connait le dégré d'optimisation de chaque logiciel sur les archis.
Bah non, on a une très bonne idée de la question. Quand on parle d'opti on parle surtout:
Qualité du compilo, et x86 profite de bien plus d'effort sur la compile;
Utilisation des extensions comme le SIMD, et le SIMD x86 est très largement utilisé
 
Je sors ce que j'ai trouvé car il y a peu de test sur ça. Pas ma faut s'ils vont dans mon sens
Quelle malhonnêteté intellectuelle incroyable... Il n'y a rien qui va dans ce que tu dis: La plupart des benchs qu'on trouve ne vont pas dans ton sens, les benchs que tu cites ne vont pas dans ton sens, et tu as explicitement mis de coté des benchs qui ne vont pas dans ton sens

Je vois là une très bonne illustration de ce que dis Helba. Vous avez une haine anti-apple (que je partage moi aussi) et vous n'arrivez donc pas à accepter qu'ils puissent faire des bons CPU. Vous cherchez donc tout ce que vous pouvez pour prouver votre thèse. Sauf qu'elle est juste fausse.