COMPTOIR
register

Du hardware chez Tesla pour les voitures autonomes

Alors que les concepteurs de puces se battent au concours de qui à la plus grosse (en transistor) et la plus fine (en gravure), ce n'est pas toujours ce que l'industrie attend. En effet, côté automobile, un secteur désormais aussi mature que la chevelure de Pascal, le concept utopique il y a quelques années seulement de voiture autonome commence à prendre forme.

 

Dans la course, Tesla, dirigé par le célèbre Elon Musk, qui en dépit de forte baisse sur le dernier trimestre (il serait question d'une diminution de 31% des ventes par rapport au trimestre précédent !) a récemment dévoilé ses puces à destination de ses véhicules à conduite automatique. Suivant sa politique de construction de bout en bout, c'est par une conception 100% maison que le bouzin a vu le jour. Il s'agirait tout bonnement de la plus grande puissance de calcul jamais intégrée dans un véhicule avec 144 TOPS dans 72 W, pas mal ! Si la comparaison avec la nouvelle GTX 1650 (75W pour un maximum de 6 TFLOPS) semble directe, cela est inapproprié : la GTX propose sa puissance en FP16, alors que l'unité des opérations de ces 144 TOPS (sans F !) n'est pas précisée.

 

En revanche, nous connaissons les processus de fabrication de la bête : du 14 nm Samsung made in USA (usine d'Austin au Texas) pour quelques 6 milliards de transistors dans 260 mm², similairement à une RX 590 (232 mm² pour 5,7 milliards de transistors). À l'intérieur, deux accélérateurs neuronaux pas si différents de la plateforme NVIDIA Xavier, capables de fournir 9 216 MAC/s (multiplication-accumulation par seconde) chacun, et deux puces seront intégrées pour chaque voiture soit 4 accélérateurs distincts en tout ! Toujours pour chaque trukaneurones, 4 Mo de SRAM seront intégrés et le tout moulinera à 2 GHz. Les Teslas n'auront donc pas que des chevaux sous le capot.

 

tesla computer module

Le PCB nu de la belle

 

Pour ce qui est de la pile logicielle, un algorithme top-secret est développé dans la base souterraine d'Elon et devrait être incorporé dans leurs machines à l'horizon 2020. Si la firme annonce une armée de "robots-taxis", nous nous doutons que la réalité sera davantage nuancée - et plus encore dans nos contrées européennes, d'autant plus que cette puce ne servira encore qu'à l'assistance à la conduite, et non celle 100% automatisée qui est le saint Graal actuel. Néanmoins, en piochant dans la partie fortunée de la population, voilà une invention qui devrait trouver acquéreurs ! (Source : EETimes)

Un poil avant ?

Le R7 2700X 50th Anniversary se dévoile un peu plus, comment dire...

Un peu plus tard ...

Fractal complète son catalogue avec un S2 et du moulin

Les 9 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Le Comptable, le Vendredi 26 Avril 2019 à 09h23  
Pas grand chose à dire sur l'info, mais l'article est très bien rédigé
par Zoroastre, le Jeudi 25 Avril 2019 à 17h57  
par Un ragoteur qui draille en Île-de-France le Jeudi 25 Avril 2019 à 14h37
Leur problème à Tesla, c'était la mono-caméra dirigée par l'IA. Le résultat ça a été un de leur fan qui a foncé tout droit dans un camion blanc (RIP ).
Nvidia tourne semble-t-il sur tout ce qui est allemand et très certainement sur les Peugeot. Renault a racheté la division française d'Intel dans l'automobile et développe, à priori, son propre hardware et software d'auto-pilotage (ils sont à priori sur un "Fork" Intel). Je remarque d'ailleurs que ces systèmes marchent beaucoup mieux chez Renault que chez Peugeot (Nvidia). Audi (Nvidia), étonnamment, est doté des fonctions les plus avancées, mais je ne sais pas si elles marchent bien.

Les GPU sont généralement dédiés au calcul flottant (du moins avant optimisation Raytrace et Tenseurs).
Pour info, les Turing GTX 1650, même si ça parait plus trivial, n'ont qu'une capacité Int32 équivalente au FP32, donc 2 fois inférieure au FP16 affiché à 6 TFlops, donc 3 Tops. Les AMD ont 1/4 en Int 32 par rapport au FP32, soit environ 1.5 Tops pour Vega et 0.75 Tops pour le gros Polaris.
Le truc c'est que souvent, les algorithmes sont plus efficaces en flottants, mais pas au niveau des IA qui se contentent d'entiers, et alors le hardware optimisé peut faire beaucoup plus de calcul dessus parce qu'en général les opérations sont moins complexes.
Il y a eu aussi l'histoire de la mamie qui s'était fait rouler dessus au calme par une tesla équipé de la platfome IA nvidia. Je suppose que pour eux ça commençait a faire beaucoup

Édit : C'était pas une Tesla mais un véhicule Uber équipé en nvidia
par Un ragoteur qui aime les en Île-de-France, le Jeudi 25 Avril 2019 à 16h05  
par Un ragoteur qui draille en Île-de-France le Jeudi 25 Avril 2019 à 14h49
"l'unité des opérations de ces 144 TOPS (sans F !) n'est pas précisée"
Effectivement, ce serait intéressant, car ça explose les capacités des GPU actuels. Je pense qu'ils s'agit d'Int32 car la RTX 2080 Ti, à peine plus grosse gère par son quart de GPU dédié IA à priori plus de 100 Tops mais en Int 8.
Turing semble par ailleurs afficher une problème de vitesse de Vram qui castre littéralement ses perfs pour ceux qui voudraient profiter du maximum d'opérations sur ses unités spécialisés. Ces unités doivent fondre leur usage dans un algorythme complexe pour pouvoir être utilisées à plein. Il y a donc fort à parier que ces chips soit gèrent un bus mémoire énorme, soit embarquent eux-mêmes une mémoire très rapide, ou bien une autre solution. On remarque 4 puces presque accolées à chacun des deux 2 chips, un peu comme la HBM2 sur la Radeon VII. On peut se demander s'il y a moyen d'installer de la HBM de cette manière, un peu plus éloignée et avec des soudures "normales".
Ce doit être des Deep Learning OPS comme on dit maintenant... (un add ou un MAC en int8)
par Scrabble, le Jeudi 25 Avril 2019 à 15h25  
Tesla va bientôt faire faillite, et cela signera le début de la crise financière mondiale de 2019.
par Un ragoteur qui draille en Île-de-France, le Jeudi 25 Avril 2019 à 14h49  
"l'unité des opérations de ces 144 TOPS (sans F !) n'est pas précisée"
Effectivement, ce serait intéressant, car ça explose les capacités des GPU actuels. Je pense qu'ils s'agit d'Int32 car la RTX 2080 Ti, à peine plus grosse gère par son quart de GPU dédié IA à priori plus de 100 Tops mais en Int 8.
Turing semble par ailleurs afficher une problème de vitesse de Vram qui castre littéralement ses perfs pour ceux qui voudraient profiter du maximum d'opérations sur ses unités spécialisés. Ces unités doivent fondre leur usage dans un algorythme complexe pour pouvoir être utilisées à plein. Il y a donc fort à parier que ces chips soit gèrent un bus mémoire énorme, soit embarquent eux-mêmes une mémoire très rapide, ou bien une autre solution. On remarque 4 puces presque accolées à chacun des deux 2 chips, un peu comme la HBM2 sur la Radeon VII. On peut se demander s'il y a moyen d'installer de la HBM de cette manière, un peu plus éloignée et avec des soudures "normales".
par Un ragoteur qui draille en Île-de-France, le Jeudi 25 Avril 2019 à 14h37  
par Zoroastre le Jeudi 25 Avril 2019 à 13h33

Ils avaient déjà abandonné nvidia pour Intel en 2017
Leur problème à Tesla, c'était la mono-caméra dirigée par l'IA. Le résultat ça a été un de leur fan qui a foncé tout droit dans un camion blanc (RIP ).
Nvidia tourne semble-t-il sur tout ce qui est allemand et très certainement sur les Peugeot. Renault a racheté la division française d'Intel dans l'automobile et développe, à priori, son propre hardware et software d'auto-pilotage (ils sont à priori sur un "Fork" Intel). Je remarque d'ailleurs que ces systèmes marchent beaucoup mieux chez Renault que chez Peugeot (Nvidia). Audi (Nvidia), étonnamment, est doté des fonctions les plus avancées, mais je ne sais pas si elles marchent bien.

Les GPU sont généralement dédiés au calcul flottant (du moins avant optimisation Raytrace et Tenseurs).
Pour info, les Turing GTX 1650, même si ça parait plus trivial, n'ont qu'une capacité Int32 équivalente au FP32, donc 2 fois inférieure au FP16 affiché à 6 TFlops, donc 3 Tops. Les AMD ont 1/4 en Int 32 par rapport au FP32, soit environ 1.5 Tops pour Vega et 0.75 Tops pour le gros Polaris.
Le truc c'est que souvent, les algorithmes sont plus efficaces en flottants, mais pas au niveau des IA qui se contentent d'entiers, et alors le hardware optimisé peut faire beaucoup plus de calcul dessus parce qu'en général les opérations sont moins complexes.
par Zoroastre, le Jeudi 25 Avril 2019 à 13h33  
par Un ragoteur de transit en Auvergne-Rhône-Alpes le Jeudi 25 Avril 2019 à 12h46
Pourquoi ne pas dire dans cette news que Tesla abandonne NVIDIA et présente sa propre puce IA ?

Ils avaient déjà abandonné nvidia pour Intel en 2017
par Un ragoteur des lumières en Auvergne-Rhône-Alpes, le Jeudi 25 Avril 2019 à 13h14  
par Un ragoteur de transit en Auvergne-Rhône-Alpes le Jeudi 25 Avril 2019 à 12h46
Pourquoi ne pas dire dans cette news que Tesla abandonne NVIDIA et présente sa
propre puce IA ?
De toute façon, le board de Tesla va bientôt abandonner son CEO sur le bord de
la route car la planche à billets n'est pas autonome!
par Un ragoteur de transit en Auvergne-Rhône-Alpes, le Jeudi 25 Avril 2019 à 12h46  
Pourquoi ne pas dire dans cette news que Tesla abandonne NVIDIA et présente sa propre puce IA ?