Retour sur la keynote NVIDIA et le Deep Learning |
————— 18 Mars 2015 à 12h10 —— 13604 vues
Retour sur la keynote NVIDIA et le Deep Learning |
————— 18 Mars 2015 à 12h10 —— 13604 vues
Comme on vous l'a dit hier, l'annonce de la GTX Titan X lors de la GTC 2015 était accompagnée d'un grand blabla sur sa capacité à faire évoluer le Deep Learning. Mais comment peut-elle y aider et surtout, qu'est ce que c'est réellement que le Deep Learning ?
En Français, on pourrait appeler ça "apprentissage profond", c'est un ensemble de méthodes qui permettent à une machine d'apprendre automatiquement grâce à des algorithmes lui permettant de décortiquer une donnée, comme une image lors de la keynote, en fonction de nombreux vecteurs de données comme l'intensité de ses pixels, les formes qui la composent, ses couleurs, ses arêtes et un tas d'autres points. En gros, apprendre à une machine à décortiquer de la même façon que notre cerveau ce qui lui est accessible. Ils se basent d'ailleurs sur la façon dont notre cerveau est capable de traiter l'information, la neuroscience étant aujourd'hui capable d'analyser notre système nerveux pour retracer une information jusqu'à nos neurones et de voir les interactions et réponses engendrées.
Tout cela, sur base d'algorithmes complexes, demande donc un grand (mais genre GRAND) nombre de calculs et c'est là que la puissance des GPU est mise à profit. Plus ça mouline, moins il faut de temps pour traiter une information et plus la machine apprend vite. Pour cela, NVIDIA à créé DIGITS (Interactive Deep Learning GPU Training System), un outil complet permettant aux chercheurs de créer simplement leur propre Deep Neural Network, une architecture donnant virtuellement des yeux à la machine et lui permettant de décortiquer ce qui lui est présenté.
Vu qu'un tel outil se doit d'avoir une machine à sa hauteur pour fonctionner, Jen-Hsun Huang a présenté à sa suite les DIGITS DevBox, grosse machine dont le prix de départ sera de $15000 en mai prochain et qui sera composée de quatre GTX Titan X (soit $4000 de cartes graphiques, on se demande où sont les $11000 restants, surement sur une carte mère plaquée or) pour un système qui tournera sous Ubuntu et sera pré-équipé de leur programme DIGITS. Une solution clef en main pas donnée, mais dont la puissance de calcul devrait être conséquente pour ce type d'application.
Il semble logique que NVIDIA parte sur ce terrain, premièrement parce que c'est un domaine en pleine expansion, et qu'il y a donc des ronds à se faire en équipant au mieux les professionnels du milieu, et secondement parce que si Pascal (l'architecture, pas le notre) sort vraiment 10x plus puissant que Maxwell avec une meilleure interconnexion entre les GPU (jusqu'à 64 puces) grâce à NVLink, cela sera un véritable bond en avant au niveau puissance de calcul pure. Au final, il faut bien appâter le client aujourd'hui pour pouvoir lui vendre la révolution de demain, bien joué Jen-Hsun Huang !
![]() | Un poil avant ?Bon plan: kit 2.1 Logitech Z623 à 107,90€ livré | Un peu plus tard ...Ca sera 3 GTX Titan X chez EVGA, contre plein plein plein de brouzoufs | ![]() |
|
la SP (simple précision) c'est le chiffre qu'on connait en Tflops, avec Hawaii AMD à réussi à créer le premier GPU compatible 1/2 (donc tu divises par 2 les Tflops de la SP), avec le GK110 Nvidia était en 1/3 (divisé par 3), pour comparer la titan Z (2 GK110) à le même score en DP que la Firepro W9100 (1 hawaii). Donc AMD domine déja avec Hawaii en dp face à Nvidia. Mais avec le GM200 on est sur du 1/32 donc autant dire rien du tout.
La DP est très utile pour des calculs complexent, donc la précision et l'erreur n'est pas permis (moins puissant mais beaucoup plus précis que la SP) donc les supers calculateurs en sont fans et même les scientifiques pour la recherche.
Bon j'arrête là parce que je m'éloigne grandement du sujet, le truc du Deep Learning ça m'intéresse beaucoup, ça plus le fait de pouvoir combiner N cartes de manière plus efficace ça serait une bonne avancée