COMPTOIR
register

Des réseaux de neurones pour des superpixels chez les verts

Avec les RTX, NVIDIA a décidé d'apporter des unités spécialisées dans la mutliplication-addition de matrices au grand public. Ces dernières étant particulièrement utiles dans le domaine de l'IA (c'est un peu pour ça que les concepteurs les y ont mis), il n'est pas étonnant que le marketing leur offre une bonne place.

 

Oui, mais la publicité n'est pas, tout ; et NVIDIA le sait bien. Dans le domaine de la recherche en machine learning, la firme est dans le peloton de tête comme en témoigne la publication du jour, présentée à l'occasion de l'European Conference on Computer Vision (ECCV). L'idée est d'utiliser un réseau de neurones profond (ou multi-couche) couplé à l'algorithme SLIC préexistant (Simple Linear Iterative Clustering). Ce dernier, qui n'est pas à proprement parler du machin learning, est modifié pour l'occasion afin de rendre l'apprentissage de tout possible sans trop mettre les mains dans le cambouis.

 

Le tout forme un nouvel algorithme nommé Superpixel Sampling Network (SSN) qui apprend à déduire à partir de photos ou extraits de films des petites zones présentant des caractéristiques similaires. Si ces dernières ne sont pas carrées comme nos cher pixels d'écran, il ne faut pas oublier que le mot pixel n'est qu'une contraction de Picture Element (Pix El), c'est pourquoi ces régions sont appelées Superpixels.

 

nvidia research superpixel

Le fonctionnement du bouzin, avec les applications possibles : reconnaissance de zones et reconnaissance de mouvements

 

Ce travail est très proche de la reconnaissance d'image : en effet, réduire une image en superpixels permet de pré-mâcher les tâche de reconnaissance d'objet en simplifiant la photo originel - on n'est pas si loin d'une vectorisation automatique. Certes, cela n'est pas directement utilisable en jeu, mais des utilités au niveau d'algorithmes de vidéosurveillance ou de robots autonomes sont déjà toutes trouvées. A quand la commercialisation ?

 

Un poil avant ?

Premier test pour l'Athlon 200GE : le G4560 touché coulé ?

Un peu plus tard ...

De la NAND 3D apacher chez Macronix ?

Les 8 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur blond du Grand Est, le Jeudi 20 Septembre 2018 à 11h33  
*n'ont eu. Saleté de correcteur orthographique qui remplace des choses justes par des fautes.g
par Un ragoteur blond du Grand Est, le Jeudi 20 Septembre 2018 à 11h28  
Déjà, dans l'aviation commerciale, il y a déjà des systèmes d'atterrissage automatique et le pilote n'est présent que si les conditions se dégradent au-delà de ce que ces systèmes peuvent gérer. Et les résultats de ces systèmes sont meilleurs que ceux des pilotes, notamment en terme de confort ou du tail strike (la queue de l'appareil qui touche le sol).
Pour les rtx, à la sortie des pascal, ça a gueulé parce qu'il n'y avait aucune innovation sur cette puce, juste plus de Cuda Cores et des fréquences en hausse et là, ça gueule parce que nvidia intègre de nouvelles technologies. Évidemment que les tc et les rt ne sont pas encore utilisées, puisque le matériel vient seulement de sortir mais c'est toujours le cas, les nouvelles techno ne sont jamais utilisées au départ. Les premiers processeurs 32 bits sont sortis au milieu des années 80, les os grand publics 32 bits sont sortis des années plus tard, beaucoup d'annees. Les premiers acheteurs de tv FHD ont payé leur tv une fortune et non eut des contenus fhd que bien plus tard.
par Un ragoteur sans nom embusqué, le Jeudi 20 Septembre 2018 à 02h58  
A oui j'oubliais, je réponds à j'emporte.
Que l'état et les constructeurs veuillent nous déposséder de notre voiture et de notre conduite c'est un fait, le but, nous abrutir tellement qu'on soit plus que des vache à lait sans aucun raisonnement pour payer toujours plus.
Mais le pilotage automatique dans l'aviation existe depuis un grand moment, mais les pilotes savent toujours obliger de savoir piloter l'avion et c'est eux qui atterrissent et décollent et ce n'est pas prévu que cela change, et surtout en cas de problème il faut impérativement qu'ils sachent piloter l'avion dans aide.
Et pour les voitures c'est pareil, la conduite autonome réelle et sans permis de conduire, ce n'est pas demain la veille et au vu de l'état des routes...
L'automatisme, la chose rêver par tout une catégorie de patron pour virer des employés.
par Un ragoteur sans nom embusqué, le Jeudi 20 Septembre 2018 à 02h45  
L'ia, le truc fourre tout pour justifier des grosses augmentation de prix avec la vaseline.
Ses nouvelles rtx sont très décevante, point barre et pascal qui avait été si bien par rapport à l'ancienne architecture est passé par là.
Cela aurait dû être réservé pour les marchés pros, mais mettre trop de technologie inutile à la plus majorité des joueurs ne peut que créer un flop même si AMD n'est plus la en face.
Les rtx n'aurais du sortir qu'en 7 nm et débarrassé de beaucoup de chose qui je pense ne sont pas près d'être adapté pour les joueurs.
C'est mon gros ressenti.
Amd sort nous vite ton 7 nm avec de la gddr6 sans toutes ses technologies à tout de champ car attendant c'est la mort.
par Jemporte, le Mercredi 19 Septembre 2018 à 21h04  
Alors, il faut être franc, ce truc doit correspondre aux unités de calculs matriciels indexés et appelés tensor cores. C'est un peu comme je l'avais fait remarquer intéressant pour la compression d'image (exemple compression d'un film en H265 ou autre algorithme). Pour les jeux, bof.
Par contre là où c'est super-utile, super-intéressant c'est dans l'optimisation des algorithmes de reconnaissance de formes et d'objets, et d'étude d'une image, qu'on aimerait que ça se fasse à la volée, instantanément sans latence : dans le domaine automobile, embarqué, pour la conduite autonome.
Il y a eu beaucoup de remous, d'abandons, d'accords, de fusions dans ce domaine, et Nvidia est l'acteur hardware le plus en vue pour s'occupper de la question. Ca consiste principalement en une plateforme ARM, genre mobile, associée à un ou des GPU assez conséquent avec ce genre de capacité de calcul.
Le marché, c'est 200 millions de véhicules annuels, et à partir de 2020 environ, une partie de ces véhicules va avoir une capacité d'autonomie totale niveau 4 (avec conducteur) ou même niveau 5 (sans). Après, ça pourrait aller très très vite, de l'adoption générale à l'obligation d'en être doté, et à la capacité de conduire sans permis, qui pourrait devenir désuet vers les 2030.
A noter que cet équipement devrait aussi équiper les motos, qui sont à l'étude pour être dotées de stabilisateurs automatiques (de plusieurs sortes et ça marche très bien). Les motos où vous vous asseyez et c'est elles qui vous stabilisent et vous conduisent, et vous serez comme un passager arrière dedans sont dans les futs.
Sinon le police londonienne dispose depuis plus de 10 ans d'un outil de reconnaissance, recherche et suivi temps réel des personnes sur ses caméras (et il y en a partout).
par Nicolas D., le Mercredi 19 Septembre 2018 à 18h52  
par Un ragoteur blond du Grand Est le Mercredi 19 Septembre 2018 à 09h07
J'ai survolé la publication et, si j'ai bien compris, la différence serait que justement la détermination de ces superpixels ne se fait pas uniquement sur les contours mais sur l'ensemble des caractéristiques de la zone. Et ce serait plus rapide.
A en croire les concepteurs, plus rapide et plus exacts ! Mais c'est souvent le cas dans les publications scientifiques...
par Un ragoteur blond du Grand Est, le Mercredi 19 Septembre 2018 à 09h07  
J'ai survolé la publication et, si j'ai bien compris, la différence serait que justement la détermination de ces superpixels ne se fait pas uniquement sur les contours mais sur l'ensemble des caractéristiques de la zone. Et ce serait plus rapide.
par Un champion du monde en Île-de-France le Mercredi 19 Septembre 2018 à 08h58
Je n'ai pas lu la publication (je le ferai si j'ai le temps) mais en quoi est-ce différent et/ou meilleur qu'un algorithme de détection de contour utilisé en traitement d'image et se basant sur un filtre ?
par Un champion du monde en Île-de-France, le Mercredi 19 Septembre 2018 à 08h58  
Je n'ai pas lu la publication (je le ferai si j'ai le temps) mais en quoi est-ce différent et/ou meilleur qu'un algorithme de détection de contour utilisé en traitement d'image et se basant sur un filtre ?