COMPTOIR
register

Nvidia et le machine learning, ou comment retirer le bruit d'une photo
Si l'on parle beaucoup du minage ces derniers temps du fait de la pénurie qu'il engendre sur les cartes graphiques, ce n'est pas la seule utilisation détournée qui attend nos chers GPU. En effet, la plupart des algorithmes d'apprentissage automatisé sont basés sur des calculs matriciels, c'est-à-dire concernant des tableaux ; ce qui est assez semblable aux tableaux de pixels calculés par les puces précédemment citées. Et comme le matériel et le logiciel forment un couple inséparable, l'architecture Volta des verts inclut des tensor cores dédiés à cette tâche.
 
Dans le monde professionnel (et académique), le machine learning est annoncé comme un tournant majeur dans l'informatique, de manière similaire à la réalité augmentée pour le gaming. Il est d'ailleurs assez amusant de voir que ces algorithmes de machine learning sont justement très prometteurs dans le traitement d'image, très présent dans... les applications AR.
 
deep learning plongee
Presque mais ... non !
 
Dans la recherche, NVIDIA est très actif en la matière. Il faut dire que proposer des bons logiciels au niveau algorithmique permet à coup sûr de marketer leur puissance avec de sérieux arguments. Après avoir publié un premier papier concernant l'utilisation de réseaux de neurones pour supprimer un flou gaussien, voici que l'entreprise remet le couvert avec Noise2Noise. Actuellement en cours d'évaluation par la communauté, cette technique permet - à grand coup de mathématiques assommantes - d'ôter un bruit présent sur un set d'image, sans pour autant apprendre à partir d'images saines, contrairement aux algorithmes actuels, avec un niveau de reconstruction quasiment égal.
 
Avec un tel investissement, il est fortement probable de voir des futurs logiciels ou suites de développement pour le traitement d'image optimisés aux petits oignons par le grand vert. Reste encore à savoir si les développeurs leur trouveront des applications au goût du grand public !
 
Un poil avant ?

Gamotron • Cailloux, choux, hiboux... JOUJOUX !

Un peu plus tard ...

Enfin, un vrai multijoueur pour No Man's Sky ?

Les 8 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Nicolas D., le Mardi 22 Mai 2018 à 13h24  
par Un ragoteur polynesien embusqué le Lundi 21 Mai 2018 à 18h57
Il y aura encore du boulot! Je viens de lire dans une revue scientifique que si l'on retire quelques pixels sur une image représentant une orange, l'IA y voit un...hélicoptère!!!
C'est pas des blagues et ça craint pour les voitures autonomes entre autres!
On avait parlé ici d'un certain grille-pain
par Un médecin des ragots embusqué, le Mardi 22 Mai 2018 à 02h21  
par Un ragoteur polynesien embusqué le Lundi 21 Mai 2018 à 18h57
Il y aura encore du boulot! Je viens de lire dans une revue scientifique que si l'on retire quelques pixels sur une image représentant une orange, l'IA y voit un...hélicoptère!!!
C'est pas des blagues et ça craint pour les voitures autonomes entre autres!
C'est comme les fictions qui souhaitent nous faire croire que par la magie du saint esprit une image floue devient subitement nette en agrandissant 4 pixels.
par Un ragoteur polynesien embusqué, le Lundi 21 Mai 2018 à 18h57  
Il y aura encore du boulot! Je viens de lire dans une revue scientifique que si l'on retire quelques pixels sur une image représentant une orange, l'IA y voit un...hélicoptère!!!
C'est pas des blagues et ça craint pour les voitures autonomes entre autres!
par Un ragoteur de transit embusqué, le Lundi 21 Mai 2018 à 18h24  
Retirer le bruit d'une image.
C'est super balèze. Pour faire encore plus fort, il faudrait réussir a retirer la lumière d'un son.
A partir de là, plus rien ne pourra nous arrêter.
par Nicolas D., le Lundi 21 Mai 2018 à 15h40  
par Un champion du monde embusqué le Lundi 21 Mai 2018 à 08h50
Aucune chance que le grand public s'intéresse à des algorithmes de reconstruction graphique soit disant "d'apprentissage" (en réalité du profilage) tandis qu'il ne se donne même pas la peine d'éduquer sa propre descendance...
En effet, par contre un développeur un peu innovant pourrait tout à fait utiliser une biblio de reconnaissance d'image fournie par NVIDIA, qui se baserait sur ces trouvailles
par Old Bear, le Lundi 21 Mai 2018 à 09h04  
En fait ça rend possible les exploits de NCIS en matière de reconnaissance faciale dans le reflet d'un pare-brise, effectivement très bon outil pour la Police.
par Un champion du monde embusqué, le Lundi 21 Mai 2018 à 08h50  
 

Avec un tel investissement, il est fortement probable de voir des futurs logiciels ou suites de développement pour le traitement d'image optimisés aux petits oignons par le grand vert. Reste encore à savoir si les développeurs leur trouveront des applications au goût du grand public !


Aucune chance que le grand public s'intéresse à des algorithmes de reconstruction graphique soit disant "d'apprentissage" (en réalité du profilage) tandis qu'il ne se donne même pas la peine d'éduquer sa propre descendance...

En revanche, cette niche technologique peut grandement intéresser les dictatures républicaines afin de garantir la sécurité du bétail électeur au moyen d'une télésurveillance permanente.
par Un ragoteur sans nom embusqué, le Lundi 21 Mai 2018 à 08h08  
Roh la vache, c'est drôlement matheux !