COMPTOIR
register

Google peut améliorer la qualité d'une image grâce au "Machine Learning"

Vous avez tous au moins vu une fois un film ou une série où un "expert" prend une image en extra basse définition, prise par une caméra de secteur de nuit avec un éclairage pourri, et arrive à en tirer le visage d'un prétendu voleur de poule en haute définition et en un clin d'oeil, permettant ainsi son arrestation. C'est l'une des blagues les plus risibles du cinéma et pourtant, Google a mis au point une technologie permettant cette prouesse grâce à l'apprentissage statistique dont sont capables nos machines ("Machine Learning" pour les anglophones).

 

Cette technologie, ils l'ont appelée RAISR (Rapid and Accurate Image Super-Resolution) qui permet de reconstruire les données manquantes d'une image de mauvaise qualité. Comme vous le savez certainement, tout ce qui s'affiche sur votre moniteur est sur base de petits points nommés pixels. À l'heure de l'UHD, tout le monde a compris que plus il y en a et mieux c'est, une haute définition permettant plus de précisions. Dans le cas d'une image de mauvaise qualité que l'on essaierait d'agrandir, il manquera des informations et on aura le droit à un crénelage du plus mauvais goût. Grâce à RAISR, la machine va être capable de déterminer quelle suite donner à une série de pixels pour s'approcher du suivant réellement présent sur l'image.

 

google raisr

À gauche l'image originale, au centre un agrandissement par deux et à droite l'utilisation de RAISR

 

Les techniques d'agrandissement d'image existent déjà (on parle d'Upsampling dans ce milieu), mais se servent généralement des pixels présents sur l'image en les copiant pour reconstruire les endroits manquants, ce qui est de l'interpolation et parlera à ceux qui aiment avoir beaucoup de FPS en jeu. Sur l'image présentée précédemment, vous avez l'original à gauche, un agrandissement par deux au centre et à droite la solution de Google. Même un oeil peu averti saura faire la différence et l'option de Google va plus loin en permettant la chose beaucoup plus rapidement et sur du matériel standard (comprenez votre PC ou même une bonne tablette). De plus, elle arrive à régler le problème de crénelage (aliasing) qui pose problème sur les agrandissements standards. En effet, une méthode d'amélioration linéaire de l'image va forcément reproduire une partie des défauts de cette dernière, avec RAISR, l'image en basse définition servant de base pour que la machine devine ce qu'il y a dans les trous, cela permet de compenser la chose et d'éviter de reproduire ce qui ne devrait pas l'être. Plus parlant que des mots, voici une image présentant la chose :

 

google raisr aliasing

À gauche le problème de crénelage dans l'agrandissement linéaire, au centre une image de base, à droite la même traitée par RAISR

 

Avec RAISR, Google estime que n'importe quel appareil pourrait arriver à augmenter la qualité d'une image. L'application d'une telle technologie sera un grand plus pour l'industrie de l'image et plaira certainement au grand public au passage. Tout le monde a sur sa machine des images prises il y a quelques années, quand les capteurs numériques n'étaient pas au point où que les moniteurs se contentaient encore d'un fier 1024x768 et RAISR pourrait alors redonner un coup de jeune à ce qui a rapidement vieilli. Dans tous les cas, Hollywood pourra enfin se vanter d'avoir vu l'avenir en présentant des équipes informatiques capables de réaliser cette prouesse plusieurs années avant que la chose soit possible. (source : TechPowerUp)

Un poil avant ?

Le sac à dos VR GO de ZOTAC devient réalité

Un peu plus tard ...

Les GeForce 376.09 WHQL sont là pour les possesseurs de GTX qui aiment les chiens

Les 12 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par kriss, le Jeudi 01 Décembre 2016 à 15h28  
En bref la tortue ne sera jamais comme d'origine, qui a l'image d'origine de résolution plus élevé et qui a la tortue Personne n'a vraiment l'origine elle sont déjà redimensionnées ou diminuées. Avec Google j'ai trouvé 1920 × 1199 au max, il y a du détail pour l'oeil, https://goo.gl/TiSdMp .

C'est bidon ou pas ? Car je suis en 800% et n'a rien à voir, il manque trop de détail dans l'image source. Chez Bing l'image a vraiment du détail et serait la source! Bref Google vs Bing ! https://goo.gl/xu1kwr
An final : https://goo.gl/EXKF5k une tortue dans une autre direction avec du détail en 1920*1200 .
par Un ragoteur qui aime les d'Ile-de-France, le Mardi 29 Novembre 2016 à 23h24  
Histoire d'enrichir le débat

https://bamos.github.io/2016/08/09/deep-completion/
par Un rat goth à l'heure de Lorraine, le Mardi 29 Novembre 2016 à 22h04  
Un peu trop sensationnaliste à mon goût. "machine learning" est une expression à la mode, mais cette technique est connue de longue date.

Pour aller au bout, il faut considérer une vectorisation 3D avec mémorisation (ce qui peut superficiellement être qualifié de "machine learning"... mais reste un algorithme simple), évidemment, sur des images fixes on ne voit rien d'intéressant si ce n'est un mix incluant un bon vieux sharpen sur la première (en notant bien que ce filtre implique une partie des calculs d'une vectorisation, qui nécessite des contours). Le gros du travail, c'est de rendre cette technique efficace sur une vidéo, par des algorithmes déjà utilisés dans les derniers encodeurs vidéo (h.264/h.265).

Ce qui est intéressant, au final, c'est qu'on tient là la base de ce qui sera l'encodage vidéo du futur... sauf si les autorités décrètent que le coût énergétique du décodage est trop élevé pour rendre le procédé viable, ce qui n'est pas totalement exclu même si jusque là la consommation énergétique n'a été qu'un prétexte.
par Un ragoteur qui draille embusqué, le Mardi 29 Novembre 2016 à 17h49  
par mayonaiseallegee le Mardi 29 Novembre 2016 à 11h09
comme dit le sceptique, c'est du boolshit !
Comme on le voit bien sur l'image de la tortue/pieuvre/"truc qui vie dans l'eau"
Je dirais: oeil de crocodile.

 
la soupe de pixels se transforme en soupe de pixels agrandie, lissée et un peu plus contrastée... Gimp et Photoshop font ca depuis toujours, vive l'innovation

+1

 
S'ils me prouvent qu'on peut redimensionner une image en 1px de côté et retrouver les détails avec leur RASIER, je suis prêt à me couper les couilles !

Fait gaffe quand même, ils pourraient faire de la soupe de pixels avec tes boules!
par mayonaiseallegee, le Mardi 29 Novembre 2016 à 11h09  
comme dit le sceptique, c'est du boolshit !
Comme on le voit bien sur l'image de la tortue/pieuvre/"truc qui vie dans l'eau", la soupe de pixels se transforme en soupe de pixels agrandie, lissée et un peu plus contrastée... Gimp et Photoshop font ca depuis toujours, vive l'innovation
S'ils me prouvent qu'on peut redimensionner une image en 1px de côté et retrouver les détails avec leur RASIER, je suis prêt à me couper les couilles !
par Salva, le Lundi 28 Novembre 2016 à 19h31  
par Un rat goth à l'heure de Midi-Pyrenees le Lundi 28 Novembre 2016 à 16h06
Dans Blade Runner ou Minority Report, je sais plus, les multireflets dans la pièce du crime !!!
Blade Runner, dans le film et dans le jeu vidéo.
Bientôt les Expert Amis-Amis vont être dépassés.
par Un ragoteur de transit embusqué, le Lundi 28 Novembre 2016 à 18h27  
vous pensez que ça utilise des transformées de Fourier 2D ?
par Zia, le Lundi 28 Novembre 2016 à 17h29  
porno Sd en FHD?
par Un rat goth à l'heure de Midi-Pyrenees, le Lundi 28 Novembre 2016 à 16h06  
Dans Blade Runner ou Minority Report, je sais plus, les multireflets dans la pièce du crime !!!
par Un médecin des ragots du Nord-Pas-de-Calais, le Lundi 28 Novembre 2016 à 15h47  
Pourrait pas servir à la VR ?
par Un ragoteur tout mignon de Bretagne, le Lundi 28 Novembre 2016 à 14h51  
ha ! la nouvelle techno révolutionnaire pour les consoles !!! bientôt du WQHD natif sur Xboîte 2 et Piiisse 5 !!!
par Un ragoteur sceptique de Bretagne, le Lundi 28 Novembre 2016 à 14h10  
Cela permet peut être un meilleur aspect de l'image agrandie, mais certainement pas de reproduire les détails manquants, car confondu en un seul pixel de l'image basse résolution d'origine: dans votre (très bon) exemple des séries policières et de leurs agrandissements irréalistes, si la tronche du méchant criminel voit son nez réduit à un simple pixel sur l'image basse résolution, algorithme de Google ne permettra jamais de reconstituer le nez de façon exact, et donc de tirer de la vidéo pourrie un joli portrait ressemblant (même de loin) à celui du dit criminel.