À l’aide des progrès effectués dans le domaine de la retouche d’images, et plus particulièrement de vidéos, il est devenu de plus en plus aisé de modifier un contenu multimédia, qu’il s’agisse de simples corrections de lumière et de contraste, de réduction de bruit, ou encore d’invention pure et dure de contenu. En effet, se faire passer pour un autre individu en calquant ses mouvements sur une personnalité publique — pour peu que suffisamment d’images de ladite personne soient en votre possession — ne relève plus de la science-fiction, mais bel et bien de notre monde.

 

Un DeepFake populaire, produit par BuzzFeed

 

Les procédés de génération, quelle que soit la technologie sous-jacente, sont regroupés sous le terme DeepFake, et font l’objet de nombreuses recherches. Chez Facebook, par exemple, les ingénieurs planchent sur diverse piste pour essayer d’identifier et limiter ce genre de phénomènes - pas vraiment étonnant étant donné que la base du réseau social réside dans le partage de contenu authentique. Dans le domaine académique, le son de cloche reste similaire, par exemple avec cette approche, basée sur un réseau de neurones intégrant des LSTM. Pour les plus effrayés d’entre vous, rappelons que ces DeepFake sont facilités par l’IA mais sont loin d’avoir été créés par cette dernière. En cas de doute, mieux vaut croiser les sources et se munir de tout son esprit critique !

 

Néanmoins, d’autres chercheurs, cette fois-ci en provenance de l’Université de Binghamton (États-Unis), en collaboration avec Intel, ont publié un papier dans l’édition de juillet de l’IEEE Transactions on Pattern Analysis and Machine Learning, concernant une autre méthode de détection, cette fois-ci basée sur un fait bien plus biologique : la circulation du sang. En amplifiant les couleurs d’une vidéo, il devient possible d’observer à l’œil nu les changements de couleur induits par ces afflux sanguins. Chez une personne en bonne santé, un rythme régulier doit être observé... et ce n’est pas le cas sur les DeepFake. En effet, ces bousins sont le plus souvent fruit d’un réseau de neurones, qui a bien du mal a extraire des informations aussi fines de l’ensemble de données qui a servi à son entraînement.

 

Ainsi, il a été possible d’entraîner un nouveau réseau de neurones — hé oui, on ne fait toujours pas mieux en matière de reconnaissance d’images — afin de discriminer les images aux afflux sanguins corrects de ceux un peu trop étranges pour être naturels. Le projet qui en résulte, nommé FakeCatcher, est en également lecture libre sur Arxiv. La conclusion de tout ce tintouin ? Si la technologie est capable de générer quelque chose, nous restons également capables de découvrir la supercherie : ouf ! (Source : IEEE Spectrum)

 L'IA fait des merveille dans la génération d'images, mais le travail n'est pas encore parfait... 

Sur le comptoir, au même sujet

 
 
 
 
 

afficher plus de prixAffichez donc moi tout, nom de nom

Plus d'infos avec le comptoir de l'info

Voir plus de news
Les 4 Ragots
   
Les ragots sont actuellement
ouverts à tous, c'est open bar !