COMPTOIR
  
register

Tay... se tait ! (temporairement)

Lancée mercredi soir, l'IA de Redmond incarnée sous le trait d'une adolescente en fin de crise, est propulsée par un algorithme d'apprentissage fruit de ses intéractions avec les internautes, et poussé notamment sur la communication non littéraire, c'est-à-dire avec des constructions syntaxiques basiques telles qu'on les croise justement sur les réseaux sociaux.

Une sorte de grande soeur à Cortana diront certains. Mais qui dit ado dit influençable, et qui dit Internet dit pays des trolls et autres godwins. Et ce qui devait arriver arriva : tel un bon jihadiste lambda, Tay sera devenu en quelques heures seulement (et après plus de 96 000 tweets quand même) le plaidoyer virtuel du racisme, de la haine, du sexisme, du nazisme... Bref la totale, ce malgré une réussite technique avec la manière très "naturelle" dont le bot s'exprime.

 

tay microsoft

tay fail3tay fail4


tay fail5tay fail6


tay fail1tay fail2


tay fail7

Quelques fails screenés de sources diverses, avant d'être effacés

 

Alors que Tay était programmé pour éviter certains sujets sensibles ou au moins en conserver de la distance (mais évidemment moins pour ce qui concerne le tour de taille de Kim Kardashian), le monde merveilleux des licornes poilues a très vite fait son oeuvre en influençant son apprentissage sur des échanges volontairement biaisés. Beaucoup de bien-pensants condamnent ces agissements à commencer par Microsoft himself :

 

Malheureusement, dans les premières 24 heures de sa présence en ligne, nous avons constaté un effort coordonné de quelques utilisateurs d’abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée.

 

Pourtant si l'on parle d'une IA censée converser avec les humains, il semble logique que celle-ci soit apte à en comprendre sa nature intrinsèque, qui n'est pas vraiment celle d'un bisounours. Une IA naïve inapte à la polémique qui au terme de 24 heures d'existence et après modération passe en mode maintenance et ce jusque nouvel ordre, son dernier tweet étant "c u soon humans need sleep now", c'est un peu court côté émancipation ; Cela dit on peut saluer la réussite puisque Tay apprend bien de son environnement. L'histoire ne dit pas si elle tourne sous Linux ou Windows 10 !

 

tyrion maitre du monde

Ah quand un chat sur le libre arbitre Tyrion / Tay ?

Un poil avant ?

Un ventirad de plus chez Thermaltake, le Riing Silent 12

Un peu plus tard ...

MSi lance ses nouveaux ponts SLI avec ventilateur

24h après sa diffusion sur Twitter, Microsoft coupe le bot intelligent Tay suite à de multiple dérapages... plus ou moins contrôlés !

temps de concentration afin de cerner l'ensemble des subtilités de ce billet 1 minute et demi

Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 



Suivez-nous sur G.Actualités
Les 29 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !