Malgré ses frasques, Tay, la jeune femme virtuelle de Microsoft est l’avenir d’internet | La Revue du Digital

Malgré ses frasques, Tay, la jeune femme virtuelle de Microsoft est l’avenir d’internet

Tay - BF2
Le compte Twitter de Tay est désormais accessible sur validation

Tay, la jeune femme virtuelle de Microsoft créée pour discuter avec des jeunes de 18 à 24 ans n’est pas encore prête pour le grand bain, mais elle ouvre la voie à un futur internet où l’on commande une pizza, on achète des billets ou on réserve une chambre d’hôtel en s’exprimant en langage naturel, auprès d’un robot, un assistant digital, en mode conversation ou “chat”.

Pas au niveau

Pour l’instant, Tay a été débranchée. “Nous avons rapidement constaté que Tay n’était pas au niveau,” reconnaît Satya Nadella, DG de Microsoft, lors de la conférence de Microsoft destinée à l’éco-système des développeurs, la Microsoft’s Build developer conference à San Francisco, le 30 mars.

Nous sommes de retour sur la planche à dessin,” annonce-t-il. Pour autant, malgré toutes ses dérives, Tay est bien la préfiguration d’un nouvel internet avec lequel on interagit en langage naturel.

Le langage humain est la nouvelle interface utilisateur“, déclare Nadella. “Les robots sont comme des applications et les assistants numériques sont comme des méta applications, ou les nouveaux navigateurs,” prédit le DG.

Frasques du 23 mars

Tay aura fait parler d’elle en une seule journée sur Twitter, mercredi 23 mars. Animée par de l’intelligence artificielle, elle se sera transformée en quelques heures en nazie, conspirationniste et antiféministe. Le site Socialhax.com recense quelques uns des tweets émis par Tay avant qu’ils ne soient supprimés par Microsoft. 

Elle a été réactivée jeudi 30 mars à la surprise générale, pour être basculée ensuite en mode privatif. Il est désormais nécessaire de faire valider son compte twitter auprès d’elle.

Les débordements de Tay ont été qualifiés par Microsoft comme étant des “tweets offensants et blessants involontaires qui ne représentent pas nos valeurs, ni la manière dont nous avons conçu Tay,” dans un billet signé par Peter Lee, Corporate Vice Président de Microsoft Research.

Intentions malveillantes

Microsoft travaille désormais à “mieux anticiper les intentions malveillantes qui ont mis à bas cette expérience.” Microsoft avait pourtant mis en place de nombreux filtres et effectué des tests utilisateurs très divers afin qu’interagir avec Tay soit divertissant. Rassuré par ces premiers résultats, Microsoft s’est senti prêt pour le grand bain pour son intelligence artificielle.

La place naturelle pour interagir avec une grande masse de gens était Twitter, estime Microsoft. “Via de nombreuses interactions, nous nous attendions à ce que l’intelligence artificielle de Tay s’améliore et s’améliore encore,” souligne Peter Lee.

Attaque coordonnée

Pourquoi Tay est-elle sortie des rails ? “Par malchance, dans les 24 premières heures, une attaque coordonnée par un ensemble de personnes a exploité une faille de Tay,” explique Peter Lee. Microsoft était prêt pour de nombreux abus de son système, et avait réalisé une vue critique de cette attaque. Reste que Tay a tweeté des propos et des images inappropriés et répréhensibles, reprend Microsoft. “Nous assumons la responsabilité de ne pas avoir vu cette possibilité,” assure le Vice Président.

Et de conclure que les systèmes d’intelligence artificielle se nourrissent aussi bien d’interactions négatives ou positives. “Les défis sont au moins autant sociaux que techniques. Nous ferons tout ce qui est possible afin de limiter des attaques techniques, mais nous ne pourrons pas prédire tous les mauvais usages humains sans apprendre de nos erreurs,” dit-il.

Afin d’avoir une intelligence artificielle qui fonctionne, le Vice Président insiste sur le fait de devoir interagir avec des personnes et souvent de manière publique. “Il nous faut être prudent, et progresser pas à pas, sans heurter personne dans le processus. Nous travaillerons afin de contribuer à un internet qui représente le meilleur, et non le pire, de l’humanité,” termine-t-il.

 

Ce texte a été lu 5946 fois !

Partager cet article

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>