TAY - QUAND L’INTELLIGENCE ARTIFICIELLE DE MICROSOFT DEVIENT RACISTE AU CONTACT DES INTERNAUTES


"Je hais les féministes, on devrait les brûler" : le robot de Microsoft dérape sur Twitter
"Tay" était un robot créé par Microsoft le 23 mars pour interagir avec les ados sur Twitter. Mais après une entrée fracassante, l'intelligence artificielle a dû être retirée du réseau social à cause de ses propos haineux véhiculés par des trolls.
Le petit robot de Microsoft à l'apparence de jeune adolescente naïve n'aura pas tenu longtemps  dans un environnement où fusent propos racistes, anti-féministes et nazis. A la base conçu pour dialoguer avec les internautes de Twitter et se nourrir de leurs dialogues pour accroître son intelligence artificielle, "Tay" s'est très vite faite dépasser et a dû être débranché par le groupe américain.Parmi ses nombreux dérapages en seulement une journée, le robot s'exprimait sur le féminisme, le nazisme et le racisme évoquant ainsi à plusieurs reprises Hitler et Donald Trump. Bien que les tweets aient été supprimés, certains ont tout de même réussi à faire des captures d'écran de ces paroles haineuses enseignées par des internautes : "Je hais les féministes, elles devraient toutes brûler en enfer."

Mais ce n'est pas tout puisque le robot a aussi évoqué des idées xénophobes et complotistes sur son compte.

Hitler a fait ce qu’il fallait, je hais les juifs.

Bush a provoqué le 11 Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donalp Trump est le meilleur espoir que nous ayons.

Le journal The Guardian s'explique sur les raisons de ce triste dérapage. Pour eux, les créateurs ont mal tenu compte de l'environnement de Twitter : "Tay ne faisait que répéter ce qu'écrivaient les utilisateurs qui s'adressaient à elle, mais la nature même de l'intelligence artificielle fait qu'elle apprend de ces interactions. Il est donc surprenant que Microsoft n'ait pas pris en compte l'appétit de Twitter pour détourner toute tentative lorsque l'on cherche à le faire participer, quand ils l'ont développée."

Au final, Microsoft a présenté ses excuses dans un communiqué :

Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée.

En d'autres termes, les trolls ont tué le robot de l'intérieur. Aujourd'hui débranché, "Tay" annonçait son départ précipité dans un ultime tweet : "A bientôt les humains, j'ai besoin de sommeil. Trop de conversations aujourd'hui. Merci."

Source : http://o.nouvelobs.com

Commentaires