mercredi 29 avril 2015

Dans les commentaires en ligne, on sait voir venir les "trolls"


Sur Internet, le phénomène est bien connu. Celui d’internautes qui, dans les commentaires sous des articles, se répandent en insultes, prennent à partie l’auteur de l’article ou d’autres commentateurs, donnent dans la provocation et, pour résumer, cherchent la bagarre (verbale). On les appelle "trolls" et la plupart des sites aimeraient pouvoir s’en débarrasser. La solution pourrait bien venir des travaux de deux chercheurs de la Stanford University et un de Cornell (financés par Google).

 Ils ont en effet conçu un algorithme qui analyse les commentaires pour repérer les trolls avant qu’ils n’aient atteint leur plein épanouissement, ce qu’ils appellent les Future banned users (FBU, les futurs utilisateurs bannis).

Plus de 38 millions de commentaires étudiés

Les chercheurs ont établi qu’un troll écrit d’une manière bien caractéristique. Ses commentaires sont truffés de fautes, comptent beaucoup de jurons et d’insultes et s’en prennent précisément à quelqu’un, ce ne sont pas des remarques d’ordre général ou des éclairages relatifs au sujet de l’article par exemple. Les trolls écrivent plus que la moyenne des internautes et leurs messages sont aussi ceux qui reçoivent le plus de réponses, tant il est difficile, sur Internet, de ne pas réagir à la provocation… 

Enfin, la qualité d’écriture empire avec le temps, jusqu’à en devenir incompréhensible ! Ces éléments ont été dégagés par l’examen d’un corpus conséquent de commentaires issus de trois sites Internet d’information : le généraliste CNN.com, le spécialiste des jeux vidéo IGN.com et Breitbart.com pour l’actualité politique. Le tout sur la période mars 2012-août 2013. Ce qui représente un total d’exactement 38.895.887 commentaires postés par 1,749 millions de personnes.

BANNIS. Les chercheurs en ont extrait les messages d’internautes ayant été bannis de la communauté justement pour leurs propos ; ils étaient 48.683. "Sur CNN.com, expliquent les auteurs dans leur étude, les FBU écrivent une moyenne de 264 commentaires (sur quarante-deux jours) dont 124 seront détruits [par le modérateurs, ndlr] avant qu’ils ne soient finalement exclus."

Un algorithme efficace à 82 %


A partir de ces critères, ils ont programmé un algorithme censé repérer, parmi les internautes qui n’avaient encore jamais été exclus, lesquels seraient le plus susceptibles de l’être prochainement (les FBU, donc). Ils ont ensuite lancé cet algorithme à l’assaut d’un corpus constitué des seuls dix premiers messages des internautes. Résultat ? A 82%, l’algorithme a été capable de prévoir si un commentateur est un troll… Cet outil se veut une aide pour les modérateurs, afin de les orienter vers les débordements à venir et les anticiper. Et leur éviter de taper à côté de leurs cible ; ils arrivent en effet que des commentaires, ni particulièrement agressifs ni mal écrits, soient supprimés par erreur de jugement (ou par erreur tout court). Or, dans ces cas-là, l’étude montre que l’auteur, dans ses prochains messages, aura plus tendance  à se comporter comme un troll ! De l’art de créer le problème…

1 commentaire:

  1. Anonyme30.4.15

    Très bonne analyse, on a vu déjà aussi ici un troll qui fait la morale et critique celui qui ne pense pas comme lui et amateur des ET.

    RépondreSupprimer