Des algorithmes qui tiennent compte de la polarité des sentiments permettraient d'anticiper les conversations toxiques selon Richard Khoury

Dans un article en prépublication sur Arxiv.com, le professeur Richard Khoury, ainsi qu’Éloi Brassard-Gourdeau, démontrent que le caractère positif ou négatif des mots utilisés dans une conversation ainsi que l’intensité de cette polarité permettent d’améliorer les algorithmes servant à prédire si un échange risque de dérailler.

Un outil pour flairer l'imminence de commentaires toxiques en ligne

Dans le film Rapport minoritaire, les forces de l’ordre du futur combattent le crime en faisant appel à des mutants – des précogs – capables de pressentir un méfait avant qu’il ne soit commis. On ne peut s’empêcher de penser que ces précogs seraient très utiles pour éviter que les conversations dégénèrent et conduisent à une pluie de commentaires toxiques sur le Web. En effet, dans l’état actuel des choses, les modérateurs interviennent après le fait, une fois que les commentaires offensants ont été publiés.

Éloi Brassard-Gourdeau et Richard Khoury, du Département d’informatique et de génie logiciel, croient qu’il y a moyen de faire mieux. Dans un article en prépublication sur Arxiv.com, ils démontrent que le caractère positif ou négatif des mots utilisés dans une conversation ainsi que l’intensité de cette polarité permettent d’améliorer les algorithmes servant à prédire si un échange risque de dérailler.

Présentement, les modérateurs sont avisés qu’une conversation toxique a eu lieu par des utilisateurs qui portent plainte ou par des algorithmes relativement simples, mais pas toujours fiables. «Ces algorithmes détectent des mots-clés qui peuvent être offensants, mais qui ne le sont pas forcément dans un contexte donné, signale Richard Khoury. De plus, il serait préférable de prévoir qu’une conversation prend un mauvais tournant avant qu’elle devienne toxique.»

Pour y arriver, Éloi Brassard-Gourdeau et le professeur Khoury ont perfectionné des algorithmes prédictifs en développement en faisant appel à l’analyse des sentiments, une approche qui consiste à assigner un score de polarité positive ou négative à un mot, une phrase ou une conversation. La première partie du travail a été réalisée à l’aide de 1270 paires de conversations qui ont eu lieu entre des usagers de la section Édition du site Wikipédia. La moitié de ces échanges étaient restés polis alors que l’autre moitié avait dégénéré.

Lire la suite sur ULaval Nouvelles

Restons en contact!

Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.