Un outil d’IA pourrait prévenir les conversations toxiques sur Internet : entrevue de Richard Khoury dans «La Conversation»
Dans une publication récente, le magazine web The Conversation s’intéresse au projet de recherche mené par le notre chercheur membre Richard Khoury, professeur à la Faculté des sciences et de génie de l’Université Laval, qui s’intéresse à la santé et à la toxicité des communautés en ligne.
Les médias sociaux permettent d’échanger des informations comme jamais auparavant. Mais ils ont aussi ouvert la porte aux commentaires agressifs et violents, au harcèlement, voire à la diffamation et à la haine.
Et si un outil permettait de savoir qu’une conversation va mal tourner et agir pour empêcher les dérapages ?
C’est le défi sur lequel planchent Richard Khoury, de l’Université Laval, et Éloi Brassard-Gourdeau, de Two Hat Security, une entreprise qui fournit des outils pour modérer les conversations sur les réseaux sociaux.
Dans un article publié dans le compte rendu de la 34ᵉ Conférence canadienne sur l’intelligence artificielle (IA), les chercheurs montrent que le caractère positif ou négatif des mots utilisés et l’intensité de cette polarisation dans une conversation permettent d’améliorer les algorithmes servant à prédire si un échange risque de dérailler. La Conversation en a discuté avec Richard Khoury.
Restons en contact!
Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.