Décoder la boîte noire des assistants vocaux : regard sur les travaux de Cem Subakan dans ULaval Nouvelles
Le professeur Cem Subakan a développé un logiciel qui permet de mieux comprendre comment fonctionnent les assistants vocaux, ce qui augmente leur transparence ainsi que la confiance des utilisateurs – regard sur ces travaux dans un récent article de ULaval Nouvelles.
Des millions de personnes utilisent quotidiennement des outils comme Siri et Alexa, basés sur l’intelligence artificielle (IA). Malgré leur usage répandu, la manière dont ces outils comprennent et traitent la parole reste largement cachée. Une équipe de chercheurs de l’Université Laval, de l’Université Concordia et de l’Institut québécois d’intelligence artificielle Mila ont conçu une approche basée sur l’IA pour reconstruire le processus de compréhension et de prise de décision de ces assistants vocaux.
L’approche, appelée L-MAC (Listenable Maps for Audio Classifiers), met en évidence les éléments cruciaux du son qui ont influencé le traitement de l’outil. «Essentiellement, on vise à savoir comment et pourquoi les classificateurs audio prennent leurs décisions», explique Cem Subakan, professeur à la Faculté des sciences et de génie de l’Université Laval.
Par exemple, si l’assistant vocal entend des bruits concomitants, comme un bébé qui pleure et un chien qui jappe, L-MAC sera en mesure d’identifier quel son a été retenu par le classificateur audio.
Restons en contact!
Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.