Projet DEEL (DEpendable and Explainable Learning)

Le projet DEEL, une collaboration entre des partenaires académiques et industriels pour le développement d’une intelligence artificielle interprétable, robuste, sécuritaire et certifiable appliquée aux systèmes critiques dans le domaine de l’aérospatial.

Le projet DEEL

Le projet DEEL (DEpendable and Explainable Learning) est une collaboration entre des partenaires académiques et industriels pour le développement d’une intelligence artificielle interprétable, robuste, sécuritaire et certifiable appliquée aux systèmes critiques dans le domaine de l’aérospatial.

En France, le projet DEEL est chapeauté par l’équipe de l’IRT Saint-Exupéry, de Toulouse depuis sa mise en œuvre. Par ailleurs, le volet français du projet s’inscrit également dans la foulée de la création de plusieurs instituts interdisciplinaires dédiés à l’intelligence artificielle (3IA) incluant l’Artificial and Natural Intelligence Toulouse Institute (ANITI) dirigé par l’Université fédérale de Toulouse-Midi-Pyrénées. 

Au Québec, le projet DEEL est porté par le Consortium de recherche et d’innovation en aérospatiale au Québec (CRIAQ) et l’Institut intelligence et données (IID) de l’Université Laval, avec la collaboration de l’Institut de valorisation des données (IVADO).

Des partenaires académiques et industriels sont également parties prenantes du projet. Du côté industriel : Thales Canada, CAE, Bombardier Aerospace et Bell Helicopter Textron Canada. Pour le volet académique : l’Université McGill, l’Université Laval, Polytechnique Montréal, l’Université du Québec à Montréal et l’Université de Montréal. 

Consulter le site Web du projet DEEL-Québec

Axes scientifiques

Le projet DEEL (DEpendable and Explainable Learningcouvre quatre grandes thématiques de recherche :

 

Robustesse 

Les algorithmes d’apprentissage ont montré d’excellents résultats dans diverses tâches et de multiples domaines. Cependant, ils ont également montré une grande fragilité lorsqu’ils sont confrontés à des situations qui diffèrent ne serait-ce que légèrement des données avec lesquelles ils ont été entraînés. Cette fragilité est une importante limitation pour des applications où il est difficile voire impossible de garantir que les données d’entraînement représentent bien les situations réelles. Pour l’industrie aéronautique, la robustesse d’un système réfère à sa capacité à opérer hors de ses conditions habituelles tout en maintenant un niveau de performance fixé à l’avance.

Cet axe de recherche vise ainsi le développement de méthodes d’apprentissages permettant de produire des modèles robustes ainsi que de la méthodologie adaptée à l’évaluation de la robustesse de ces modèles complexes et souvent opaques.

 

Interprétabilité 

Les programmes obtenus par apprentissage automatique ont souvent la capacité de transformer les données sous une forme appropriée avant d’accomplir une tâche spécifique plus efficacement. Toutefois, ces transformations sont difficiles à comprendre et à appréhender en raison de la complexité intrinsèque des modèles d’apprentissages à grande capacité. Ceci représente donc un obstacle à l’interprétation du fonctionnement du modèle. Alors qu’une augmentation de la capacité du modèle signifie souvent une perte en termes d’interprétabilité, l’acceptation et la certification du modèle appris par les différents acteurs concernés dépend de notre compréhension et de notre confiance en ces modèles.

Cet axe de recherche se concentre ainsi sur les aspects fondamentaux des deux principales formes d’interprétabilité : la transparence, qui concerne l’interprétabilité du modèle dans son entier, et l’explicabilité, qui se rapporte à l’interprétabilité des prédictions ou des décisions particulières faites par le modèle.

 

 

Certifiabilité 

Si la performance des systèmes de décision automatiques est désormais suffisante pour attirer l’intérêt des industries où la sécurité est critique, il n’en demeure pas moins que celles-ci ne peuvent évidemment pas renoncer à la nécessité de maîtriser les systèmes automatiques et de disposer de garanties formelles concernant leur fonctionnement. Les systèmes critiques pour l’aéronautique doivent subir un processus de certification exigeant avant de pouvoir être embarqués ou d’être utilisés au sol. La certification a pour mandat de s’assurer que le programme va opérer de façon conforme dans l’environnement prévu. Toutefois, la certification des algorithmes d’apprentissage profond et de l’informatique 2.0 pose de nouveaux défis.

Cet axe vise à faire progresser l’état de l’art en certification avec comme objectif de pouvoir certifier des systèmes incluant des composantes issues d’algorithmes d’apprentissage pour une utilisation en aéronautique.   

 

 

Privacy By Design

La sécurité des systèmes informatiques est un point essentiel pour les algorithmes  d’apprentissage. En particulier, il est nécessaire de pouvoir assurer que l’apprentissage machine repose sur des systèmes d’information impénétrables sans quoi les possesseurs de données critiques ne peuvent parfois pas envisager de s’engager dans la mise en œuvre de ces techniques. Ceci devient particulièrement crucial lorsque l’apprentissage doit être effectué chez un tiers (par exemple un centre de calcul) qui possède les infrastructures, les outils et les connaissances permettant le calcul des règles de décisions automatiques.

Cet axe de recherche a ainsi pour objectif de travailler sur les problèmes de sécurité spécifiques à l’apprentissage automatique comme garantir la confidentialité des données et de permettre l’apprentissage collaboratif.

 

Chercheur responsable du projet à l'IID

Professeur titulaire, Faculté des sciences et de génie, Université Laval

Mario Marchand, professeur au département d’informatique et de génie logiciel de l’Université Laval, oeuvre dans le domaine de l’apprentissage automatique depuis plus de 30 années. Ses recherches ont principalement porté sur les garanties de performance des algorithmes d’apprentissage et sur les algorithmes permettant d’optimiser ces garanties. Par exemple, il a proposé les « set covering machines » pour apprendre en effectuant de la compression de données. Il a également proposé des algorithmes d’apprentissage optimisant les garanties PAC-Bayes et celles basées sur la complexité de Rademacher et la dimension de Vapnik et Chervonenkis. Il a également appliqué des algorithmes d’apprentissage dans le domaine de la santé comme un algorithme permettant de prédire le co-récepteur utilisé par le VIH de type 1, des algorithmes permettant de prédire la résistance aux antibiotiques de génomes bactériens, et des algorithmes permettant de prédire la bioactivité de peptides. Il travaille présentement à la conception d’algorithmes d’apprentissage équitables dans le domaine des assurances et à la conception d’algorithmes générant des modèles prédictifs interprétables.

Équipe de recherche

Chercheurs principaux : 

  • Mario Marchand (ULaval)
  • Guilio Antonioli (PolyMtl)

Responsables d’axes : 

  • Liam Paul (UdM)
  • Mario Marchand (ULaval)
  • Sébastien Gambs (UQÀM)
  • Ettore Merlo (PolyMtl)

Co-chercheurs : 

  • Christian Gagné (ULaval)
  • Prakash Panangaden (McGill)
  • Nadia Tawbi (ULaval)
  • Josée Desharnais (ULaval)
  • Foutse Khomh (PolyMtl)
  • Marc-Olivier Kilijian (UQAM)

Collaborateurs : 

  • Frédéric Precisio (SofiaAntipolis)
  • Andrea Lodi (PolyMtl)
  • Didier Chételat (PolyMtl)
  • Nathalie de Marcellis-Warin (PolyMtl)
  • Ruxandra Botez (ÉTS)
  • Maleknaz Nayebi (PolyMtl)
  • Jean-François Lalonde (ULaval)

Coordination scientifique et administrative

Restons en contact!

Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.