Projet DEEL (DEpendable and Explainable Learning)

Le projet DEEL, une collaboration entre des partenaires académiques et industriels pour le développement d’une intelligence artificielle interprétable, robuste, sécuritaire et certifiable appliquée aux systèmes critiques dans le domaine de l’aérospatial.

Le projet DEEL

Le projet DEEL (DEpendable and Explainable Learning) est une collaboration entre des partenaires académiques et industriels pour le développement d’une intelligence artificielle interprétable, robuste, sécuritaire et certifiable appliquée aux systèmes critiques dans le domaine de l’aérospatial.

En France, le projet DEEL est chapeauté par l’équipe de l’IRT Saint-Exupéry, de Toulouse depuis sa mise en œuvre. Par ailleurs, le volet français du projet s’inscrit également dans la foulée de la création de plusieurs instituts interdisciplinaires dédiés à l’intelligence artificielle (3IA) incluant l’Artificial and Natural Intelligence Toulouse Institute (ANITI) dirigé par l’Université fédérale de Toulouse-Midi-Pyrénées. 

Au Québec, le projet DEEL est porté par le Consortium de recherche et d’innovation en aérospatiale au Québec (CRIAQ) et l’Institut intelligence et données (IID) de l’Université Laval, avec la collaboration de l’Institut de valorisation des données (IVADO).

Des partenaires académiques et industriels sont également parties prenantes du projet. Du côté industriel : Thales Canada, CAE, Bombardier Aerospace et Bell Helicopter Textron Canada. Pour le volet académique : l’Université McGill, l’Université Laval, Polytechnique Montréal, l’Université du Québec à Montréal et l’Université de Montréal. 

Axes scientifiques

Le projet DEEL (DEpendable and Explainable Learningcouvre quatre grandes thématiques de recherche :

 

Robustesse 

Les algorithmes d’apprentissage ont montré d’excellents résultats dans diverses tâches et de multiples domaines. Cependant, ils ont également montré une grande fragilité lorsqu’ils sont confrontés à des situations qui diffèrent ne serait-ce que légèrement des données avec lesquelles ils ont été entraînés. Cette fragilité est une importante limitation pour des applications où il est difficile voire impossible de garantir que les données d’entraînement représentent bien les situations réelles. Pour l’industrie aéronautique, la robustesse d’un système réfère à sa capacité à opérer hors de ses conditions habituelles tout en maintenant un niveau de performance fixé à l’avance.

Cet axe de recherche vise ainsi le développement de méthodes d’apprentissages permettant de produire des modèles robustes ainsi que de la méthodologie adaptée à l’évaluation de la robustesse de ces modèles complexes et souvent opaques.

 

Interprétabilité 

Les programmes obtenus par apprentissage automatique ont souvent la capacité de transformer les données sous une forme appropriée avant d’accomplir une tâche spécifique plus efficacement. Toutefois, ces transformations sont difficiles à comprendre et à appréhender en raison de la complexité intrinsèque des modèles d’apprentissages à grande capacité. Ceci représente donc un obstacle à l’interprétation du fonctionnement du modèle. Alors qu’une augmentation de la capacité du modèle signifie souvent une perte en termes d’interprétabilité, l’acceptation et la certification du modèle appris par les différents acteurs concernés dépend de notre compréhension et de notre confiance en ces modèles.

Cet axe de recherche se concentre ainsi sur les aspects fondamentaux des deux principales formes d’interprétabilité : la transparence, qui concerne l’interprétabilité du modèle dans son entier, et l’explicabilité, qui se rapporte à l’interprétabilité des prédictions ou des décisions particulières faites par le modèle.

 

 

Certifiabilité 

Si la performance des systèmes de décision automatiques est désormais suffisante pour attirer l’intérêt des industries où la sécurité est critique, il n’en demeure pas moins que celles-ci ne peuvent évidemment pas renoncer à la nécessité de maîtriser les systèmes automatiques et de disposer de garanties formelles concernant leur fonctionnement. Les systèmes critiques pour l’aéronautique doivent subir un processus de certification exigeant avant de pouvoir être embarqués ou d’être utilisés au sol. La certification a pour mandat de s’assurer que le programme va opérer de façon conforme dans l’environnement prévu. Toutefois, la certification des algorithmes d’apprentissage profond et de l’informatique 2.0 pose de nouveaux défis.

Cet axe vise à faire progresser l’état de l’art en certification avec comme objectif de pouvoir certifier des systèmes incluant des composantes issues d’algorithmes d’apprentissage pour une utilisation en aéronautique.   

 

 

Privacy By Design

La sécurité des systèmes informatiques est un point essentiel pour les algorithmes  d’apprentissage. En particulier, il est nécessaire de pouvoir assurer que l’apprentissage machine repose sur des systèmes d’information impénétrables sans quoi les possesseurs de données critiques ne peuvent parfois pas envisager de s’engager dans la mise en œuvre de ces techniques. Ceci devient particulièrement crucial lorsque l’apprentissage doit être effectué chez un tiers (par exemple un centre de calcul) qui possède les infrastructures, les outils et les connaissances permettant le calcul des règles de décisions automatiques.

Cet axe de recherche a ainsi pour objectif de travailler sur les problèmes de sécurité spécifiques à l’apprentissage automatique comme garantir la confidentialité des données et de permettre l’apprentissage collaboratif.

 

Responsable scientifique de DEEL-Québec

Professeur titulaire, Faculté des sciences et de génie, Université Laval
Directeur, Centre de recherche en données massives (CRDM)
Titulaire, Chaire Canada-CIFAR en intelligence artificielle
Titulaire, Chaire de recherche industrielle CRSNG-Intact Corporation financière sur l’apprentissage machine en assurance

François Laviolette est professeur titulaire au département d’informatique et de génie logiciel de l’Université Laval.  Ses travaux de recherches portent sur l’intelligence artificielle, en particulier l’apprentissage automatique. 

Chef de file de la théorie PAC-bayésienne, qui permet de mieux comprendre les algorithmes d’apprentissage automatique et d’en concevoir de nouveaux, il s’intéresse entre autres à ceux permettant de résoudre des problèmes d’apprentissage liés à la génomique, à la protéomique et à la découverte de médicaments. Il s’intéresse également à rendre les intelligences artificielles interprétables dans le but de mieux intégrer des systèmes où des humains sont dans la boucle de décision. 

Il est directeur du Centre de recherche en données massives de l’Université Laval qui regroupe plus de 50 professeurs chercheurs.

Équipe de recherche

Chercheurs principaux : 

  • François Laviolette (ULaval)
  • Guilio Antonioli (PolyMtl)

Responsables d’axes : 

  • Liam Paul (UdM)
  • Mario Marchand (ULaval)
  • Sébastien Gambs (UQÀM)
  • Ettore Merlo (PolyMtl)

Co-chercheurs : 

  • Christian Gagné (ULaval)
  • Prakash Panangaden (McGill)
  • Nadia Tawbi (ULaval)
  • Josée Desharnais (ULaval)
  • Alain Tapp (UdM)
  • Foutse Khomh (PolyMtl)
  • Marc-Olivier Kilijian (UQAM)

Collaborateurs : 

  • Frédéric Precisio (SofiaAntipolis)
  • Andrea Lodi (PolyMtl)
  • Didier Chételat (PolyMtl)
  • Nathalie de Marcellis-Warin (PolyMtl)
  • Ruxandra Botez (ÉTS)
  • Maleknaz Nayebi (PolyMtl)
  • Jean-François Lalonde (ULaval)

Coordination scientifique et administrative

Restons en contact!

Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.