Les arbres de décision en tant que machines à partitionner

Les arbres de décision font partie des modèles les plus utilisés dans le domaine de l’apprentissage automatique en raison de leur flexibilité et de la possibilité d’interpréter leurs prédictions. Toutefois, bien que leur origine remonte à plus de 50 ans, les propriétés théoriques qui affectent leur garantie de généralisation, comme la dimension de Vapnik-Chervonenkis (VC), sont encore peu connues.

Date
  • 13 mars 2020
Heure

13h30 à 14h30

Localisation

Université Laval
Pavillon Adrien-Pouliot
Local 3775

Coûts

Conférence de Jean-Samuel Leboeuf, étudiant au doctorat en informatique, membre du Groupe de recherche en apprentissage automatique de l’Université Laval (GRAAL)

Les arbres de décision font partie des modèles les plus utilisés dans le domaine de l’apprentissage automatique en raison de leur flexibilité et de la possibilité d’interpréter leurs prédictions. Toutefois, bien que leur origine remonte à plus de 50 ans, les propriétés théoriques qui affectent leur garantie de généralisation, comme la dimension de Vapnik-Chervonenkis (VC), sont encore peu connues.

Lors de cette présentation, je montrerai comment une approche basée sur le concept des partitions permet d’évaluer la dimension VC des souches de décision lorsque les attributs sont à valeur réelle. De plus, j’étendrai cette approche aux arbres avec une structure quelconque pour borner supérieurement et inférieurement leur dimension VC.

 

Restons en contact!

Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.