Les arbres de décision en tant que machines à partitionner
Les arbres de décision font partie des modèles les plus utilisés dans le domaine de l’apprentissage automatique en raison de leur flexibilité et de la possibilité d’interpréter leurs prédictions. Toutefois, bien que leur origine remonte à plus de 50 ans, les propriétés théoriques qui affectent leur garantie de généralisation, comme la dimension de Vapnik-Chervonenkis (VC), sont encore peu connues.
Date
- 13 mars 2020
Heure
13h30 à 14h30
Localisation
Université Laval
Pavillon Adrien-Pouliot
Local 3775
Coûts
Gratuit
Conférence de Jean-Samuel Leboeuf, étudiant au doctorat en informatique, membre du Groupe de recherche en apprentissage automatique de l’Université Laval (GRAAL)
Les arbres de décision font partie des modèles les plus utilisés dans le domaine de l’apprentissage automatique en raison de leur flexibilité et de la possibilité d’interpréter leurs prédictions. Toutefois, bien que leur origine remonte à plus de 50 ans, les propriétés théoriques qui affectent leur garantie de généralisation, comme la dimension de Vapnik-Chervonenkis (VC), sont encore peu connues.
Lors de cette présentation, je montrerai comment une approche basée sur le concept des partitions permet d’évaluer la dimension VC des souches de décision lorsque les attributs sont à valeur réelle. De plus, j’étendrai cette approche aux arbres avec une structure quelconque pour borner supérieurement et inférieurement leur dimension VC.
Restons en contact!
Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.