La machine apprenante : perspectives et tendances autour de l’apprentissage automatique
Du 2 au 6 mars 2020, l’Institut intelligence et données (IID) et la Formation continue de la Faculté des sciences et de génie de l’Université Laval offrent une nouvelle édition de l’École d’hiver en apprentissage automatique. Une belle excuse pour porter un regard sur le domaine et ses évolutions actuelles et futures – question de mettre de l’avant l’importance de l’apprentissage automatique dans le développement de l’intelligence artificielle et de l’univers des possibles qui lui est associé
L’apprentissage automatique, ou Machine Learning, est un champ d’étude lié au domaine de l’intelligence artificielle, visant à faire interagir un ensemble d’outils informatiques et statistiques qui permettent à l’ordinateur d’apprendre à partir de données de différents natures. Celui-ci pourra alors exécuter des tâches, suggérer des pistes d’action ou encore recommander des décisions.
En savoir plus sur l’École d’hiver en apprentissage automatique
L’apprentissage profond, en pleine explosion ces dix dernières années
De l’ensemble des approches rattachées à l’apprentissage machine, d’un point de vue technologique, c’est l’apprentissage supervisé qui est assurément la technique la plus mature – l’approche, étudiée depuis longtemps déjà, impliquant de façon générale des problèmes plus faciles, appuyés par une rétroaction directe pour chaque décision.
D’histoire récente, c’est toutefois l’apprentissage profond (Deep Learning) qui connaît une véritable explosion au fil des 10 dernières années, offrant de nouvelles possibilités comparativement aux approches d’apprentissage supervisé plus classiques. « De la famille de l’apprentissage machine, c’est assurément l’apprentissage profond qui a connu les succès les plus visibles » remarque Christian Gagné, directeur scientifique de l’Institut intelligence et données et professeur titulaire au Département de génie électrique et de génie informatique de la Faculté des sciences et de génie de l’Université Laval.
Au-delà des données chiffrées, cette approche permet d’appréhender les sons, les images, le texte en langage naturel, bref, les signaux complexes.
« Divers facteurs expliquent l’essor du Deep Learning, notamment l’accès à des ressources de calcul toujours plus performantes, le développement de nouvelles méthodes d’apprentissage gérant les données à grande dimension et, surtout, le fait qu’on a accès de façon massive à des données d’entraînement », explique Christian Gagné. Le titulaire d’une chaire Canada-CIFAR en intelligence artificielle cite notamment des jeux de données tels que ImageNet où quelque 1,4 millions d’images peuvent être utilisées pour l’entraînement de systèmes de vision par ordinateur, notamment pour la reconnaissance d’objets.
De l’importance du prétraitement des données
Évidemment, pour obtenir des résultats utilisables, par le biais de ce type d’approches, il importe que les données aient également été adéquatement étiquetées, soit avec l’information sur leur contenu ou la décision qui doit y être associées.
« La qualité des données qui seront entrées dans le modèle est déterminante pour la qualité des éléments qui vont en sortir. De ce fait, il importe de bien comprendre ce qui pourrait être problématique dans les données choisies avant même que celle-ci soient intégrées – avec un bon prétraitement des données, on parvient, par exemple, à agir en amont sur les biais potentiels qui, eux, peuvent être réfutés », détaille Marie-Pier Côté, professeure adjointe à l’École d’actuariat de la Faculté des sciences et de génie de l’Université Laval et titulaire de la chaire CLE en analyse de données massives pour l’actuariat – Intact et chercheuse membre de l’IID.
L’approche statistique, en lien avec les données, implique de bien structurer les modèles à utiliser, de bien identifier les variables ciblées, et les évolutions qu’elle vont connaître au fil de la modélisation. Tout ça, il va sans dire, avec la volonté d’éviter les biais, d’assurer un usage responsable des technologies liées à l’intelligence artificielle.
Apprendre des représentations, apprendre par renforcement
Il existe également d’autres approches liées à l’apprentissage automatique, qui permettent de mitiger ces enjeux – par exemple, le transfert de représentations, une tendance en émergence actuellement dans le domaine. « Est-ce qu’il est possible d’apprendre des modèles liés à l’apprentissage profond, d’amener la machine à apprendre la façon d’apprendre pour pouvoir ensuite, à partir de nouvelles bases de données », indique Christian Gagné.
À cela, on peut également coupler l’apprentissage few-shot – c’est-à-dire, effectué à partir de peu d’exemples. À partir de modèles appris, en intégrant une quantité limitée de nouvelles données, le système en vient ainsi à extrapoler et appliquer de nouveaux modèles. « Pour entraîner la machine à accomplir ces actions, on se donne des contextes où l’on change continuellement de problèmes, pour amener l’intelligence à être en mesure d’apprendre rapidement », continue le directeur de l’IID. À terme, le système est ainsi capable, par lui-même, de s’organiser, de se spécialiser. « Une fois à maturité, c’est une approche qui serait facilement adaptable à des situations nouvelles, un peu à l’image du modèle de compréhension de l’humain ».
En parallèle, l’apprentissage par renforcement commence, lui aussi, à faire ses preuves – notamment par le biais des démonstrations effectuées par DeepMind avec les jeux GO ou StarCraft. « Ce type d’approche amène la machine à apprendre par essai et erreur, à réaliser des actions pratiques, concrètes, par la répétition d’opérations. »
Des méthodes adaptées à l’ampleur des problématiques traitées
Cela dit, parfois, les méthodes les mieux adaptées aux problèmes peuvent être également trouvées dans la sphère des statistiques, rappelle Marie-Pier Côté : « Parfois, la solution, on la trouve dans l’apprentissage profond, à d’autres moments, on la trouvera plutôt dans les modèles de régression – qui peuvent être plus facile à implanter, selon la situation. »
Certains secteurs – comme les assurances – bénéficieront largement de ces avancées, et ce, peu importe l’approche préconisée. Plusieurs pans de l’offre de service de ce domaine, tels l’évaluation des tarifs ou la gestion des réclamations, gagnent ainsi à s’approprier plus avant des approches liées aux données massives (Big Data).
Dans certains cas, c’est une véritable révolution qui peut être envisagée – comme en ce qui concerne les données télématiques.
« À partir de ces données, on peut être en mesure, par exemple, de comprendre de façon précise le comportement d’un conducteur, plutôt que d’avoir à procéder par proxy. Cela permet de baser l’évaluation des risques sur les comportements qui causent des accidents », explique la chercheuse.
Un exemple parmi d’autre, qui illustre bien le potentiel associé à l’apprentissage machine et aux sciences des données. Lors de l’École d’hiver en apprentissage automatique, participants et participantes auront l’opportunité d’explorer plus avant certains de ces éléments, de bien en comprendre les fondements, et d’obtenir une connaissance pratique et appliquée de l’apprentissage automatique qui leur donnera la confiance nécessaire pour prendre des décisions stratégiques réfléchies et amorcer des changements dans leurs organisations.
Restons en contact!
Vous souhaitez être informé des nouvelles et activités de l'IID? Abonnez-vous dès maintenant à notre infolettre mensuelle.