Les exploits récents du machine learning dans le domaine du traitement automatique ont ouvert la voie à de nouvelles fonctionnalités inédites et inenvisageables jusqu’alors.
Ces succès ne doivent pas occulter les grandes difficultés que nous avons aujourd’hui à comprendre et interpréter pourquoi et comment ça marche. En effet de nombreux cas pathologiques ont fleuri dans la littérature qui incitent à la prudence.
Poser un cadre mathématique et statistique propre sur le machine learning est la seule façon de conceptualiser les limitations objectives de ce type d’approche.
L’objectif de cette formation est de poser un cadre mathématique simple et compréhensible.

Objectifs

À l’issue de la formation, le stagiaire sera capable :

  • d’identifier à quelle grande classe de problème d’apprentissage une situation concrète correspond, et savoir mettre en équations ce problème
  • de connaître des algorithmes classiques antérieurs au deep learning, leur degré de maîtrise théorique et leurs limitations
  • d’avoir un aperçu de la complexité théorique des problèmes de deep learning, ce qu’on sait ou ne sait pas prouver à l’heure actuelle

Pré-requis

  • Bases mathématiques, statistiques niveau BAC+5

Program

Chacun des jours se déroulera ainsi :
(i) formalisation mathématique du problème, d’un use-case aux équations mathématiques ;
(ii) présentation d’algorithmes classiques, avec leurs propriétés théoriques principales ; forces et faiblesses de ces algorithmes ;
(iii) présentation d’algorithmes plus récents, avec les garanties théoriques partielles existant à l’heure actuelle, sur les aspects statistiques, optimisation et théorie de l’approximation. Point sur quelques dangers pratiques et sur les méconnaissances théoriques actuelles.
Les algorithmes décrits en cours seront par ailleurs illustrés sur des notebooks.
Jour 1 : Régression, du modèle linéaire au deep learning
– Formalisation d’un problème de régression
– Modèle linéaire (petite et grande dimension)
– Régression non-paramétrique : méthodes à noyaux et k-plus proches voisins
– Réseaux de neurones feedforward
Jour 2 : Classification supervisée, du perceptron au deep learning
– Formalisation d’un problème de classification supervisée
– Perceptron et Support Vector Machines
– Réseaux de neurones feedforward
Jour 3 : Apprentissage séquentiel
– Formalisation d’un problème d’apprentissage séquentiel
– Algorithmes de bandits
– Apprentissage par renforcement (introduction)
Jour 4 : Estimation de densité non-paramétrique, des méthodes à noyaux aux GANs
– Formalisation d’un problème d’estimation de densité
– Maximum de vraisemblance, algorithme EM
– Méthodes à noyaux
– Generative Adversarial Networks

Compétences

Connaissance du Machine Learning

Inscription

celine.tevino@irt-saintexupery.com

Niveau
Cycle
Langue

Français ou anglais

Lieu

B 612

Durée et dates

Durée : 3 jours (21h)

A la demande

Tarif

1800 € HT , Remise 20% partenaires ANITI

Modalités

Présentiel

Publics

Ingénieurs

Intervenants

Grégory Flandin, ingénieur de recherche à l’IRT Saint Exupéry

Contact

celine.tevino@irt-saintexupery.com

Categories:

en_GBEnglish