Chair objectives
Un choix courant est la perte quadratique, car elle bénéficie de propriétés mathématiques pratiques qui la rendent propice à l’optimisation.
Cependant, du point de vue de la modélisation, la perte quadratique sous-tend un modèle gaussien qui n’est pas toujours conforme à la géométrie des données.
C’est le cas lorsqu’il s’agit de données non négatives, à valeurs entières ou binaires, pour lesquelles les pertes non quadratiques sont plus adaptées.
Co-chairs
- Elsa Cazelles (CR CNRS, IRIT)
- Henrique Goulart (MCF Toulouse INP, IRIT)
- Emmanuel Soubies (CR
CNRS, IRIT)
L’objectif d’AMINA est de faire progresser la théorie et la méthodologie de l’optimisation avec des fonctions de perte non-quadratiques dans le cadre de l’approche majoration-minimisation (MM). L’approche MM consiste à construire et à minimiser, de manière itérative, une borne supérieure de la fonction de perte du problème (tangente au point courant). En d’autres termes, l’approche MM procède à l’optimisation itérative d’une approximation locale. Elle offre un cadre d’optimisation intuitif et puissant, qui ne nécessite pas d’hypothèses contraignantes. Les algorithmes MM font décroître la valeur de la fonction perte à chaque itération et ne nécessitent pas de paramètres de réglage. Des bornes supérieures bien conçues peuvent finement exploiter la courbure locale de la fonction de perte, ce qui se traduit par des mises à jour efficaces. Bien que l’approche MM remonte aux années 1970, elle a connu un renouveau important au cours de ces dernières années (à travers notamment des cas particuliers bien étudiés tels que les algorithmes de type gradient proximal).
La chaire AMINA s’intéresse à des problèmes liés à la conception et à la convergence d’algorithmes MM innovants dans quatre contextes d’apprentissage automatique et de traitement du signal :
1) mises à jour non alternées pour la factorisation non-négative de matrices fondée sur la divergence beta (une famille continue de pertes non-quadratiques),
2) reconstruction de phase fondée sur la divergence beta,
3) transport optimal non-équilibré pour l’interpolation de signaux audio,
4) algorithmes MM stochastiques pour l’apprentissage profond.
La conception d’algorithmes d’optimisation efficaces avec des garanties de convergence est une étape cruciale dans la construction de systèmes d’IA fiables.
- Progression de la méthodologie et la théorie des algorithmes de majoration-minimisation (MM).
- Optimisation avec des fonctions de perte non quadratiques
- Mises à jour non alternées pour les problèmes de factorisation de matrices.
- MM pour la reconstruction de phase fondée sur la divergence beta.
- MM pour le transport optimal non-équilibré.
- MM stochastique pour l’apprentissage profond
- Projet IA Franco-Singapourien DesCartes, financé par la National Research Foundation à Singapour sous l’égide du programme international CREATE (Cédric Févotte, Emmanuel Soubies).
- PEPR IA “Numerical analysis, optimal control and optimal transport for AI” (Elsa Cazelles).
- ANR Jeunes Chercheur.es EROSION (Emmanuel Soubies)
- Algorithmes d’optimisation rapides et fiables pour des problèmes identifiés dans les domaines de l’apprentissage automatique et du traitement du signal.
- Applications en traitement d’images astronomiques, traitement du signal audio, systèmes de recommandation.