Objectifs de la chaire
Les travaux de la chaire portent sur la formation des réseaux de neurones, « l’acquisition de l’intelligence », et sur les mathématiques de la phase d’apprentissage.
Nous recherchons des outils mathématiques adéquats pour évaluer l’efficacité dans les domaines de la formation, apprentissage et des formes de robustesse.
Nos angles de recherche pour atteindre ces objectifs vont de la prise en compte des propriétés structurelles des réseaux de neurones, à l’analyse mathématique et conception d’algorithmes.
Les trois axes selon lesquels nous abordons ces questions sont :
- la géométrie des réseaux de neurones,
- les outils d’optimisation non lisse (en particulier, les mathématiques de la différenciation algorithmique)
- la géométrie/étude d’algorithmes pour la phase d’apprentissage.
Notre approche scientifique mêle : mathématiques (optimisation, géométrie, analyse), informatique et applications pour le traitement du signal.
Programme : IA certifiable
Thèmes : IA et modèles physiques, Optimisation et théorie des jeux pour l’IA
Porteur :
Jérôme Bolte, Université Toulouse Capitole
Co-chairs:
F. de Gournay (Insa)
F. Malgouyres (UT3),
E. Pauwels (UT3),
P. Weiss (CNRS),
Sites
Porteur : Jérôme Bolte, TSE, Université Toulouse 1 Capitole
Co-chairs :
- François Malgouyres (UT3, IMT)
- Edouard Pauwels (UT3, IRIT)
Chercheurs associés :
- Frédéric de Gournay (INSA Toulouse, IMT),
- Pierre Weiss (CNRS, IMT)
Doctorants :
- Radu Dragomir (JB)
- Joachim Bona-Pellisier (FM)
- El Mehdi Achour (FM)
- Tam Le Ngoc (JB, EP)
Post-docs :
- Lilian Glaudin (JB and EP)
- Rodolfo Rios-Zertuche (JB and EP)
- Cyrille Combettes (JB and EP)
- Antonio Siveti-Falls (JB and EP)
Chercheurs invités :
- Shoham Sabach (Haifa)
- Marc Teboulle (Tel Aviv U.)
- Swann Marx (E. Pauwels)
- Médaille de bronze en Computer Science for E. Pauwels
- Agenium space: P. Weiss remporte “SpotGeo” Challenge Satellite Detection with Deep Learning augmentation of low cost telescope
- J. Bolte nommé AE in Foundations of Computational Mathematics
- J. Bolte nommé AE in SIAM Optimization
- One World Optimization Seminar (2020)
- Poema European network learning week (2020)
- Tutorial at Games, Approachability and Learning Workshop (2021)
- Mathematical colloquium of the University of Hong Kong (2021)
- E. Achour, F. Malgouyres, S. Gerchinovitz, Global minimizerss, strict and non-strict saddle points, and implicit regularization for deep linear neural networks, submitted to FOCM
- J. Bolte, E. Pauwels. Conservative set valued fields, automatic differentiation, stochastic gradient methods and deep learning. Mathematical Programming (2020): 1-33.
- Bolte, J., & Pauwels, E. (2020). A mathematical model for automatic differentiation in machine learning, NeuRIPS 2020
En savoir +
En intelligence artificielle, rien ne sert de courir, il faut prendre le bon chemin
Dans la famille mathématiques, l’optimisation est une discipline à part entière qui s’avère essentielle pour la recherche en intelligence artificielle. Explications avec le chercheur Jérôme Bolte, porteur de la chaire « Optimisation de grande taille pour l’IA ».