La chaire Optimisation polynomiale s’articule autour de quatre axes de recherche principaux :
- Développer des algorithmes d’optimisation efficaces en vue de leur application pour aider à analyser et/ou résoudre des problèmes difficiles en Machine Learning (ML).
En tant qu’application de ML, la robustesse des DNN peut être évaluée et certifiées par des bornes supérieures fidèles à leur constante de Lipschitz associée, obtenue à partir de relaxations convexes. - Approche axée sur les données pour contrôler les systèmes dynamiques via une combinaison de l’opérateur Koopman et relaxations convexes. Par exemple, cette approche peut être utilisée pour déterminer l’ensemble maximum positivement invariable à partir des données.
- Vérification de la stabilité et des performances des systèmes dynamiques contrôlés par des réseaux de neurones en utilisant la représentation semi-algébrique des non-linéarités et des certificats de positivité efficaces. Ce qui permet de rechercher des certificats de stabilité rigoureux pour les systèmes dynamiques contrôlés par réseaux neuronaux formés à partir de données.
- Promouvoir le noyau de Christoffel-Darboux (CD) (et la fonction Christoffel associée), en tant qu’ outil puissant (et facile à utiliser) de la théorie de l’approximation et des polynômes orthogonaux, largement ignorés dans l’analyse des nuages (discrets) de points de données. Il peut être utilisé pour encoder des nuages de points de données, pour détecter les valeurs aberrantes et pour prendre en charge l’inférence.
Programmes : IA acceptable, certifiable & collaborative
Thèmes : apprentissages avec peu de données ou des données complexes, optimisation et théorie des jeux pour l’IA, données et anomalies
Porteur :
Jean-Bernard Lasserre, Directeur de recherche émérite, CNRS. Laas, Toulouse
Co-chairs :
- Milan Korda, co-chair : Chargé de recherche CNRS, LAAS, Toulouse
- Victor Magron, co-chair : Chargé de Recherche CNRS, LAAS Toulouse
Sites
- https://homepages.laas.fr/mkorda/
- https://homepages.laas.fr/vmagron/
- https://scholar.google.com/citations?user=WD6Z0XAAAAAJ&hl=zh-CN
.
Porteur : Jean Bernard LASSERRE (CNRS, LAAS)
Co-chairs :
- Milan KORDA (CNRS, LAAS),
- Victor MAGRON (CNRS, LAAS)
Doctorants :
- TONG Chen (ANITI), October 2019 – September 2022
- Hoang Ngoc Anh Mai (EDMITT) October 2019 – September 2022
- Corbinian Shlosser (EDMITT) February 2020 -January 2023
Post-docs :
- Jie Wang (ANR T-ERC COPS), July 2019 – June 2021
Chercheurs invités :
- Felix Kirschner, PhD (EU POEMA), Netherlands, March-June 2021
- Edgar Fuentes, PhD (EU POEMA), France, June-September 2021
- Vit Cibulka (Phd), Czech Republic, October 2020 – February 2021
- Nicolas Bauwens (Master), Belgium, March 2021 – June 2021
- Antonin Hurska (Master), Czech Republic, March 2020
- Europe : H2020 Marie Slodowska-Curie Training Network POEMA (Magron, M. Korda, J.-B. Lasserre)
- France: ANR T-ERC COPS (V. Magron)
- AMIES PEPS2 (J.-B. Lasserre, V. Magron)
- POPSIC CIMI-ANITI (V. Magron)
- CIMI (M. Korda)
- GACR 20-11626Y (M. Korda)
- Other: CREATE, Singapore (J.-B. Lasserre, M. Korda, V. Magron)
Jean-Bernard Lasserre a reçu le Grand Prix Inria – Académie des sciences pour ses travaux de recherche, notamment en optimisation mathématique. La reconnaissance d’une carrière scientifique exemplaire, avec des contributions majeures et des applications dans de nombreux domaines des sciences et de l’ingénierie. En savoir +
- BrainPOP seminar
- CIMI-ANITI school on optimization
- French-German Machine Learning Symposium (May 2021)
- V. Magron and J. Wang. SONC Optimization and Exact Nonnegativity Certificates via Second- Order Cone Programming. Journal of Symbolic Computation, 2021.
- Wang Jie, Magron V., Lasserre J.B. (2021) TSSOS: A Moment-SOS hierarchy that exploits term sparsity, SIAM J. Optim 31(1), pp. 30–58
- Wang Jie, Magron V., Lasserre J.B. (2021) Chordal-TSSOS: A Moment-SOS hierarchy that exploits term sparsity with chordal extension, SIAM J. Optim 31(1), pp. 114—141
- Henrion D., Korda M., Lasserre J.B. The Moment-SOS Hierarchy: Lectures in Probability, Statistics, Computational Geometry, Control and non-linear PDEs, World Scientific, Singapore, 2020
- T. Chen, J.-B. Lasserre, V. Magron, and E. Pauwels. Semialgebraic Optimization for Bounding Lipschitz Constants of ReLU Networks, Proceeding of NeurIPS, 2021.
- Korda, M. Computing controlled invariant sets from data using convex optimization. SIAM J.Optim 58(5), 2871-2899, 2020.
- Cibulka, V., Korda, M., & Haniš, T. (2021). Spatio-Temporal Decomposition of Sum-of-Squares Programs for the Region of Attraction and Reachability. IEEE Control Systems Letters
- Lasserre J.B., Pauwels E., Putinar M. (2021) Christoffel-Darboux Kernel for Data Analysis, Cambridge University Press, UK. In press
- El Khadir B., Lasserre J.B., Sindhwani. Piecewise-Linear Motion Planning amidst Static, Moving, or Morphing Obstacles, IEEE International Conference on Robotics & Automation (ICRA 2021), Xi’an, China, May-June 2021
En IA aussi, on pense global et on agit local – avec Jean-Bernard Lasserre
Pour le mathématicien Jean-Bernard Lasserre, tout problème a une solution locale, imparfaite, et une solution globale, la meilleure de façon absolue. Le chercheur teste les méthodes d’optimisation globale en intelligence artificielle. Il promeut également l’utilisation de la fonction mathématique de Christoffel, pour certains problèmes en analyse de données.