Efficient algorithms and Data Assimilation for Computationally Efficient Constrained Advanced Learning
Objectifs de la chaire
L’objectif de la chaire est de promouvoir une synergie entre l’assimilation de données et l’apprentissage machine pour étudier de nouveaux algorithmes ainsi que leur mise en œuvre efficace sur des architectures informatiques modernes. En ce qui concerne l’IA, notre objectif est d’étudier les méthodes d’introduction de contraintes physiques dans les algorithmes d’apprentissage machine, et de prouver tant théoriquement que pratiquement leurs performances.
Programme : IA acceptable
Thèmes : Développement sûr et embarquabilité | données et anomalies | IA et modèles physiques | optimisation et théorie des jeux pour l’IA
Porteur : Serge Gratton (Toulouse INP – IRIT)
Équipe
Pierre Boudier (ANITI)
Alfredo Buttari (CNRS)
Selime Gürol (Cerfacs)
C. Lapeyre (Cerfacs)
L’assimilation de données (DA) est un outil omniprésent pour faire des prédictions dans des systèmes complexes, qu’ils soient des systèmes à grande échelle tels que ceux dérivés de l’observation de la Terre ou des systèmes avec peu de degrés devliberté, comme les véhicules terrestres ou spatiaux autonomes. Les performances de précision des prédictions doivent être obtenues en utilisant le moins possible les ressources informatiques disponibles, qu’elles soient hébergées dans des centres de calcul ou embarquées dans des systèmes autonomes.
Il est important de noter la différence cruciale si l’on pense Machine Learning (ML) : on parle alors de prédictions spatiale et temporelle qui tirent parti de la connaissance des modèles physiques dépendant du temps. La question pourrait être reformulée de cette manière : comment le ML peut-il améliorer les performances obtenues par les technique de DA, à la fois dans la précision et dans l’utilisation des ressources de calcul (High Performance Computing).
L’assimilation de données consiste à faire des prédictions à partir d’équations d’évolution qui sont ajustées à l’aide de données d’observation. Cette discipline s’est énormément développée ces derniers temps, notamment en s’appuyant sur l’utilisation de techniques d’échantillonnage statistique.
Cette émergence a été stimulée par de forts besoins sociétaux dans des applications de pointe telles que la météorologie et les géosciences en général, mais aussi d’autres secteurs comme la neutronique, la mécanique pour n’en citer que quelques-uns. On observe également que la complexité mathématique des modèles d’évolution modernes s’accroît de telle manière que le suivi de systèmes en temps réel est un défi dans de nombreuses applications. À cet égard, les questions importantes à résoudre sont liées à une bonne gestion de la non-linéarité des modèles, à l’atténuation des hypothèses linéaires et gaussiennes qui sont au cœur des algorithmes les plus récents, et à l’utilisation efficace des ressources de calcul
Soutenus par une théorie statistique très générale, les algorithmes d’apprentissage profond permettent de faire des prévisions sur une grande variété d’ensembles de données et d’obtenir des performances impressionnantes, tant en termes de précision que de temps d’exécution, et ceci dans de nombreuses applications telles que le traitement des images et de la parole, pour n’en citer que deux. La clé est l’expressivité des réseaux neuronaux profonds, qui permet d’aborder des fonctions très non linéaires, l’utilisation de bases de données riches, et l’implantation d’algorithmes sur des architectures de calcul dédiées à ces tâches de prédiction.
Porteur de la chaire : Serge Gratton, INP-IRIT
Co-chairs :
- Alfredo Buttari (CNRS, IRIT)
- Corentin Lapeyre (Cerfacs)
Chercheurs associés :
- Pierre Boudier (Nvidia)
- Selime Gurol (Cerfacs)
Doctorants :
- Th. Beuzeville (Cifre Atos)
- S. Jerad (ANITI)
- V. Mercier (Cifre BRLi)
- M. Peyron (Cifre Atos)
Post-docs :
- A. Fillion (oct. 2019, oct.2021)
Chercheurs invités
- Ph. Toint (University of Namur, Belgium)
- COAP 2019 Best Paper award: Paper of S. Gratton, C. W. Royer, L. N. Vicente, and Z. Zhang. Comput. Optim. Appl. 77, 617–621 (2020).
- DAN–An optimal Data Assimilation framework based on machine learning Recurrent Networks P Boudier, A Fillion, S Gratton, S Gürol. Submitted to SIAM
- Latent Space Data Assimilation by using Deep Learning. Mathis Peyron, Anthony Fillion, Selime Gurol, Victor Marchais, Serge Gratton, Pierre Boudier, and Gael Goret, under revision for QJRMS.
- A coarse space acceleration of deep-DDM, Valentin Mercier, Serge Gratton, Pierre Boudier. Submitted to Neurips 2021
- An algorithm for the minimization of nonsmooth nonconvex functions using inexact evaluations and its worst-case complexity. S Gratton, E Simon, Ph.L.Toint, Mathematical Programming, 1A, 2-24, 2020
- Adversarial attacks via backward error analysis. Th.o_Beuzeville, Pierre Boudier, Alfredo Buttari, Serge Gratton, Theo Mary, St.phane Pralet. Submitted to Neurips 2021
En savoir +
L’intelligence artificielle pour booster les prévisions en tout genre.
Quel rapport existe-t-il entre assimilation de données, prévisions météorologiques et intelligence artificielle ?
Quels sont les liens entre océanographie, indice de confiance d’une prédiction et apprentissage automatique ?