Les défis scientifiques traités dans les programmes de recherche, issus des projets des chaires et des cas d’usage fournis par les partenaires industriels d’ANITI, sont déclinés en douze thèmes. Certains thèmes sont traités conjointement au sein de plusieurs programmes de recherche.
Apprentissage avec peu de données ou des données complexes
Apprendre avec peu de données est nécessaire pour de nombreux domaines, par exemple le traitement automatique du langage, mais aussi dans toute application nécessitant des données annotées de haute qualité et sémantiquement riches.
Ce thème explorera de nouvelles approches et architectures d’apprentissage inspirées des mécanismes d’apprentissage « naturels » ou « biologiques » : les humains et les autres animaux peuvent apprendre des informations complexes à partir de données peu nombreuses et souvent bruitées. Une autre piste concerne l’extension de techniques de génération automatique de données pour l’apprentissage, pour qu’elles puissent passer à l’échelle et s’appliquer à d’autres problèmes que ceux sur lesquels elles ont été testées jusqu’à présent. Un autre défi concerne la définition de méthodes de représentation compactes de données à grandes dimensions, adaptées à l’apprentissage profond.
L’ambition est aussi de développer un cadre unifié permettant d’harmoniser des données multi-sources, multi-modales, multi-échelles et temporellement dynamiques, en une représentation sémantique cohérente pour l’apprentissage profond. Nous appliquerons par exemple le calcul bayésien approximatif aux problèmes d’algorithmes d’extraction de propriétés cachées (décrites dans un espace latent) dans de telles données. Des applications sont envisagées dans le domaine de la télédétection, des transports et de la biologie.
Axe 1 : Apprentissage avec peu de données
Axe 2 : Apprentissage des représentations
Axe 3 : Données multi-source, multi-échelle
Chaires : Nicolas Dobigeon, Fabrice Gamboa, Jean-Bernard Lasserre, Thomas Serre, Thomas Schiex, Rufin van Rullen
Développement sûr et embarquabilité
Ce thème concerne le développement d’architectures matérielles et logicielles et la validation de systèmes embarqués critiques intégrant des algorithmes d’IA, afin de permettre à ces systèmes de fournir des résultats conformes aux exigences de certification ou des normes du domaine par exemple dans l’avionique ou l’automobile.
Un des objectifs est d’évaluer diverses plateformes matérielles disponibles sur étagère (COTS-Commercial off the shelf) pour différentes méthodes d’apprentissage automatique et d’étudier comment intégrer ces méthodes sur ces plateformes en tenant compte des contraintes des standards, notamment les contraintes temps-réel. Différentes problématiques seront explorées :
1) Comment choisir une plateforme matérielle COTS adéquate qui offre des performances suffisantes et qui répond aux contraintes du domaine et en fonction du modèle d’apprentissage ?
2) comment définir un modèle d’exécution sur le matériel afin qu’il soit possible de calculer un pire temps d’exécution (WCET) d’un modèle/application d’apprentissage?
3) Comment coder efficacement un modèle d’apprentissage machine et le compiler sur la plate-forme cible ?
4) comment maitriser et borner hors ligne les erreurs de calcul liées à la représentation des données en virgule flottante ?
5) comment détecter les défaillances matérielles en cours d’exécution ? etc.. Une des solutions explorées pour la maîtrise des contraintes temporelles consiste par exemple à contraindre l’exécution selon des règles de programmation prédéfinies, dans un environnement minimaliste, afin de comprendre et de prévoir le comportement bas niveau du programme et les besoins en ressources de calcul correspondants.
Les travaux visent également à développer un framework pour la génération et la vérification automatique de code bas niveau et ses binaires associés sur la cible. Les travaux incluent aussi le développement de mécanismes de surveillance en ligne pour assurer une exécution sûre d’algorithmes d’apprentissage machine sur des processeurs dédiés. Les applications concerneront par exemple des systèmes de reconnaissance d’image ou de conduite autonome intégrant des réseaux de neurones.
Les travaux portent aussi sur l’exploration de différents moyens de vérification de modèles d’apprentissage intégré dans des systèmes critiques afin de garantir un haut niveau de sécurité pour le système. La première approche concerne la vérification formelle du modèle et comprendra : le développement de nouveaux outils de vérification, la définition de stratégies de vérification et la combinaison de la simulation et de la vérification formelle lorsque la vérification seule est insuffisante. La deuxième approche consiste à définir des techniques alternatives lorsque la vérification formelle ne peut être appliquée. Un exemple de cette alternative est la définition de bonnes pratiques d’apprentissage qui apporteront une certaine confiance sur le modèle.
Axe 1 : Architectures IA embarquées
Axe 2 : Sélection et vérification de modèles IA
Axe 3 : Assurance Système
Chaires : Serge Gratton, Joao Silva Marques, Claire Pagetti
Donnés et anomalies
Ce thème vise à définir des techniques avancées de détection, diagnostic e prognostic d’anomalies ou d’événements extrêmes comme les crues, basées sur l’IA hybride.
Le premier objectif est de comprendre comment les approches basées sur des modèles et des données peuvent se compléter de façon efficace. Le second objectif est de pouvoir abstraire des classificateurs de données et les mettre en correspondance avec des modèles symboliques ou analytiques adaptés au raisonnement pour le diagnostic, afin d’obtenir une meilleure explicabilité et acceptabilité des résultats.
L’ambition est de définir une méthode générale de détection des anomalies satisfaisant les critères suivants : (a) ne dépendant pas trop d’un type de données particulier, (b) tenant compte de règles issues de la physique des processus modélisés ou de restrictions logiques, (c) permettant de distinguer une anomalie réelle d’autres perturbations liées au bruit ou à un échantillonnage non représentatif des données, (d) pouvant s’adapter à des environnements et contextes dynamiques, (e) transférable à un jumeau numérique avec réajustement automatique, et (f) permettant un diagnostic de l’anomalie détectée.
Différents cas d’usage seront considérés pour valider les techniques proposées couvrant, par exemple, la maintenance prédictive et le diagnostic de cartes électroniques, de cobots ou de systèmes industriels représentés par des jumeaux numériques, la détection de crues par simulation numérique augmentée par des techniques d’apprentissage machine.
Axe 1 : Détection, diagnostic et prognostic d’anomalies et d’événements extrêmes
Axe 2 : Représentation de données pour la détection d’anomalies
Chaires : Jean-Michel Loubès, Serge Gratton, Jean-Bernard Lasserre, Louise Travé-Massuyes
Explicabilité
L’explicabilité ou l’interprétabilité des prédictions des algorithmes d’apprentissage automatique est une condition indispensable pour rendre les systèmes d’IA acceptables pour le grand public et pour leur intégration dans les systèmes critiques du futur et leur certification.
Ce thème comporte trois volets, le premier présentant une approche logique de l’explicabilité, le deuxième une approche statistique, et le troisième traite des approches d’hybridation qui peuvent exploiter le meilleur des deux techniques. Les méthodes logiques sont basées sur une représentation d’un algorithme d’apprentissage par un ensemble de clauses du premier ordre, à partir de laquelle on peut étudier diverses notions d’explication que les scientifiques, les philosophes et les logiciens ont développées dans un cadre logique général. Ces explications sont utiles pour analyser la robustesse et détecter les biais. Le principal défi est le passage à l’échelle de ces méthodes.
Les techniques statistiques consistent à perturber les entrées et mesurer l’effet sur les classifications, indiquant ainsi les paramètres clés de l’apprentissage. Cette méthode est performante mais ne garantit pas formellement les résultats. L’étape suivante consiste à construire les combinaisons hybrides en mettant de la logique dans les statistiques et inversement dans l’optique d’améliorer à la fois la qualité de l’explication et la performance de l’obtention de cette explication.
Ces techniques seront expérimentées sur des données industrielles en reconnaissance d’image par exemple pour des véhicules autonomes ou en langage.
Axe 1 : Explicabilité par des méthodes logiques
Axe 2 : Explicabilité par des méthodes statistiques
Axe 3 : Hybridation – combiner des approches logiques et statistiques
Chaires : Leila Amgoud, Joao Silva Marques, Jean-Michel Loubès, Thomas Schiex, Louise Travé-Massuyes
Fair learning
L’objectif est de développer de nouvelles méthodes permettant de détecter puis d’éliminer les biais indésirables dans les jeux de données d’apprentissage, de validation et de test ou dans les distributions de probabilités associées à une architecture d’apprentissage, que l’utilisateur final peut spécifier.
Ce thème examine également comment ces méthodes répondent aux exigences légales et éthiques des systèmes d’IA. Les recherches s’attaquent aux défis suivants :
1) Fournir des définitions formelles et légales des biais qui peuvent conduire à des contrôles traçables et réalisables de l’algorithme et qui peuvent également s’adapter à de grands volumes de données à utiliser dans des applications du monde réel ;
2) Comprendre la nature et les conséquences épistémologiques des biais (distribution de l’échantillon d’apprentissage, échantillonnage de l’ensemble de données, contraintes juridiques ou techniques) ;
3) Comprendre l’effet de la satisfaction des conditions d’équité (« Fairness conditions ») sur la performance du système d’IA ;
4) Utiliser le biais pour l’explicabilité de méthodes contrefactuelles et logiques.
Un intérêt particulier sera porté à l’application de ces méthodes à des systèmes critiques qui doivent satisfaire à des exigences de certification. Dans les applications industrielles, le biais peut provenir d’une représentation déséquilibrée des conditions de fonctionnement et d’environnement, d’un mauvais étiquetage ou d’une description incomplète des données conduisant à des corrélations erronées.
Les modèles d’apprentissage doivent être robustes à ce type de biais. Un des défis dans ce contexte est de comprendre les effets de la distribution de l’échantillon données durant la phase d’apprentissage et l’erreur de généralisation afin de garantir que les performances de l’algorithme restent robustes aux modifications de leur environnement (apprentissage par transfert, apprentissage par consensus, protection contre les conditions adverses).
Différents cas d’usage par exemple du domaine des transports ou de la santé seront considérés pour valider ces travaux.
Axe 1 : Analyse de biais pour la fairness
Axe 2 : Analyse de biais dans les données et algorithmes pour des systèmes critiques certifiables
Chaires : Leila Amgoud, Celine Castet-Renard, Fabrice Gamboa, Jean-Michel Loubès, Claire Pagetti, Joao-Marques Silva.
IA et modèles physiques
Il s’agit d’examiner les relations entre les modèles analytiques, dits modèles physiques, décrivant l’évolution de processus complexes (physiques, chimiques, biologiques, …) et les modèles issus d’apprentissage et comment ils peuvent se renforcer mutuellement, notamment pour les modèles de simulation.
Un premier objectif concerne l’accélération de la simulation de modèles physiques en utilisant des modèles d’apprentissage automatique. C’est un thème général qui vise à résoudre des problèmes complexes (en conception par exemple), en combinant des approches issues des mathématiques pures (algèbre, topologie, géométrie), des mathématiques appliquées (statistiques, méthodes numériques) et des techniques HPC pour des données massives : assimilation de données, optimisation, apprentissage statistique, quantification de l’incertain, analyses de sensibilité etc.
Le second objectif traite plus particulièrement de l’amélioration de l’apprentissage de modèles de processus physiques qui suivent des lois partiellement connues, car paramétriques ou sujettes à des erreurs aux statistiques connues, pour lesquels une précision importante est attendue sur les résultats numériques.
L’intérêt porte en particulier sur l’exploration d’algorithmes d’apprentissage sous contraintes physiques, utilisant des réseaux de neurones profonds avec des méthodes d’optimisation de second ordre et des techniques d’assimilation de données permettant d’obtenir les meilleures prédictions de l’état du système à partir des observations. Les applications industrielles de ses travaux envisagées sont diverses incluant par exemple la simulation de flux aérodynamiques, la prédiction de crues, l’optimisation du test de composants électroniques, etc.
Axe 1 : Accélération de la simulation et optimisation de modèles physiques par des modèles d’apprentissage et des approches statistiques et géométriques
Axe 2 : Apprentissage avec des contraintes physiques
Chaires : Serge Gratton, Fabrice Gamboa, Thomas Schiex, Jérôme Bolte, Nicolas Dobigeon
IA et société
Ce thème traite des défis liés à l’acceptabilité socio-économique, juridique ou éthiques des applications d’IA, en répondant à des questions telles que « comment l’IA affecte-t-elle la compétitivité économique, les plateformes économiques ? « Comment pouvons-nous utiliser l’IA pour impliquer davantage le grand public dans les décisions sociales/gouvernementales ? comment les systèmes d’IA autonomes sont perçus par le grand public, comment évaluer les risques associés et comment pouvons-nous les rendre plus acceptables ?
Les travaux sont aussi liés aux préoccupations et responsabilités juridiques et à la protection de la vie privée.
Axe 1 : Acceptabilité sociale et application de l’IA
Axe 2 : Responsabilité juridique et éthique
Chaires : Jean-François Bonnefon, Bruno Jullien, César A. Hidalgo, Céline Castets Renard
Langage
Ce thème vise à apporter des contributions majeures dans le domaine de l’extraction d’informations sémantiques à partir de textes dans des domaines semi-fermés (c’est-à-dire qui portent sur un sujet particulier comme les logs de maintenance ou de production).
Non seulement la sémantique lexicale sera exploitée, mais aussi la sémantique codée dans les relations entre les clauses ou la structure du discours. Cette dernière est importante pour saisir, par exemple, les raisons pour lesquelles une opération a été ou n’a pas été effectuée, les exceptions aux exigences, les descriptions plus détaillées des propositions ou des opérations effectuées, mais aussi les opinions et les commentaires.
En raison des difficultés de capture de telles informations, l’utilisation de méthodes d’apprentissage avec peu de données seront explorées, combinées à des techniques d’apprentissage profond dans des architectures hybrides. Les travaux examinerons aussi comment les informations non linguistiques durant une conversation s’intègrent aux informations linguistiques pour transmettre un message au contenu sémantique plus complet.
Seront étudiés les fondements mais aussi l’apprentissage de la représentation multimodale. La compréhension de l’interaction de sources d’information multimodales dans la conversation sera également cruciale pour améliorer les performances des robots/cobots et des assistants de conversation qui ont accès à des données visuelles et linguistiques. L’état de l’art actuel n’exploite pas les informations multimodales ou seulement de manière très primitive. Ces avancées dans la modélisation du dialogue et de la conversation seront aussi exploitées pour produire des systèmes conversationnels réalistes qui sont intégrés dans un environnement physique.
Cela permettra de doter ces systèmes de capacités qui font défaut dans les mises en œuvre actuelles, par exemple pour apprendre de nouvelles actions complexes à partir de descriptions linguistiques et visuelles et d’exécuter ces actions.
Axe 1 : Sémantique de données bruitées
Axe 2 : Langage et multi-modalités
Axe 3 : Modélisation de dialogue/conversations
Chaires : Rachid Alami, Leila Amgoud, Thomas Serre, Rufin VanRullen
Neuroscience et IA
Ce thème traite le volet intelligence naturelle d’ANITI et vise la fertilisation croisée entre les neurosciences et les techniques d’intelligence artificielle. Deux objectifs principaux sont visés : 1) utiliser des méthodes d’apprentissage automatique pour résoudre des questions fondamentales en neurosciences ; 2) utiliser les connaissances sur les modes de fonctionnement du cerveau pour améliorer les algorithmes d’intelligence artificielle et les architectures des réseaux de neurones, en particulier pour l’apprentissage par renforcement.
Un premier sujet porte sur la conception d’une technologie neuroadaptative basée sur des interfaces cerveau-ordinateur passives dédiées à la mesure de l’activité cérébrale d’utilisateurs en interaction les uns avec les autres et avec des agents artificiels. Le défi est de développer une méthode efficace pour traiter des données physiologiques en ligne qui serait robuste au bruit, au contexte de travail et à l’opérateur humain, et qui permettrait de surveiller dans des environnements à risque les états mentaux pertinents tels que charge de travail, la fatigue, le stress et la détection d’erreurs. Les données physiologiques d’intérêt correspondent à des mesures cardiaques et oculomotrices enregistrées à l’aide d’ECG et d’appareils de suivi oculaire, mais aussi de mesures cérébrales enregistrées par électroencéphalographie (EEG).
Les travaux effectués dans le cadre du deuxième objectif, incluent le développement de techniques d’apprentissage par renforcement inverse afin de comprendre et d’apprendre des processus cérébraux favorisant la dynamique de l’attention, en utilisant des données EEG et d’IRM cérébrales (fMRI). Il s’agit aussi de comparer les représentations apprises par les réseaux de neurones profonds avec les représentations humaines sur les mêmes ensembles de données, à la fois pour la vision et le langage. La comparaison nous aidera à comprendre le fonctionnement du cerveau, mais peut également nous indiquer quels modèles de réseaux neuronaux sont plus (ou moins) compatibles avec les représentations humaines, et éventuellement concevoir de nouvelles façons d’améliorer cette compatibilité (par exemple en utilisant l’activité du cerveau humain comme régularisateur pendant l’entraînement des réseaux neuronaux).
Axe 1 : IA pour monitorer et comprendre l’activité cognitive
Axe 2 : IA Neuro-inspirée
Chaires : Rachid Alami, Frédéric Dehais, Nicolas Mansard, Thomas Serre, Rufin VanRullen
Optimisation et théorie des jeux pour l’IA
Ce thème vise à étudier les fondements théoriques de différentes techniques d’optimisation et de la théorie de jeux afin de optimiser les méthodes d’apprentissage automatique basées sur des réseaux de neurones et de mieux comprendre d’un point de vue théorique leurs conditions de convergence, de stabilité et de robustesse, ainsi que leur capacité de généralisation. Ce sujet est aussi central pour la certification de systèmes IA utilisés dans des systèmes critiques. Un des objectifs est de définir de nouvelles méthodes, conditions et outils pour avoir plus de garanties sur le comportement des réseaux de neurones, qui permettront sous certaines conditions d’améliorer notre confiance dans la robustesse des algorithmes d’apprentissage profond vis-à-vis de la variation des entrées, des données d’entrainement, de leur distribution, …. La robustesse est examinée via des analyses du pire cas sur des modèles de grande taille, via des modèles contrefactuels ou des approches statistiques. Nous explorons aussi des approches d’optimisation semi-algébriques et des certificats de positivité associés à travers l’exploitation de la parcimonie et/ou symétrie présentes dans les applications en grande dimension, ou toute autre propriété structurelle à découvrir sur ces applications. Nous examinerons également les applications possibles de concepts et outils de la théorie des jeux, en lien avec l’apprentissage automatique, incluant les problèmes de bandits et les réseaux généralisés adversariaux (GAN). Un de nos objectifs est de définir des GAN plus stables et de nouveaux algorithmes qui passent à l’échelle avec des preuves de convergence/limites d’erreur en temps défini. Nous étudierons également comment adapter au contexte du GAN des concepts d’équilibre conçus à l’origine pour les jeux (jeux non coopératifs, algorithmes sans regret pour l’apprentissage en ligne contradictoire, etc.). Les travaux concernent aussi l’utilisation de concepts la théorie des jeux pour l’étude de comportements stratégiques dans des environnements complexes liés à l’IA (économie, cybersécurité, etc.).
Axe 1 : Optimisation pour l’IA
Axe 2 : Robustesse
Axe 3 : Théorie des jeux pour l’IA
Chaires : Jerôme Bolte, Serge Gratton, Jean-Michel Loubes, Jean-Bernard Lasserre, Jérôme Renault, Marc Teboulle
Raisonnement automatique et décision
L’apprentissage machine se réduit souvent à des problèmes d’optimisation numérique, donnant comme résultat un modèle appris défini par une large collection de paramètres numériques. Le raisonnement logique, dans sa forme propositionnelle la plus fondamentale, se réduit plutôt à des problèmes discrets de satisfaction de contraintes. Les algorithmes qui peuvent traiter simultanément les problèmes d’optimisation numérique et les propriétés (ou contraintes) logiques avec garanties ou certificats sont donc de première importance pour l’IA, permettant d’imposer des contraintes sur la sortie des modèles appris. Le principal défi à relever ici est que le raisonnement logique automatisé est difficile à calculer (décision NP-complète) et ne peut pas être approximé du tout. C’est pourquoi le passage à l’échelle est souvent le défi principal à résoudre dans ce contexte.
Différentes techniques complémentaires sont explorées dans ce thème pour réduire la complexité et améliorer le passage à l’échelle. Par exemple, un des objectifs sera d’améliorer l’état de l’art de la résolution, avec garantie, de problèmes de décision/optimisation sur des modèles graphiques discrets pondérés avec contraintes permettant de capturer à la fois des problèmes de raisonnement logique propositionnels simples (type SAT/CSP/NP-complet) et une fonction numérique décomposable (par exemple proportionnelle à une distribution de probabilité jointe, type champs de Markov, estimée sur des données) en améliorant les minorants utilisés et en guidant éventuellement mieux la recherche, éventuellement avec preuve vérifiable. Nous explorerons également le développement et l’expérimentation de techniques et algorithmes de compilation de connaissance pour l’optimisation en ligne de problèmes traitant des préférences et/ou des incertitudes, qu’il s’agisse de modèles d’incertitude/préférence quantitatifs (réseaux bayésiens, CSP temporels, etc.) ou qualitatifs (réseaux CP, approches logiques, algèbre de points et d’intervalles, …).
Les applications incluent par exemple l’optimisation de la conception de molécules et protéines dans le domaine de la santé ou du développement durable, ainsi que des problèmes de planification temporelle (ordonnancement) et d’optimisation de configuration dans le domaine de l’industrie du futur. Des applications dans le domaine du diagnostic et de la maintenance prédictive, ou de l’explicabilité de modèles IA sont aussi envisagées.
Axe 1 : Algorithmes et complexité
Axe 2 : Application à des systèmes complexes
Chaires : Leila Amgoud, Daniel Delahaye, Hélène Fargier, Joao Silva Marques, Thomas Schiex, Louise Travé-Massuyes
Robotique et IA
La robotique et la cobotique est un thème central de l’IA collaborative d’ANITI. Les sujets couvrent l’analyse du mouvement et sa génération, la planification du mouvement et des tâches, et la collaboration entre l’homme et le robot. Outre les défis concernant le développement de capacités fonctionnelles et décisionnelles autonomes nécessaires pour exécuter des tâches dans l’environnement physique et en présence d’incertitudes, le défi intégratif de l’IA est pleinement réalisé dans l’interaction entre robot et homme et plus précisément dans la collaboration entre robot et homme lorsque les humains et les robots décident d’agir ensemble et de partager l’espace et la tâche.
Sur le sujet du mouvement, nos travaux s’intéressent à l’analyse des fondements mathématiques du mouvement. L’intérêt porte sur des robots avancés, avec des jambes et des bras, devant réaliser des tâches comme la marche, attraper un objet, ouvrir une porte, etc. qui impliquent des décisions nombreuses et des actions de planification et de contrôle très complexes. L’objectif est d’utiliser simultanément des approches basées sur des modèles, telles que le contrôle prédictif, et des méthodes basées sur des données utilisant des techniques d’apprentissage par renforcement, et d’étudier les liens entre ces deux types d’approches. Un autre sujet concerne l’étude des capacités cognitives des robots avancés, en particulier, le développement et l’apprentissage de facultés de perception et de décision. Les applications concernent tout type de robots dans l’industrie ainsi que les véhicules autonomes. Un dernier sujet vise à modéliser ou apprendre la collaboration entre robots et êtres humains dans les situations d’actions conjointes, d’initiatives croisées, de partage de tâches, d’occupation spatiale et autres. Ce thème inclut également des recherches sur des aspects liées à l’architecture et la vérification de robots autonomes en collaboration avec le programme intégrratif sur l’IA certifiable, ainsi que sur leur impact sociétal en lien avec le programme intégratif sur l’IA acceptable.
Axe 1 : Planification et contrôle de mouvement
Axe 2 : Capacités cognitives et communication
Axe 3 : Architecture, décision et interaction
Axe 4 : Aspects sociaux et sociétaux des interactions Humain-Robot Chaires : Rachid Alami, Céline Castets-Renard, Frédéric Dehais, Nicolas Mansard, Claire Pagetti, Thomas Serre, Rufin VanRullen