Objectifs de la chaire
L’objectif de ce projet est d’utiliser des approches symboliques de l’IA, à savoir la logique (modale) et théorie de l’argumentation, pour expliquer et améliorer les prédictions des modèles basés sur les données.
Nous nous intéressons particulièrement à différents types de classificateurs (binaire, multi-classe et multi-étiquette), à deux modèles de boîte noire (dont le raisonnement interne n’est pas spécifié) et à des modèles de boîte blanche, y compris Naive Bayes, Decision Trees et Random Forest.
La chaire a 4 thématiques principales de recherche :
- Fondements théoriques de l’explicabilité
- Explicabilité de modèles de boîtes noires
- Explicabilité de modèles de boîtes blanches
- Natural Language Processing
Programmes : IA acceptable, certifiable & collaborative
Thèmes : explicabilité, fair learning
Porteur :
Leïla Amgoud, DR CNRS, IRI
Chercheurs associés :
Emiliano LORINI (CNRS, IRIT),
Philippe MULLER (UT3, IRIT)
Porteur de chaire :
Leila Amgoud (DR CNRS, IRIT)
Chercheurs associés :
- Emiliano LORINI (CNRS, IRIT)
-
Philippe MULLER (UT3, IRIT)
PhD students :
- Vivien Beuselinck, Nov. 2020 – Dec. 2023
- Xinghan Liu, Nov. 2020 – Dec. 2023
- Henri Trenquier, June. 2020 – July 2023
Post-docs :
-
Zoe Purcell 2020
-
Bence Bago 2020
2 projets ANR (CoPains, Slant) :
- Cognitive Planning in Persuasive Multimodal Communication (CoPains), 2019 – 2021.
- Spin and Bias in Language Analyzed in News and Text (Slant), 2020 – 2022.
Programme CNRS@CREATE DesCARTES (France – Singapore).
DesCartes: AI-based Decision making in Critical Urban Systems.
- L. Amgoud. Associate editor of Artificial Intelligence Journal (AIJ)
- L. Amgoud. Member of AIJ Awards Committee (since January 2021)
- Philippe Muller: scientific mediation: participation to the workshop “Groupe Artistique d’Exploration Scientifique”, Quai des savoirs, Toulouse, June 2021
- Leila Amgoud, Dragan Doder, Srdjan Vesic. Evaluation of argument strength in weighted graphs: Foundations and semantics. In Artificial Intelligence Journal, 2021.
- Leila Amgoud, Victor David. A general setting for gradual semantics dealing with similarity. In AAAI-2021, p.6185-6192.
- Leila Amgoud, Vivien Beuselinck. Equivalence of semantics in argumentation. In KR-2021.
- Leila Amgoud. Non-Monotonic explanation functions. In ECSQARU-2021.
- Leila Amgoud. Explaining black-box classification models with arguments. KR-2020 (poster)
- Leila Amgoud. Evaluation of analogical arguments by Choquet integral. In ECAI-2020, p. 593-600.
- Leila Amgoud. Axiomatic Foundations of Explainability. June 2021 (submitted paper).
- Leila Amgoud. A Replication Study of Semantics in Argumentation. IJCAI-2019, p. 6260-6266.
- Jorge Luis Fernandez Davila, Dominique Longin, Emiliano Lorini, Frédéric Maris. A Simple Framework for Cognitive Planning. In AAAI-21, p. 6331-6339.
- Emiliano Lorini, François Schwarzentruber. A Computationally Grounded Logic of Graded Belief. In JELIA- 2021, p. 245-261.
- Emiliano Lorini. Rethinking epistemic logic with belief bases. Artificial Intelligence Journal, 2020.
- Liu, X., Lorini, E. (2021). A logic for binary classifiers and their explanation. CoRR abs/2105.14452.
- Tom Bourgeade, Philippe Muller and Tim Van de Cruys : Plongements Interprétables pour la Détection de is Cachés, TALN 2021.
En savoir +
En matière d’IA, Leila Amgoud pèse le pour et le contre.
Est-ce qu’il est possible d’apprendre à une machine à argumenter ? Comment l’aider à faire des choix ? ou même à convaincre ? La chercheuse Leila Amgoud développe des méthodes mathématiques qui mesurent la force d’un argument, en vue de perfectionner les modèles d’intelligence artificielle.