Chaire "Empowering Data-driven AI by Argumentation and Persuasion"

Nous nous sommes intéressées à la théorie de l’explicabilité et le développement de classifieurs explicables. Nous avons étudié les fondements théoriques de l’explicabilité [1], proposé des axiomes ou des propriétés que devrait satisfaire un modèle d’explication, et caractérisé différentes familles de modèles satisfaisant des sous-ensembles d’axiomes. Nous avons analysé les modèles existants par rapport aux axiomes et mis en avant leurs limites [2]. Nous avons ensuite proposé de nouveaux modèles qui satisfont les axiomes [3]. Ils sont basés sur une nouvelle génération de théorie de l’argumentation que nous avons proposée dans [4]. Enfin, nous avons proposé une approche hybride pour des classificateurs d’ensemble [5]. Elle combine des modèles d’apprentissage automatique et des logiques non monotones basées sur l’argumentation. Les nouveaux classificateurs sont interprétables et garantissent de nombreuses propriétés formelles. Une étude expérimentale menée dans le domaine de la santé a montré qu’ils sont plus performants que les méthodes d’ensemble existantes.

Références

[1] L. Amgoud, J. Ben-Naim. Axiomatic Foundations of Explainability. In Proceedings of the International Joint Conference on Artificial Intelligence, IJCAI-22.

[2] L. Amgoud. Explaining Black-box Classifiers: Properties and Functions. International Journal of Approximate Reasoning, 2023.

[3] Leila Amgoud, Henri Trenquier, Philippe Muller. Argument-based Explanation Functions. In Proceedings of the International Conference on Autonomous Agents and Multi-Agent Systems, AAMAS-23.

[4] L. Amgoud, D. Doder, S. Versic. Evaluation of Argument Strength in Attack Graphs: Foundations and  Semantics. Artificial Intelligence Journal, 2022.

[5] Leila Amgoud, Nadia Abchiche, Farida Zehraoui. Explainable Ensemble Classification Models Based on Argumentation. In Proceedings of the International Conference on Autonomous Agents and Multi-Agent Systems, AAMAS-23.

Ne manquez rien !

Inscrivez-vous pour recevoir l'actualité d'ANITI chaque mois.

Nous n’envoyons pas de messages indésirables !

fr_FRFrench