Objectifs de la chaire

L’objectif de ce projet est d’utiliser des approches symboliques de l’IA, à savoir la logique (modale) et théorie de l’argumentation, pour expliquer et améliorer les prédictions des modèles basés sur les données.

Nous nous intéressons particulièrement à différents types de classificateurs (binaire, multi-classe et multi-étiquette), à deux modèles de boîte noire (dont le raisonnement interne n’est pas spécifié) et à des modèles de boîte blanche, y compris Naive Bayes, Decision Trees et Random Forest.

La chaire a 4 thématiques principales de recherche :

  • Fondements théoriques de l’explicabilité
  • Explicabilité de modèles de boîtes noires
  • Explicabilité de modèles de boîtes blanches
  • Natural Language Processing

Programmes : IA acceptable, certifiable & collaborative

Thèmes : explicabilité, fair learning

Porteur :

Leïla Amgoud, DR CNRS, IRI

Chercheurs associés :

Emiliano LORINI (CNRS, IRIT),

Philippe MULLER (UT3, IRIT)

Site web

https://www.irit.fr/~Leila.Amgoud

En savoir +

En matière d’IA, Leila Amgoud pèse le pour et le contre.

Est-ce qu’il est possible d’apprendre à une machine à argumenter ? Comment l’aider à faire des choix ? ou même à convaincre ? La chercheuse Leila Amgoud développe des méthodes mathématiques qui mesurent la force d’un argument, en vue de perfectionner les modèles d’intelligence artificielle. 

Un article Exploreur

Ne manquez rien !

Inscrivez-vous pour recevoir l'actualité d'ANITI chaque mois.

Nous n’envoyons pas de messages indésirables !

fr_FRFrench