Objectifs de la chaire

La Chaire DeepLEVER vise à faire progresser l’état de l’art dans l’application des concepts de raisonnement automatisé, techniques et outils de raisonnement sur les modèles d’apprentissage automatique (ML).

Concrètement, nous cherchons à trouver
des explications rigoureuses  quant aux prédictions faites par les modèles de ML.

Nous nous efforçons de certifier la robustesse des fonctionnements des modèles de Machine Learning.

Ce projet envisage deux axes de recherche, concrètement : l’explication et la vérification des modèles de ML profond.

Il s’appuie sur les progrès remarquables réalisés par les raisonneurs automatisés basés sur les solveurs SAT, SMT, CP, ILP (entre autres) pour une IA plus explicable et robuste basée sur les données (IA hybride pour prouver la robustesse des réseaux de neurones).

Ces réussites comptent sur une technologie de solveur améliorée, des encodages plus sophistiqués, ainsi que l’exploitation de concepts clés tels que le raffinement de l’abstraction, l’identification de la symétrie et la rupture, entre autres.

Programme : IA acceptable, certifiable & collaborative

Thèmes : développement sûr et embarquabilité, Fair learning, explicabilité, raisonnement automatique et décision

Porteur :
Joao Marquès Silva, external, University of Lisbon, PT

Co-chairs : 

  • Martin Cooper (UT3, IRIT)
  • Emmanuel Hebrard (CNRS, LAAS)

Site
http://www.di.fc.ul.pt/~jpms/

En savoir +

Joao Marques Silva, l’IA en toute logique.

Le chercheur portugais Joao Marques Silva a posé ses valises dans la ville rose il y a deux ans. Il y poursuit ses recherches pour expliquer les décisions prises par les algorithmes. Avec l’aide de raisonnements logiques, il cherche à vérifier les modèles d’apprentissage automatique. Portrait d’un globe-trotter de l’intelligence artificielle (IA).

Lire l’article Exploreur

close

Ne manquez rien !

Inscrivez-vous pour recevoir l'actualité d'ANITI chaque mois.

Nous n’envoyons pas de messages indésirables !

fr_FRFrench