Objectifs de la chaire

La chaire Moral AI explore la façon dont les humains et les machines se traitent lorsqu’ils prennent des décisions avec une composante morale. Cela inclut les contextes dans lesquels les humains et les machines coopèrent ou s’entendent, les contextes dans lesquels les machines prennent des décisions conséquentes pour le bien-être humain et les contextes dans lesquels les machines peuvent donner un nouvel éclairage sur les décisions que les humains prennent à propos des autres humains.

Voici quelques exemples de projets en cours :

  • Explorer comment les humains veulent que les voitures autonomes répartissent les risques entre les usagers de la route
  • Explorer la confiance que les humains ont dans le potentiel coopératif des machines
  • Explorer la volonté des humains d’être moralement évalués par des machines
  • Explorer le statut social que les humains accordent aux machines et la dynamique de pouvoir qui en résulte
  • Utiliser l’apprentissage automatique pour en savoir plus sur les attitudes implicites des juges
  • Utiliser l’apprentissage automatique pour en savoir plus sur les préjugés humains concernant l’apparence du visage des autres.

Programme : IA Acceptable
Thème : IA et société

Porteur : Jean-François Bonnefon

Co-chairs

  • Ingela Alger (CNRS, TSE-R)
  • Daniel Chen (CNRS, TSE-R)

Site
https://sites.google.com/site/jfbonnefon/

En savoir +

Pas d’intelligence artificielle sans morale, avec Jean-François Bonnefon.

Jean-François Bonnefon est devenu un spécialiste mondialement reconnu de la question des dilemmes moraux des véhicules autonomes. Portrait d’un psychologue qui aimait les maths.

Lire l’article Exploreur

close

Ne manquez rien !

Inscrivez-vous pour recevoir l'actualité d'ANITI chaque mois.

Nous n’envoyons pas de messages indésirables !

fr_FRFrench