La chaire Law, Accountability and Social Trust in IA regroupe une équipe interdisciplinaire de chercheurs en droit, informatique et mathématiques. Sont aussi associés des professionnels travaillant dans des secteurs d’application critique de l’IA, en particulier celui de la santé ou de la sécurité publique. La chaire privilégie une approche pragmatique à travers des partenariats industriels et institutionnels, tels que Toulouse métropole, Occitanie Data, Oncopole, Gendarmerie nationale.                    

À la croisée du droit et de la technique, l’objectif principal est d’étudier les risques sociaux susceptibles d’être générés par l’IA. Il s’agit d’envisager les réponses apportées par le droit pour atténuer les risques et réparer les dommages qui pourraient survenir. Pour ce faire, la chaire analyse et anticipe les effets des règles de droit en intégrant les caractéristiques techniques de l’IA, ce qui est rendu possible par la coopération des chercheurs de ces trois domaines de recherche. La collaboration entre droit et sciences permet non seulement de dépasser les principes éthiques de l’IA afin de proposer des exigences concrètes de réglementation, mais aussi de concevoir des outils permettant de contrôler la conformité aux exigences juridiques existantes et à venir.

Les objectifs plus spécifiques de la chaire sont de : mener des études sur l’encadrement des technologies d’IA, en s’appuyant sur les projets de réglementations actuels et futurs, en France et dans l’Union européenne, mais aussi au Canada et aux États-Unis ; d’accompagner les chercheurs en IA sur le respect et la discussion de ces exigences : nourrir la réflexion sur l’insuffisance des normes en cours d’élaboration pour nourrir les normes futures dans un souci de faire émerger une IA responsable et socialement juste. Les travaux de la Chaire visent autant à informer et sensibiliser les concepteurs et utilisateurs publics et privés de l’IA qu’à éclairer le législateur et les responsables des politiques publiques. La chaire se caractérise enfin par un leadership fort pour encadrer la nouvelle génération de chercheurs (étudiants M1 & M2, doctorants, post-doctorants) afin de les former à une approche transdisciplinaire du droit et de la technologie.

Programmes : IA acceptable

Thèmes : Fair learning, IA et société, robotique et IA

Porteur : Céline Castets-Renard, Université d’Ottawa, Ontario, CA.
Contact : Celine.Castets-Renard@uottawa.ca
Site : https://droitcivil.uottawa.ca/fr/personnes/castets-renard-celine

Contact : Celine.Castets-Renard@uottawa.ca

Co-Chair :
• Laurent Risser | Site : http://laurent.risser.free.fr

• Sylvain Cussat-Blanc | Site : https://www.irit.fr/~Sylvain.Cussat-Blanc/

En savoir plus :

Le droit : le garde fou d’une IA responsable

Céline Castets – Renard, cyberjuriste sans frontière (Exploreur, le média)

Céline Castets-Renard, porteur de la chaire Law, Accountability and Social Trust in IA, entourée de Sylvain Cussat-Blanc, co-chair (à gauche) Laurent Risser, co-chair (à droite)

Membres de la chaire Law, Accountability and Social Trust in IA

Bibliographie (non exhaustive) – Céline Castets-Renard