L’intelligence artificielle (IA) entraîne de profondes mutations, visibles dans de nombreux domaines tels que l’économie, la santé, les finances, le secteur militaire, … Les très nombreuses opportunités qu’elle offre s’accompagnent aussi d’une multitude de risques que nous peinons encore à prédire ou même entrevoir. Son utilisation et son immixtion dans chaque recoin des activités humaines imposent de construire un cadre de confiance capable d’assurer que les résultats qu’elle produit sont respectueux des droits et libertés. En 2023, une lettre ouverte, signée par des experts mondiaux et de grands dirigeants de l’industrie de l’IA, a appelé à ce que « la recherche et le développement en IA se concentrent davantage sur l’amélioration de la précision, de la sécurité, de la transparence, de la robustesse, et de la fiabilité des systèmes actuels. » Les auteurs signalent aussi la nécessité pressante de collaborer avec les décideurs politiques pour accélérer l’établissement d’un cadre de gouvernance solide pour l’IA, accompagné en particulier de la création de nouvelles autorités de régulation spécialisées et de mesures d’audit et de certification. L’AI Act européen est un premier pas dans cette direction.
Réguler, auditer et améliorer les systèmes d’IA représentent un défi scientifique inédit. Pour le relever, une collaboration entre spécialistes de nombreuses disciplines s’impose : informaticiens, mathématiciens, juristes, philosophes, économistes, … Notre équipe s’inscrit dans cette dynamique de recherche, elle réunit des compétences en apprentissage automatique, droit, mathématiques, optimisation, informatique et économie de façon à pouvoir proposer un cadre favorable de réflexion, propre à répondre aux grands défis modernes de la confiance et de la régulation. Nous visons en particulier à contribuer à penser les bases d’un avenir durable, éthique et responsable pour cette technologie, transformant ainsi la manière dont les systèmes d’IA sont gérés et régulés.
- Des mesures globales aux mesures locales des biais
- Comprendre les multiples aspects des biais dans les données et dans l’optimisation
- Nouvelles méthodes robustes d’atténuation des biais
- Alignement de la valeur des algorithmes d’IA
- Réglementation et autoréglementation de l’IA
- La confiance par la légalité
- Loréal & Artefact, Fairness for Image Recognition , CIFRE Phd J-M. Loubes
- Projet REGALIA soutenu par l’INRIA
- CONTINENTAL, Anomaly detection in evolving environments – Application to production lines, PhD thesis supervised by J.-M. Loubes and L. Travé-Massuyès
- Supported by US Air Force grants (J. Bolte)
- EFELIA grants for teaching (J. Eynard, J-M. Loubes)
- IUF grant fellow (Pauwels co-chair)
- Nouvelles méthodes pour détecter et certifier les comportements déloyaux des algorithmes d’IA
- Nouvelles méthodes pour atténuer les comportements déloyaux
- Preuves juridiques de la conformité de l’algorithme
- Lignes directrices pour les meilleures pratiques dans l’économie