Les 7 et 8 mars prochains, ANITI organise un workshop autour de l’explicabilité. Ce workshop, qui se tiendra au B612, permettra d’approfondir le développement d’une compréhension de ce qu’est une IA explicable.
Comme les algorithmes et les architectures d’apprentissage machine (ML) sont devenus de plus en plus complexes, l’explicabilité ou l’interprétabilité de ces algorithmes et architectures est devenue un défi scientifique majeur. D’une part, relever ce défi est fondamental pour la méthode scientifique ; si l’on ne peut pas interpréter ou expliquer le comportement d’un système d’apprentissage automatique, alors on ne le comprend pas. Et si l’on ne peut pas comprendre le comportement du système, alors on ne peut pas offrir de garanties sur ce qu’il fait ; on ne peut pas, par exemple, certifier que le système est sûr pour une utilisation dans des situations où des moyens de subsistance ou même des vies peuvent être en jeu. Ainsi, l’interprétabilité devient une exigence pour les systèmes ML que nous voulons utiliser dans des domaines d’application comme le transport, la médecine ou les prévisions économiques ou environnementales.