Chair objectives
L’intégration d’algorithmes basés sur l’apprentissage automatique (ML) dans des systèmes critiques pour la sécurité est une préoccupation majeure de l’industrie du transport. Depuis quelques années, plusieurs normes de certification sont en cours d’élaboration pour définir les objectifs et les activités permettant leur utilisation dans le domaine aéronautique : 1) les directives utilisables pour développer des systèmes basés sur le ML promues par l’autorité de certification européenne EASA et 2) les directives aéronautiques – nommées ARP6983 – élaborées par le groupe de travail conjoint EUROCAE WG-114/SAE G-34. Notez que plusieurs membres du président participent activement à ce dernier groupe de normalisation.
Principal investigators
- Claire Pagetti (DR ONERA, ONERA,
- Mélanie Ducoffe (AI research engineer, Airbus)
- Adrien Gauffriau (AI Expert, Airbus)
CertifEmbAI ne vise pas à couvrir l’ensemble de la conception et de la certification des systèmes basés sur le ML, mais se concentre plutôt sur l’intégrabilité, la vérifiabilité et la certifiabilité de ces systèmes. En effet, l’approche envisagée va de la compression/développement de petits modèles de ML réalisant la fonction prévue jusqu’à leur exécution de bas niveau sur des accélérateurs matériels complexes, tels que les accélérateurs de deep learning ou les GPU, tout en préservant la sémantique du modèle formé hors ligne sur la plateforme matérielle finale.
Co-chairs
-
-
Thomas Carle (MCF IRIT-UT3)
-
Kevin Delmas (Researcher ONERA)
-
Jérémie Guiochet (Prof. LAAS-UT3)
À cette fin, quatre défis ont été identifiés. Le premier consiste à renforcer les activités d’entraînement du ML en intégrant dès le début de la conception les contraintes des cibles matérielles et les exigences de vérification. Considérer ces besoins facilite considérablement le déploiement efficace sur les accélérateurs matériels (par exemple, en choisissant une taille de tenseur ou un type de convolution adéquats) et peut réduire le temps de vérification. Le deuxième défi concerne la description appropriée des modèles de ML à des fins d’échange entre les frameworks et pour les interfacer avec les paradigmes de programmation parallèle les plus récents. L’idée est de connecter les technologies de ML avec les paradigmes de programmation critiques pour la sécurité existants tout en préservant la sémantique des modèles de ML. Le troisième défi porte sur la vérification de l’exactitude du système pour s’assurer qu’aucune situation catastrophique ne se produira en raison de mauvaises performances. Cela inclut d’abord l’utilisation intensive de méthodes formelles pour évaluer hors ligne si le système réalise sa fonction prévue. La vérification de modèles de ML de faible dimension a été réalisée approximativement récemment et l’objectif est de s’attaquer à des tâches plus complexes (par exemple, la détection d’objets) avec des modèles plus complexes (par exemple, YoLo). En plus de la vérification hors ligne, une surveillance efficace en temps réel augmente la confiance dans le modèle en garantissant que le système reste dans son domaine de conception opérationnel (ODD). Enfin, le dernier défi porte sur le déploiement prévisible et sûr des modèles de ML sur du matériel complexe. Ces activités de recherche seront soutenues par quatre cas d’utilisation industriels, à savoir ACAS Xu, l’atterrissage basé sur la vision pour les avions, l’atterrissage d’urgence basé sur la vision pour les drones et les systèmes anti-drones. Notez que plusieurs membres du président contribuent activement à l’ensemble de données Landing Approach Runway Detection (LARD)1 utilisé pour le cas d’utilisation de l’atterrissage basé sur la vision et à la conception de systèmes anti-drones.
- Méthodologie pour concevoir des modèles ML petits et minuscules, éventuellement avec quantification.
- Description formelle des modèles pour une implémentation sans ambiguïté et efficace.
- Assurance de sécurité avec vérification formelle et surveillance en temps réel.
- Implémentation prévisible.
- Conformité aux normes industrielles et application à des cas d’utilisation réels.
- AIRBUS en tant que partenaire industriel principal (PI)
- Implication du personnel
- Thèse CIFRE (2023-2026). Noémie Cohen, Vérification formelle de systèmes ML supervisés haute dimension, encadrée par M. Ducoffe, C. Gabreau, C. Pagetti et X. Pucel.
- Thèse CIFRE (2023-2026). Anthony Faure-Gignoux, Robustesse des réseaux de neurones aux défaillances d’équipements avioniques, encadrée par K. Delmas, A. Gauffriau et C. Pagetti.
- Airbus Helicoptères
- Implication du personnel
- Framework d’implémentation de l’apprentissage automatique haute intégrité, thèse de doctorat prévue
- Groupe CS
- Thèse CIFRE prévue, Méthodologie d’optimisation de l’implémentation du ML sur le matériel, combinant la quantification, les méthodes formelles et les stratégies de programmation bas niveau.
- Méthodologie de déploiement et d’implémentation de systèmes basés sur l’apprentissage automatique conformes aux normes de certification.
- Stratégies de vérification formelle pour les problèmes de haute dimension et les spécifications orientées données.
- Approches de vérification d’exécution pour les systèmes critiques pour la sécurité.
- Implémentation parallèle prévisible sur les CPU, GPU et accélérateurs avec des générateurs de code associés.