Chair objectives

L’intégration d’algorithmes basés sur l’apprentissage automatique (ML) dans des systèmes critiques pour la sécurité est une préoccupation majeure de l’industrie du transport. Depuis quelques années, plusieurs normes de certification sont en cours d’élaboration pour définir les objectifs et les activités permettant leur utilisation dans le domaine aéronautique : 1) les directives utilisables pour développer des systèmes basés sur le ML promues par l’autorité de certification européenne EASA et 2) les directives aéronautiques – nommées ARP6983 – élaborées par le groupe de travail conjoint EUROCAE WG-114/SAE G-34. Notez que plusieurs membres du président participent activement à ce dernier groupe de normalisation.

Principal investigators

  • Claire Pagetti (DR ONERA, ONERA,
  • Mélanie Ducoffe (AI research engineer, Airbus)
  • Adrien Gauffriau (AI Expert, Airbus)

CertifEmbAI ne vise pas à couvrir l’ensemble de la conception et de la certification des systèmes basés sur le ML, mais se concentre plutôt sur l’intégrabilité, la vérifiabilité et la certifiabilité de ces systèmes. En effet, l’approche envisagée va de la compression/développement de petits modèles de ML réalisant la fonction prévue jusqu’à leur exécution de bas niveau sur des accélérateurs matériels complexes, tels que les accélérateurs de deep learning ou les GPU, tout en préservant la sémantique du modèle formé hors ligne sur la plateforme matérielle finale.

Co-chairs

À cette fin, quatre défis ont été identifiés. Le premier consiste à renforcer les activités d’entraînement du ML en intégrant dès le début de la conception les contraintes des cibles matérielles et les exigences de vérification. Considérer ces besoins facilite considérablement le déploiement efficace sur les accélérateurs matériels (par exemple, en choisissant une taille de tenseur ou un type de convolution adéquats) et peut réduire le temps de vérification. Le deuxième défi concerne la description appropriée des modèles de ML à des fins d’échange entre les frameworks et pour les interfacer avec les paradigmes de programmation parallèle les plus récents. L’idée est de connecter les technologies de ML avec les paradigmes de programmation critiques pour la sécurité existants tout en préservant la sémantique des modèles de ML. Le troisième défi porte sur la vérification de l’exactitude du système pour s’assurer qu’aucune situation catastrophique ne se produira en raison de mauvaises performances. Cela inclut d’abord l’utilisation intensive de méthodes formelles pour évaluer hors ligne si le système réalise sa fonction prévue. La vérification de modèles de ML de faible dimension a été réalisée approximativement récemment et l’objectif est de s’attaquer à des tâches plus complexes (par exemple, la détection d’objets) avec des modèles plus complexes (par exemple, YoLo). En plus de la vérification hors ligne, une surveillance efficace en temps réel augmente la confiance dans le modèle en garantissant que le système reste dans son domaine de conception opérationnel (ODD). Enfin, le dernier défi porte sur le déploiement prévisible et sûr des modèles de ML sur du matériel complexe. Ces activités de recherche seront soutenues par quatre cas d’utilisation industriels, à savoir ACAS Xu, l’atterrissage basé sur la vision pour les avions, l’atterrissage d’urgence basé sur la vision pour les drones et les systèmes anti-drones. Notez que plusieurs membres du président contribuent activement à l’ensemble de données Landing Approach Runway Detection (LARD)1 utilisé pour le cas d’utilisation de l’atterrissage basé sur la vision et à la conception de systèmes anti-drones.

Ne manquez rien !

Inscrivez-vous pour recevoir l'actualité d'ANITI chaque mois.

Nous n’envoyons pas de messages indésirables !

en_GBEnglish