Objectifs de la chaire

L’apprentissage par renforcement profond (deep RL) – l’apprentissage de comportements optimaux à partir de données d’interaction, en utilisant des réseaux de neurones profonds – est souvent considéré comme l’une des prochaines frontières de l’intelligence artificielle.

Alors que les algorithmes actuels de RL n’échappent pas à la recherche incessante de modèles plus grands, de données plus volumineuses et de demandes de calcul plus importantes, nous supposons que les impacts du RL dans le monde réel proviendront également d’algorithmes pertinents dans le régime des petites données, sur des architectures de calcul raisonnables.

Principal investigator

La recherche sur les réseaux neuronaux se trouve à un carrefour où l’on souhaite conserver la polyvalence et les capacités de représentation des réseaux neuronaux profonds, tout en faisant face à des données et des ressources limitées.

Dans ces conditions, il est essentiel de comprendre comment préserver les propriétés de convergence algorithmique, la robustesse aux incertitudes, les garanties dans le pire des cas, les caractéristiques transférables ou les éléments d’explication du comportement.

Co-chair

C’est pourquoi nous tentons de mettre le RL “au régime”, afin de mieux comprendre le RL frugal : ses fondements théoriques, les nombreuses façons de compenser des données limitées, les algorithmes solides que l’on peut concevoir, et les impacts pratiques qu’elle peut avoir sur les nombreuses applications du monde réel, où, intrinsèquement, les données sont coûteuses et les ressources limitées, aussi bien dans le domaine de la robotique autonome que dans celui de la médecine personnalisée.

Ne manquez rien !

Inscrivez-vous pour recevoir l'actualité d'ANITI chaque mois.

Nous n’envoyons pas de messages indésirables !

fr_FRFrench