Comment l’intelligence artificielle transforme-t-elle la manière dont les chercheurs travaillent ? ANITI vous invite à une journée d’exploration interdisciplinaire à l’Hôtel d’Assézat.
The mercredi 3 juin 2026, la salle Clémence Isaure de l’Hôtel d’Assézat accueillera cet événement dédié aux interactions entre l’intelligence artificielle et l’évolution des sciences. Co-organisé par l’Académie des Sciences, Inscriptions et Belles-Lettres de Toulouse, le GREP et ANITI, ce colloque s’adresse à un large public de personnes curieuses de science et des évolutions récentes de ses méthodes avec l’intelligence artificielle (IA).
Des spécialistes de diverses de disciplines discuteront des effets avérés et potentiels de l’IA sur les savoirs et l’avancée des sciences :
- Comment intervient d’ores et déjà l’IA dans la panoplie des outils de modélisation et d’analyse du chercheur dans sa discipline ?
- Quelles ouvertures, nouveautés méthodologiques, limitations et risques apporte l’IA à la recherche, pourquoi et comment?
Chaque présentation se terminera par 5-10′ de questions/réponses. La table ronde sur l’IA et l’éducation sera suivie d’un débat. La journée pourra être suivie en ligne.

Informations pratiques
- Date : mercredi 3 juin 2026
- Lieu : Hôtel d’Assézat, salle Clémence Isaure, Toulouse
- Horaires : accueil dès 8h30, début des conférences à 9h00.
- Entrée ou participation en ligne : libres, sur inscription
Résumés des présentations et biographies des intervenants
Jihane Moultaka : IA pour l’astrophysique
Résumé : Depuis quelques décennies, l’intelligence artificielle (IA) occupe une place de plus en plus importante dans notre quotidien. Ce phénomène n’a pas échappé au monde de la recherche en général, et à l’astrophysique en particulier. Au cours de cette présentation, j’exposerai les besoins ressentis par la communauté scientifique en matière d’utilisation des méthodes d’IA dans le domaine de l’astrophysique. Je présenterai également quelques exemples concrets de l’apport de ces méthodes, ainsi que leurs limites, dans divers secteurs de la discipline, tels que la cosmologie, l’astronomie extragalactique, les phénomènes transitoires, la planétologie ou encore la recherche d’exoplanètes.
Bio : Jihane Moultaka est astronome à l’Institut de Recherche en Astrophysique et Planétologie (IRAP) de l’Observatoire Midi-Pyrénées (OMP) de Toulouse. Ses travaux de recherche portent sur les galaxies (en particulier sur leurs populations stellaires) et leur évolution. Elle s’est intéressée récemment aux méthodes d’apprentissage automatique pour classifier les galaxies à partir de leurs paramètres physiques. Elle est actuellement membre du conseil scientifique de l’OMP et du collège scientifique Physique-SDU de l’université de Toulouse.
Gérard Biau : IA pour les mathématiques
Résumé : L’objectif de cet exposé est de montrer comment l’intelligence artificielle transforme progressivement la recherche en mathématiques. Après un survol historique illustrant plusieurs problèmes où l’ordinateur a joué un rôle utile dans l’établissement de preuves mathématiques, je décrirai le fonctionnement général des grands modèles de langage modernes. J’expliquerai comment ces outils s’articulent avec les assistants de preuve et comment cette combinaison permet désormais de résoudre de nombreux problèmes, en particulier ceux issus des olympiades internationales. Enfin, je présenterai quelques développements récents qui éclaireront la manière dont les mathématicien(ne)s et l’intelligence artificielle seront amené(e)s à collaborer dans les années à venir.
Bio : Ancien élève de l’École des Mines de Paris, agrégé de mathématiques, Gérard Biau est professeur au sein du Laboratoire de Probabilités, Statistique et Modélisation de Sorbonne Université. Ses recherches récentes explorent les fondements statistiques des architectures d’IA modernes, telles que les réseaux de neurones profonds, les modèles génératifs ou les interactions entre la modélisation physique et l’apprentissage automatique. Membre senior de l’Institut universitaire de France, Gérard Biau est directeur du centre d’intelligence artificielle de Sorbonne Université, dont il a eu la responsabilité de la création en 2019. Il a été élu à l’Académie des sciences en 2024.
Thomas Schiex : IA pour les sciences de la vie
Résumé : Cette présentation explore comment l’intelligence artificielle et l’apprentissage profond, né de l’imitation du cerveau humain, est devenu un outil incontournable pour déchiffrer et réinventer le vivant. De la cartographie des génomes jusqu’à la révolution des molécules biologiques conçues numériquement, récompensée par le prix Nobel 2024, nous verrons comment la fusion des algorithmes et de la biologie ouvre des perspectives inédites pour la santé et l’environnement, tout en posant des défis sociétaux majeurs.
Bio : Directeur de recherche INRAE à Toulouse, Thomas Schiex explore la frontière fascinante entre l’informatique et le vivant. Ingénieur de formation, ses contributions en IA et bioinformatique lui ont valu d’être distingué au plus haut niveau international (Fellow AAAI, EurAI et AAIA). Le cœur de son travail actuel vise à réconcilier l’intuition et la logique au sein de l’intelligence artificielle. Il conçoit des IA « neuro-symboliques » : des systèmes qui marient la puissance d’apprentissage des réseaux de neurones face aux données massives, avec la fiabilité et la rigueur mathématique du raisonnement automatique. À quoi cela sert-il ? À inventer les molécules de demain. Ces outils permettent de concevoir numériquement de nouvelles molécules thérapeutiques (comme des anticorps) ou des protéines industrielles hyper-efficaces (comme les enzymes actives dans nos lessives). Ces technologies, nées en laboratoire (notamment via sa chaire à l’institut toulousain ANITI et la chaire HEROIC), prennent aujourd’hui vie dans le monde économique grâce à la startup amineo.design, qui les utilise pour répondre aux défis sanitaires et industriels actuels.
Hervé Delingette : l’IA en sciences médicales : impacts, limites et perspectives
Résumé : la recherche clinique connaît aujourd’hui une mutation profonde, portée par la convergence entre l’intelligence artificielle, la médecine computationnelle et la prolifération de données biologiques et médicales de plus en plus hétérogènes. S’appuyant sur les avancées de la recherche récente, cette intervention explorera tout d’abord le déploiement d’infrastructures dédiées à l’exploitation des données massives en santé. Nous analyserons ensuite l’apport des grands modèles de langage (LLM) dans l’extraction et l’interprétation de caractéristiques phénotypiques complexes à partir de données non structurées. Enfin, nous aborderons la conception de « jumeaux numériques », ces modèles informatiques d’organes humains qui intègrent harmonieusement apprentissage statistique et modélisation biophysique.
Ces progrès technologiques soulèvent toutefois des défis majeurs que nous discuterons : la nécessité de garantir la robustesse et l’interprétabilité des algorithmes, ainsi que les enjeux éthiques cruciaux liés à l’intégration de systèmes d’aide à la décision automatisés au cœur de la pratique hospitalière.
Bio : Hervé Delingette est Directeur de Recherche au sein de l’équipe-projet EPIONE spécialisée en médecine numérique à l’Inria et membre de l’Institut 3IA Côte d’Azur. Expert en imagerie médicale computationnelle, ses travaux se concentrent sur le développement d’algorithmes d’IA pour l’analyse d’images et la modélisation géométrique et biophysique d’organes. Il contribue activement à l’innovation en santé en concevant des outils d’aide au diagnostic et à la planification chirurgicale et développant des modèles prédictifs personnalisés pour améliorer la prise en charge des patients.
Peter Wiecha : IA pour la science des matériaux
Résumé : Au cours des dix dernières années, l’intelligence artificielle a investi tous les domaines scientifiques. En science des matériaux, la promesse de capacités de calcul inégalées et d’une accélération sans précédent a suscité des attentes considérables. J’aborderai deux applications clés de l’IA dans ce domaine : comment l’IA peut apprendre des connaissances en physique grâce à un entraînement informé par la physique, et comment elle permet de résoudre des problèmes inverses complexes, comme la conception de matériaux artificiels aux propriétés sur mesure.
Bio : Peter Wiecha est chargé de recherche au CNRS au LAAS-CNRS à Toulouse, où il se consacre principalement à l’étude de l’interaction de la lumière avec des structures de tailles sublongueur d’onde, ainsi qu’aux applications de l’IA en nano-optique et photonique. Après des études de physique à l’Université technique de Munich, il a obtenu son doctorat en 2016 à l’Université Paul Sabatier. Il a ensuite effectué des postdoctorats au CEMES-CNRS (2017-2018) et à l’Université de Southampton (2018-2020) avant de rejoindre le LAAS-CNRS.
Laure Reynaud : L’IA peut-elle améliorer la prévision météorologique ?
Résumé : La prévision météorologique est un problème complexe, dont la solution repose en grande partie sur l’utilisation de modèles numériques de l’atmosphère. Si les modèles à base physique sont depuis plusieurs décennies au coeur de l’activité des services météorologiques nationaux, l’IA a récemment ouvert de nouvelles perspectives pour revisiter ces modèles sous l’angle de l’apprentissage profond, avec des gains significatifs en terme de coût de calcul et de qualité des prévisions. Nous présenterons quelques unes des utilisations les plus prometteuses de l’IA dans ce domaine ainsi que les perspectives pour la recherche et pour la prévision opérationnelle.
Bio : Laure Raynaud est chercheuse au Centre National de Recherche Météorologique (CNRM) à Toulouse. Météorologue de formation, ses travaux portent sur la modélisation atmosphérique et ses applications opérationnelles. Elle a contribué à la mise en œuvre de plusieurs modèles de prévision du temps à Météo-France, ainsi qu’à la valorisation des prévisions auprès de différents usagers (agriculture, énergie, transport). Plus récemment elle a orienté ses travaux vers l’exploration des techniques d’IA. A ce titre, elle coordonne le développement de nouveaux modèles de prévision du temps fondés sur l’IA à Météo-France. Elle est également titulaire d’une chaire de l’Institut d’intelligence artificielle de Toulouse (ANITI).
Christian Joachim : L’archéologie numérique au service des énigmes historiques
Résumé : Les nouveaux outils de numérisation automatique de livres et de manuscrits, les logiciels de transcription de textes anciens (Transkribus, DAN, eScriptorium), les systèmes de recherche dans de grandes bases de données textuelles (Google Books), ainsi que les méthodes d’IA permettant des analyses syntaxiques et sémantiques, ouvrent la voie à une véritable « archéologie numérique ». Ici l’algorithme remplace la pioche et le pinceau pour revisiter des énigmes historiques. Nous en présenterons une application avec cas du philosophe italien Cesare Vanini, torturé puis brûlé en place du Salin à Toulouse le 9 février 1619. En s’appuyant sur quatre siècles de publications consacrées à ce véritable cold case historique, nous montrerons comment l’utilisation d’algorithmes d’exploration textuelle, combinée — pour l’instant — à l’intuition et au travail critique de l’historien dans l’exploration d’archives encore non numérisées, permet d’apporter un éclairage nouveau sur les raisons profondes de cette condamnation au bûcher. Ces recherches furent réalisées avec les contributions égales de Christian Joachim, Kedar Sharma (CEMES-CNRS), M.C. Vignal-Souleyreau (Institut de Recherche sur les Civilisations de l’Occident moderne – Sorbonne Université), Cécile de Lacvivier et Serge Ponsonnaille de l’Entraide Généalogique du Midi Toulousain
Bio : Christian Joachim est Directeur de recherche Emérite au CEMES-CNRS, Professeur associé de Physique & Ingénierie Quantique à l’ISAE-Sup’Aéro et membre titulaire de l’Académie des Sciences, Inscriptions et Belles Lettres de Toulouse. Il explore les limites des machines en intégrant par exemple une porte logique binaire complexe dans une seule petite molécule. Il détient le record du monde du plus petit mécanisme jamais construit avec des engrenages de 1.2 nm de diamètre. Il a dirigé les deux premières courses internationales de molécule-voitures (Toulouse 2017, 2021). Auteur de plus de 400 publications scientifiques et éditeur de la série Springer-Nature « Advances in Atom and single Molecule Machines », son livre « Nanoscience, la révolution invisible » (Seuil, 2008) donne à vivre l’histoire de la nanoscience. Il a reçu le Prix IBM France (1991), deux Prix Feynman (1997 & 2005), la Médaille d’argent du CNRS (2001), une étoile de l’Europe (2015) pour sa coordination de projets Européens, le Prix des Sciences de l’Académie d’Occitanie (2018) et le Prix Fermat de l’Académie du Languedoc (2023). Récemment, il explore l’application des nouveaux outils numériques pour résoudre des énigmes en histoire des sciences et des techniques.
Table Ronde: Perspectives et risques de l’IA pour l’enseignement et l’éducation
Résumé : Quelles sont les perspectives et risque de l’IA pour l’enseignement, la formation et l’éducation; quelles compétences et savoirs sont à nécessaires aux “têtes bien faites” de demain pour maintenir des capacités de jugement critique, de contrôle, d’autorité épistémique, de valuation et de qualification humaines et sociales face aux machines et avec leur aide.
Intervenants :
Nicholas Asher est directeur de recherche émérite au CNRS. Au sein de l’IRIT, il est membre du groupe MELODI. Ses recherches portent sur la sémantique formelle, la pragmatique, la structure du discours et la sémantique lexicales. Ses travaux lui ont valu de nombreuses récompenses dont le Medaille d’Argent du CNRS, et le Prix des Sciences de l’Académie d’Occitanie. Il faut directeur scientifique d’ANITI.
Malik Ghallab est directeur de recherche émérite au CNRS, au sein du LAAS. Ses travaux en IA et robotique portent sur des problèmes de modélisation, d’apprentissage et de synthèse d’actions, de plans et de comportements, ainsi que des problèmes de raisonnement temporel, de perception et de raisonnement sensoriel. Il a contribué à plus de 200 publications et à plusieurs ouvrages. Il a été directeur de deux programmes nationaux de recherche en IA, directeur du LAAS-CNRS, et directeur général scientifique d’Inria.
Paul-Antoine Miquel est professeur de philosophie contemporaine à l’Université de Toulouse 2. Ses recherches portent sur la temporalité du vivant, l’adaptabilité biologique et la proto-cognition. Il a publié de nombreux ouvrages et articles sur ces questions, soit sous l’angle de la philosophie française (Bergson, Canguilhem, Simondon), soit sous celui de l’épistémologie contemporaine.
Mar Pérez-Sanagustín est maîtresse de conférence à l’Université Paul Sabatier, au sein de l’Institut de Recherche en Informatique de Toulouse, et chercheuse associée à la Pontificia Universidad Católica du Chilie, où elle fut enseignante. Elle a obtenu un doctorat de l’Université Pompeu Fabra, Barcelone. Elle fut post-doc à l’université Carlos III de Madrid, et Fulbright fellow au Stanford Research Institute. Ses recherches portent sur l’étude de l’autorégulation dans les environnements d’apprentissage assistés, dont ceux à base des grands modèles de langage (LLM), les MOOC, l’apprentissage collaboratif, l’analyse des données d’apprentissage et l’enseignement supérieur.