Master’s internships for students’ applications Academic year 2025-2026

You want to highlight an AI-related internship opportunity?
Send it by e-mail to nathalie.berniard@univ-toulouse.fr

Internship positions

Stage : Accompagnement à la rédaction du plan de gestion des données
 
publié le 2 juin, 2025

1- Contexte

L’institut interdisciplinaire d’intelligence artificielle (IA) de Toulouse, appelé ANITI (Artificial and Natural Intelligence Toulouse Institute), est l’un des 9 IA clusters labélisés par France 2030. L’institut ANITI est porté par la Comue de Toulouse. Rassemblant environ 300 chercheurs et ingénieurs issus de 16 partenaires académiques et d’une trentaine de partenaires industriels, ANITI développe des technologies pour l’IA de confiance dans les secteurs d’application stratégiques suivants : mobilité / transports, industrie du futur, environnement. L’institut se situe au cœur des problématiques posées aujourd’hui par les technologies d’intelligence artificielle telles que la robustesse, l’explicabilité mais aussi l’acceptabilité par le public, l’éthique et la compréhension de leurs impacts sur la vie de nos concitoyens. Les activités de l’institut sont déclinées autour de 3 principaux volets :

  • la recherche, avec 19 projets chaires de recherche,
  • la formation avec l’ambition de doubler d’ici à 2029 le nombre d’étudiants formés à l’IA,
  • le développement économique en accompagnant le transfert de technologies et le savoir-faire au sein des entreprises et en soutenant la création de start-ups.

ANITI souhaite mettre en place une politique de gestion et diffusion des données à l’échelle de l’institut, reposant sur son plan de gestion des données (PGD). Le stage vise à mettre en adéquation les préconisations du PGD et les pratiques de bonne gestion et diffusion des données. Le stage sera co-encadré entre ANITI et l’URFIST (Unité régionale de formation à l’information scientifique et technique).

2- Missions (à adapter selon la durée du stage) :

  • Prendre connaissance du plan de gestion des données existant et assurer sa mise à jour.
  • Recenser les pratiques en matière de gestion des données des établissements académiques partenaires d’ANITI et proposer des recommandations de gestion de données.
  • Construire les outils d’accompagnement pour la bonne gestion et diffusion des données.
  • Participer aux sessions de sensibilisation auprès des équipes de recherche d’ANITI.

Participer aux actions de l’équipe support d’ANITI et de l’URFIST.

3- Aptitudes requises

  • Connaissance des plans de gestion de données et des règles de gestion et de diffusion
  • Notions de propriété intellectuelle et de droit d’auteur
  • Intérêt et connaissance du système d’enseignement supérieur et de recherche français
  • Aptitudes au travail en équipe, bon relationnel
  • Rigueur et sens de l’organisation
  • Maîtrise des outils bureautiques

4- Conditions de stage

Stage conventionné avec gratification – durée souhaitée : 4 mois à partir de juin 2025

Temps plein – horaires en journée

Localisation géographique : Maison de la recherche et de la valorisation – 118 route de Narbonne – 31400 Toulouse. Déplacements à prévoir sur l’agglomération toulousaine.

Type de contrat : stage

Durée du contrat : 4 mois à partir de septembre 2025

Expérience : non

Lieu de travail :
Maison de la recherche et de la valorisation – 118 route de Narbonne – 31400 Toulouse

Quotité du travail : 100%

Pour postuler

CV et lettre de motivation à adresser à Amélie Barrio amelie.barrio@univ-toulouse.fr

Marsters' internships

ANITI Principal Investigator’s M2 internship subjects

Each year, ANITI PIs  and their research teams offer internship topics specifically for ANITI scholarship recipients. Here are the proposed M2 internship topics for 2025:

  • M2 internship co-supervised by RTE and LAAS (Starting in early 2025): polynomial optimization for time-delayed power systems, supervised by Didier Henrion (LAAS), Victor Magron (LAAS), Patrick Panciatici (RTE) and Manuel Ruiz (RTE). Please see the following description.

  • M2 internship co-supervised by RTE and LAAS (Starting in early 2025): learning-based optimization for power systems, supervised by Milan Korda (LAAS), Victor Magron (LAAS), Balthazar Donon (RTE) and Patrick Panciatici (RTE). Please see the following description.

  • “Towards flexible and adaptive LLMs”, Chaire ANITI C3PO (PI: Rufin VANRULLEN, vanrullen@cnrs.fr)
    Transformers have become foundational in modern AI. However, their rigid layer-by-layer processing in a fixed order may limit their flexibility and adaptability to varying contexts. This internship project (part of the ANITI C3PO chair and an ERC Advanced grant GLoW) proposes a routing mechanism that dynamically recruits and combines Transformer layers based on input context. This routing mechanism, inspired by the way processes in the brain are dynamically recruited depending on relevance, could unlock previously untapped flexibility and efficiency in Transformer architectures. Central to this project is the residual stream (Elhage, 2021), which carries representations forward across layers, each successive layer applying its “transformation” to the stream. By dynamically selecting which layers update the residual stream, the model can adapt its computation to specific tasks, much like the brain’s ability to recruit relevant processes in real-time. This perspective aligns with the Global Workspace Theory (see VanRullen, 2021), which describes how a shared workspace integrates contributions from specialized “modules” or “experts”. (The approach is thus also related to Mixture of Experts models, where components are selectively activated based on the input). For this initial project, we will train a router to select and combine pretrained and frozen layers from a small open-source model (like Mistral 7B or Llama 2). When trained on the initial LLM pre-training dataset, we expect the router to recover the original model’s fixed layer ordering for most inputs; but it might also learn to deploy novel layer arrangements in certain scenarios, thereby revealing potential improvements over the standard Transformer architecture. Combined with mechanisms for learning when to stop processing (Graves, 2016), this novel router could lead to models that are more adaptive, resource-aware, and interpretable.
    References :
    Elhage, N., Nanda, N., Olsson, C., Henighan, T., Joseph, N., Mann, B., … & Olah, C. (2021). A mathematical framework for transformer circuits. Transformer Circuits Thread, 1(1), 12.
    Graves, A. (2016). Adaptive computation time for recurrent neural networks. arXiv preprint arXiv:1603.08983.
    VanRullen, R., & Kanai, R. (2021). Deep learning and the global workspace theory. Trends in Neurosciences, 44(9), 692-704.

  • “A deep learning module for brain decoding and encoding”, Chaire ANITI C3PO (PI: Rufin VANRULLEN, vanrullen@cnrs.fr)
    This internship aims to build an interface between brain activity (recorded with fMRI) and an existing multimodal deep-learning representation system.
    The work is part of the ERC GLoW project that aims to build multimodal deep-learning models inspired by a neuro-cognitive theory called “Global Workspace”. In brief, such models are trained to integrate and distribute information among networks of specialized modules (e.g. vision, language, audio…) through a central amodal global latent workspace. The specific goal of the internship will be to integrate a new module for brain activity data into our current implementation of the Global Workspace (GW) model. This module will be trained from a large-scale multimodal fMRI dataset (recorded by our team) of people watching images of naturalistic scenes and reading short textual descriptions of such scenes. So far, we have successfully trained GW models on large-scale vision and language datasets to perform tasks like image captioning or text-to-image generation. The addition of a brain activity module will allow us to perform numerous additional operations, such as prediction of brain activity for a given stimulus, or reconstruction of image and/or text stimuli from brain activity data.
    Our team is working with a shared codebase based on PyTorch. We are looking for candidates with Python programming experience and formal machine learning training. Neuroscience expertise is not a requirement.

Ne manquez rien !

Inscrivez-vous pour recevoir l'actualité d'ANITI chaque mois.

Nous n’envoyons pas de messages indésirables !

en_GBEnglish