Stage M 2 : Développement d’un prototype d’IA multimodale pour l’analyse des émotions en contexte de médiation pédagogique et culturelle H/F CESI

Quetigny (21)Stage
Il y a 1 heuresSoyez parmi les premiers à postuler

Description du poste

Intégrer Linéact au sein de CESI pour un stage de recherche serait une formidable opportunité de contribuer à des projets innovants, tout en approfondissant mes compétences dans un environnement à la pointe de la transformation numérique et de l'industrie 4.0.

Description

La reconnaissance automatique des émotions constitue un axe central de l'IA affective, avec des applications croissantes dans les interactions humain-machine, le bien-être et l'éducation. Elle repose sur l'analyse de différentes modalités expressives, notamment la voix et les expressions faciales, dont la complémentarité a été largement démontrée dans la littérature scientifique.

Les travaux récents menés au sein du laboratoire CESI LINEACT ont contribué au développement de modèles avancés de reconnaissance des états affectifs à partir de données audiovisuelles en conditions réelles, en abordant notamment :

  • la reconnaissance des émotions faciales par apprentissage profond [1, 2, 3, 4, 5] ;

  • l'analyse des émotions et du stress à partir de la voix [6, 7] ;

  • la fusion multimodale et la robustesse des modèles face à des données imparfaites ou partielles [8, 9, 10].

Cependant, la majorité des travaux existants reposent sur des bases de données collectées en environnements contrôlés, alors que les modèles sont amenés à être utilisés dans des contextes réels plus complexes. L'étude de la robustesse et des capacités de généralisation des approches multi- modales, via des prototypes expérimentaux appliqués à des situations pédagogiques et culturelles, constitue encore un défi scientifique important.

Ce stage s'inscrit dans les travaux de recherche menés au sein du laboratoire CESI LINEACT sur l'IA affective et l'analyse multimodale des émotions en conditions réelles. Il s'articule avec le projet S'ÉMOUVOIR, lauréat de l'AAP RITM-BFC 2025, monté en collaboration avec l'OCIM (Université Bourgogne Europe), en tant que cadre expérimental destiné à l'évaluation et à l'illustration des approches développées. Le projet S'ÉMOUVOIR offre en particulier un contexte applicatif original, lié à des situations de médiation pédagogique et culturelle impliquant des étudiants, permettant d'explorer les dynamiques émotionnelles associées à des expériences d'apprentissage incarnées et sensibles.

Objectifs du stage

L'objectif du stage est double :

Scientifique :

  • concevoir et étudier des approches d'apprentissage profond multimodales pour la recon- naissance des émotions à partir de signaux audiovisuels en contexte réel ;

  • analyser les limites des modèles existants et proposer des améliorations méthodologiques (fusion, temporalité, robustesse) adaptées à ce type de données ;

    Expérimental et applicatif :

  • développer un prototype expérimental permettant de tester ces approches dans le cadre du projet S'ÉMOUVOIR ;

  • produire des analyses quantitatives et qualitatives des dynamiques émotionnelles obser- vées, destinées à nourrir la réflexion pédagogique et scientifique ;

Les travaux réalisés auront vocation à être valorisés scientifiquement (communications dans des conférences internationales et/ou articles), en continuité avec les axes de recherche du laboratoire.

Missions

Le ou la stagiaire mènera un travail de recherche appliquée structuré autour des étapes suivantes :

  • étude approfondie de l'état de l'art sur la reconnaissance audiovisuelle des émotions et la fusion multimodale ;

  • conception, entraînement et évaluation de modèles d'apprentissage profond pour la recon- naissance des émotions à partir des modalités audio et visuelle (réseaux convolutifs, modèles séquentiels et architectures de type Transformer) ;

  • exploration de stratégies de fusion multimodale et d'analyse temporelle adaptées à des inter- actions naturelles ;

  • implémentation d'un prototype logiciel de recherche permettant :

  • l'analyse émotionnelle des sessions ;

  • la visualisation et la synthèse des résultats (évolution temporelle, émotions dominantes, indicateurs d'engagement) ;

  • exploitation des données audiovisuelles dans un cadre strictement éthique, avec consentement éclairé des participants et respect du RGPD ;

  • analyse critique des résultats, comparaison des approches et discussion des limites ;

Livrables et valorisation

  • un prototype expérimental de reconnaissance audiovisuelle des émotions ;

  • un rapport de recherche détaillant les modèles proposés, les résultats et les perspectives ;

  • une contribution à la valorisation scientifique du projet (article, communication ou pré-publication).

Contexte

Présentation du laboratoire

CESI LINEACT (UR 7527), Laboratoire d'Innovation Numérique pour les Entreprises et les Apprentissages au service de la Compétitivité des Territoires, anticipe et accompagne les mutations technologiques des secteurs et des services liés à l'industrie et au BTP. La proximité historique de CESI avec les entreprises est un élément déterminant pour nos activités de recherche, et a conduit à concentrer les efforts sur une recherche appliquée proche de l'entreprise et en partenariat avec elles. Une approche centrée sur l'humain et couplée à l'utilisation des technologies, ainsi que le maillage territorial et les liens avec la formation, ont permis de construire une recherche transversale ; elle met l'humain, ses besoins et ses usages, au centre de ses problématiques et aborde l'angle…

Description du profil

Profil recherché :

  • Étudiant·e en Master 2 ou école d'ingénieurs (informatique, IA, data science ou domaine proche) ;

  • solides bases en apprentissage automatique et deep learning ;

  • excellente maîtrise de Python et d'au moins une bibliothèque de deep learning (PyTorch ou TensorFlow) ;

  • intérêt marqué pour la recherche, l'IA affective et les interactions humain-machine ;

  • autonomie, esprit critique et capacité à s'inscrire dans un travail scientifique.

Gratification à 15% du plafond horaire de la Sécurité Sociale

Date de début : Février 2026

Votre candidature devra comporter :

  • Un Curriculum-Vitae ;

  • Une lettre de motivation pour le sujet ;

  • Notes du parcours (Licence ou autre) et du master en cours ;

  • Lettres de recommandation si disponibles.

Références

  1. Yassine El Boudouri et Amine Bohi. « EmoNeXt : an Adapted ConvNeXt for Facial Emo- tion Recognition ». In : 25th IEEE International Workshop on Multimedia Signal Processing. 2023.

  1. Amine Bohi, Yassine El Boudouri et Imad Sfeir. « A novel deep learning approach for facial emotion recognition : application to detecting emotional responses in elderly individuals with Alzheimer's disease ». In : Neural Computing and Applications 37.6 (2025), p. 5235- 5253.

  1. Varsha Devi, Amine Bohi et Pardeep Kumar. « AGCD-Net : Attention Guided Context Debiasing Network for Emotion Recognition ». In : Image Analysis and Processing - ICIAP 2025. Sous la dir. d'Emanuele Rodolà, Fabio Galasso et Iacopo Masi. Cham : Springer Nature Switzerland, 2026, p. 533-545. isbn : 978-3-032-10185-3.

  1. Mohamed Ala Yahyaoui et al. « Multi-face emotion detection for effective Human-Robot Interaction ». In : arXiv preprint arXiv :2501.07213 (2025).

  1. Aafaf Ridouan, Amine Bohi et Youssef Mourchid. « Improving pain classification using spatio-temporal deep learning approaches with facial expressions ». In : Seventeenth Interna- tional Conference on Machine Vision (ICMV 2024). T. 13517. SPIE. 2025, p. 82-89.

  1. Leila Ben Letaifa, Maria Ines Torres et Raquel Justo. « Adding dimensional features for emotion recognition on speech ». In : International Conference on Advanced Technologies for Signal and Image Processing. 2020.

  1. Leila Ben Letaifa et M. Inés Torres. « Perceptual Borderline for Balancing Multi-Class Spontaneous Emotional Data ». In : IEEE Access 9 (2021), p. 55939-55954.

  1. Nesrine Farhat et al. « CG-MER : A Card Game-based Maultimodal dataset for Emotion Recognition. » In : 16th International Conference on Machine Vision. 2023.

  1. Leila Ben Letaifa, Amine Bohi et Rim Slama. « The CG-MER dyadic multimodal dataset for spontaneous french conversations : annotation, analysis and assessment benchmark ». In : Journal on Multimodal User Interfaces 19.4 (2025), p. 451-463.

  1. Cristina Palmero et al. « Exploring emotion expression recognition in older adults interacting with a virtual coach ». In : IEEE Transactions on Affective Computing (2025).

Intégrer Linéact au sein de CESI pour un stage de recherche serait une formidable opportunité de contribuer à des projets innovants, tout en approfondissant mes compétences dans un environnement à la

L'entreprise : CESI

CESI est une école d'ingénieurs qui fait de la promotion sociale par l'excellence un modèle de réussite. Rejoignez un environnement stimulant où l'esprit d'équipe, la diversité des projets et l'autonomie ne font qu'un. Découvrez une école qui a su développer un modèle unique et se donne les moyens au quotidien de relever les grands défis de l'époque. Nos 25 campus, 28 000 étudiants, 8000 entreprises partenaires et 106 000 alumni témoignent de l'impact de CESI au niveau national.

CESI accompagne ses étudiants en utilisant des méthodes innovantes de pédagogie active. L'établissement forme avec rigueur les futurs ingénieurs, techniciens et managers, dans les secteurs suivants : l'Industrie & l'Innovation, le BTP, l'Informatique et le Numérique et le Développement Durable. Parallèlement, CESI concrétise son engagement dans la Recherche à travers des activités menées au sein de son Laboratoire d'Innovation Numérique, CESI LINEACT.

Les partenariats établis avec 130 universités à travers le globe, attestent de l'engagement international de CESI. Ces liens privilégiés offrent aux élèves ingénieurs une mobilité sortante et entrante à l'échelle internationale, façonnée notamment par des stages obligatoires faisant partie intégrante de leur cursus.

Référence : 2411738

Recommandé pour vous

Ingénieur Génie des procédés (h/f) ADECCO
Salives (21)Intérim Il y a 14 jours