Aller au contenu

STAGE Réalité étendue assistée par edge computing pour les tâches collaboratives dans l'industrie aéronautique

  • Sur site
    • Pau, Nouvelle-Aquitaine, France
  • Recherche

Description de l'offre d'emploi

 

Titre: Réalité étendue assistée par edge computing pour les tâches collaboratives dans l’industrie aéronautique

 

Proposition de stage Ing./Master en Informatique / Génie logiciel

 

 Résumé

Le secteur aéronautique est confronté à des défis majeurs liés à la souveraineté technologique et à des exigences accrues en termes de durabilité. Les technologies immersives (eXtended Reality - XR), l’Intelligence Artificielle (IA) et les Jumeaux Numériques (JN) représentent des leviers prometteurs pour accompagner sa transition numérique. Ce stage s’inscrit dans cette dynamique en visant à améliorer les expériences collaboratives en XR intégrant le JN, afin d’optimiser la Qualité de Service (QoS) et la Qualité d’Expérience (QoE) des opérateurs, qu’ils soient sur site ou à distance, lors de la réalisation de tâches de maintenance collaborative. En s’appuyant sur un environnement XR existant, ce stage cherche à concevoir et optimiser l’échange de données entre opérateurs collaboratifs. Par ailleurs, il explorera des techniques de compression sémantique des données XR pour renforcer le réalisme et la fluidité des interactions.

 

Mots clés:

Données, Edge computing, Intelligence Artificial, Jumeaux Numériques, Réalité augmenté, Réalité virtuelle.

 

Travail de recherche

Domaines scientifiques:

Aéronautique, Intelligence artificielle, Edge computing, Réalité étendue, Jumeaux numériques, Interaction Homme-Machine, Génie logiciel.

 

Programme/Objectifs:

L’objectif de ce stage est de concevoir et développer un prototype d’échange de données entre opérateurs collaboratifs dans un environnement. Le programme/objectifs de travail inclut:

  1.    Rédiger un article état de l’art incluant les flux de données pour un système immersif collaboratif, les techniques de compression sémantique et les outils de machine learning pour le traitement des données XR dans l’industrie aéronautique.

  2.    Concevoir et implémenter des scénarios de tâches collaboratives représentatives de situations réelles de l’industrie aéronautique, au sein de l’environnement de développement existant, où les opérateurs sur site utilisent la Réalité Augmentée (AR) tandis que les experts distants interagissent via la Réalité Virtuelle (VR) et l’interface JN.

  3.    Optimiser le module XR d’offloading existant, initialement centré sur l’estimation de pose, en intégrant des capacités de reconstruction et de rendu de scènes, s’appuyant sur le machine learning, l’edge computing et des solutions conteneurisées pour garantir modularité, scalabilité et performance.

  4.    Générer des données XR pour la compression sémentique, et explorer les techniques existantes de compression sémantique, afin d’améliorer le réalisme et le dynamisme des interactions virtuelles, en adéquation avec les besoins évolutifs du secteur aéronautique.

  5.    Valider la solution développée dans un scénario réel de l’aéronautique impliquant plusieurs utilisateurs collaboratifs co-localisés ou distants utilisant des dispositifs hétérogènes. Mener des expérimentations pour évaluer la QoS/QoE des utilisateurs XR.

 

Travaux antérieurs du laboratoire:

Le projet JENII est une initiative d’apprentissage à distance pour l’industrie du futur, reposant sur des environnements immersifs et collaboratifs centrés sur les jumeaux numériques de systèmes industriels réels.

 

Livrables scientifiques/techniques attendus :

Les résultats attendus incluent un rapport complet documentant les recherches, expérimentations et évaluations menées durant la phase de preuve de concept, contribuant à la base de connaissances académiques en technologies XR et DT. Ces contributions devraient alimenter l’innovation dans le domaine et fournir des bénéfices opérationnels aux partenaires industriels, notamment par une meilleure performance des applications XR, soutenant ainsi la prise de décision et la collaboration dans les industries aéronautiques.

 

Contexte

Présentation du laboratoire :

CESI LINEACT (UR 7527), Laboratoire d’Innovation Numérique pour les Entreprises et les Apprentissages au service de la Compétitivité des Territoires, anticipe et accompagne les mutations technologiques des secteurs liés à l’industrie et la construction. La proximité historique du CESI avec les entreprises constitue un élément déterminant pour nos activités de recherche. Elle nous a conduits à orienter nos efforts vers une recherche appliquée en lien étroit avec les entreprises et en partenariat avec elles. Une approche centrée sur l’humain,

couplée à l’usage des technologies ainsi qu’un ancrage territorial et des liens avec la formation, ont permis la construction de recherches transversales : elles placent l’humain, ses besoins et ses usages au centre des enjeux tout en abordant l’angle technologique par leurs contributions. La recherche est organisée autour de deux équipes scientifiques interdisciplinaires et plusieurs domaines d’application :

•    Équipe 1 : “Apprendre et Innover” – Apprendre et Innover sont deux besoins fondamentaux des sociétés modernes. La finalité de nos recherches est de produire des connaissances sur les écosystèmes d’apprentissage et d’innovation pour une expérience et un développement responsable et durable des individus, des organisations et des territoires.

•    Équipe 2 : “Ingénierie et Outils Numériques” développe sa recherche dans les champs de la modélisation, la simulation, l’optimisation et le pilotage de systèmes et processus complexes et des interactions humains systèmes dans ces systèmes cyber physiques.

Ces thématiques de recherche, identifiées à partir des besoins industriels, s’inscrivent dans les domaines applicatifs ciblés par CESI LINEACT que sont industrie 5.0, construction 4.0 et ville durable, formations du futur et services numériques responsables. Ces domaines de recherche sont soutenus par des plateformes de recherche, dont celles de Rouen et Nanterre dédiées à la Fabrique 5.0 et à la Construction 4.0.

 

Liens avec les axes de recherche:

Le projet vise à exploiter les synergies entre les axes « Systèmes Résilients et Sécurisés (R2S) » et « Outils numériques » au sein de l’équipe 2 du CESI LINEACT.

 

Présentation du projet C2A:

Soutenu par les investissements de l’État dans le cadre du plan France 2030, Campus Aero Adour (C2A) accompagne la transition numérique et environnementale de l’industrie aéronautique dans le territoire de l’Adour. Lauréat de l’Appel à Manifestation d’Intérêt « Compétences et Métiers d’Avenir » – volet « Produire des Avions Bas Carbone », C2A bénéficie d’un soutien de l’Etat Francais sur cinq ans.

 

Recrutement / Profil du candidat

Modalités :

Étude du dossier et entretien. Toutes les personnes intéressées sont encouragées à envoyer leur candidature à (hmkamdjou [at] cesi.fr, avec pour objet : “[Application] Edge-Assisted XR Collaboration for Aeronautic Industry”). Les candidatures seront traitées au fil de l’eau. Une candidature anticipée est vivement encouragée.

Le dossier de candidature doit contenir:

•    Une lettre de motivation;

•    Un CV;

•    Les relevés de notes de M1 et de l’année en cours de M2 (ou niveau équivalent);

•    Les certificats BSc/MSc/Ing.,;

•    Au moins deux lettres de recommandation.

Merci de soumettre l’ensemble dans un fichier zip intitulé PRENOM_NOM.zip.


Organisation du stage:

•    Financement: France 2030.

•    Lieu de stage: CESI, Campus de PAU, 8 rue des Frères d’Orbigny 64000 Pau, France.

•    Date de début : janvier 2026.

•    Durée : 5 à 6 mois.

 

Encadrants:

•    Hugues M. KAMDJOU, Associate Professor.

•    Samir OUCHANI, Research Director, HDR.

 

Remerciements :

Ce travail est réalisé dans le cadre du projet Campus Aéro Adour (C2A) financé par le gouvernement dans le cadre du Plan France 2030.

 

References

[1]    Hugues M. Kamdjou, David Baudry, Vincent Havard, and Samir Ouchani. Resource-constrained extended reality operated with digital twin in industrial internet of things. IEEE Open Journal of the Communications Society, 5:928–950, 2024.

[2]    Alexander Schäfer, Gerd Reis, and Didier Stricker. A survey on synchronous augmented, virtual, and mixed reality remote collaboration systems. Association for Computing Machinery, 55(6), 2022.

[3]    Liuchuan Yu, Bo Han, Songqing Chen, and Lap-Fai Yu. Holocook: A real-time remote mixed reality cooking tutoring system. In

HCI International 2024 – Late Breaking Papers, pages 244–264. Springer Nature Switzerland, 2025.

[4]    Chih-Hsing Chu, Jie-Ke Pan, and Yen-Wei Chen. Ergonomic workplace design based on real-time integration between virtual and augmented realities. Robotics and Computer-Integrated Manufacturing, 92:102859, 2025.

[5]    Francisco M. Garcia, Santiago Schez-Sobrino, Carlos Glez-Morcillo, José J. Castro-Schez, Javier A. Albusac, and David Vallejo. Rtc-mr: A webrtc-based framework for real-time communication in mixed reality. Software Impacts, 23:100727, 2025.

[6]    Yang Yinong, Keivanpour Samira, and Imbeau Daniel. Integrating x-reality and lean into end-of-life aircraft parts disassembly sequence planning: a critical review and research agenda. The International Journal of Advanced Manufacturing Technology, 127(5), 2023.

[7]    Jamie Cross, Christine Boag-Hodgson, Tim Ryley, Timothy J Mavin, and Leigh Ellen Potter. Using extended reality in flight simulators: A literature review. IEEE Transactions on Visualization and Computer Graphics, 29(9):3961–3975, 2023.

[8]    Yirui Jiang, Trung Hieu Tran, and Leon Williams. Machine learning and mixed reality for smart aviation: Applications and challenges. Journal of Air Transport Management, 111:102437, 2023.

[9]    Sifat Rezwan, Huanzhuo Wu, Juan A. Cabrera, Giang T. Nguyen, Martin Reisslein, and Frank H. P. Fitzek. cxr+ voxel-based semantic compression for networked immersion. IEEE Access, 11:52763–52777, 2023.

[10]    Hanh T.M. Tran, Hieu V. Nguyen, Van-Phuc Bui, Tien Ngoc Ha, Van Tho Nguyen, Duc-Hien Nguyen, and Mai T.P. Le. Encoding reality with semantic interpretation in metaverse interactions. AEU - International Journal of Electronics and Communications, 187:155512, 2024.

[11]    Sebastian Utzig, Robert Kaps, Syed Muhammad Azeem, and Andreas Gerndt. Augmented reality for remote collaboration in aircraft maintenance tasks. In 2019 IEEE Aerospace Conference, pages 1–10, 2019.

[12]    Bernhard Kerbl, Georgios Kopanas, Thomas Leimkuehler, and George Drettakis. 3d gaussian splatting for real-time radiance field rendering. ACM Trans. Graph., 42(4), July 2023.

Pré-requis du poste

Le ou la candidate doit être inscrit(e) en Master ou équivalent en Génie logiciel ou en Informatique. Il/Elle devra posséder des connaissances et expériences dans les points suivants :

•    Compétences scientifiques et techniques :

–    Compétences en programmation et en outils de développement logiciel (C#, Unity 3D, Unity Netcode, NodeJS, Docker et Python);

–    Intérêt pour les technologies immersives, les jumeaux numériques, l’apprentissage automatique, l’edge computing;

–    Connaissances en programmation multiplayer dans Unity seraient appréciées;

–    Familiarité avec les concepts et protocoles réseau, en particulier dans le contexte d’architectures edge computing;

–    Compétences en communication en anglais/français et capacité à collaborer dans une équipe pluridisciplinaire.

•    Compétences interpersonnelles:

–    Rigueur, Autonomie, sens de l’initiative et curiosité;

–    Capacité à travailler en équipe avec de bonnes compétences relationnelles.

ou