Stage: Réalité augmentée et véhicule autonome, Laboratoire Heudiasyc
ORGANISME PROPOSANT LE SUJET : Laboratoire UMR CNRS Heudiasyc
MAÎTRES DE STAGE : Indira Thouvenin et Baptiste Wojtkowski
DURÉE : 6 mois
LIEU : Laboratoire Heudiasyc - Université de Technologie Compiègne
MOTS-CLÉS : Expérience utilisateur, Véhicule autonome, réalité augmentée
Validation d’un modèle d’attention pour réalité augmentée adaptative dans le cadre de la reprise de contrôle en conduite simulée du véhicule autonome
Le développement des véhicules autonomes et semi-autonomes induit une transformation radicale du rôle du conducteur dans le système automobile. Alors que ce dernier avait auparavant un contrôle total sur chaque tâche de conduite, il peut aujourd’hui progressivement s’en abstraire pour vaquer à d’autres occupations.
Son rôle est alors différent, et évolue au cours du temps [1]. Conducteur, superviseur, moniteur, il change régulièrement de rôle au fil des besoins imposés par l’adéquation entre les capacités du système hautement automatisé d’une part, et la situation de conduite d’autre part.
Parmi toutes les transitions de tâches entre deux rôles du conducteur, l’une d’elles en particulier, nous intéressés: il s’agit du passage d’un état de non conducteur, entièrement passif ou distrait, à un état de conducteur actif. Distraction, du latin distractio, éloignement, traduit exactement la nature du problème rencontré lors de la conception d’un système capable d’aborder un tel évènement.
Le conducteur, engagé dans une tâche autre que la conduite (lecture, discussion, jeu...) s’extrait de cette tâche et doit rapidement reprendre le contrôle du véhicule.
Pour assister le conducteur dans cette transition, de nombreuses interfaces ont déjà été développées [2]. Ces dernières s’appuient sur diverses modalités i.e. visuelles [3], sonores [4], haptiques [5], etc. La mise en œuvre de ces différentes interfaces est un problème important [2] car elles provoquent parfois une surcharge cognitive pour l’utilisateur. Par ailleurs ces interfaces ne s’adaptent pas à l’état du conducteur, et restent insuffisantes pour l’assister.
Nous avons donc proposé, au travers des travaux de thèse de Baptiste Wojtkowski, une première étude qui vise à observer l’attention du conducteur afin de prédire à quel moment un niveau d’inattention donné sera atteint. En fonction de cette inattention, des retours sensoriels adaptatifs en réalité augmentée sont affichés sur le parebrise. Les premiers résultats montrent que notre approche avec adaptation des retours sensoriels est plus efficace que l’approche classique (i.e. sans adaptation) pour diminuer la surcharge cognitive de l’utilisateur.
Le stage sera donc une validation de ce modèle dans des conditions expérimentales maîtrisées (simulateur de conduite dans le CAVE).
OBJECTIF
Afin de faire des retours pertinents à l’utilisateur, nous avons modélisé une représentation de la situation (indicateur de danger) ainsi que du conducteur. Son attention générale, caractérisée par son regard aux alentours, son comportement lors de la reprise de contrôle, sont étudiés et caractérisés avant d’être intégrés dans un modèle de décision. Étant donnée la nature contradictoire et imprécises des données provenant du conducteur, nous avons défini un réseau évidentiel avec fonctions de croyances conditionnelles (ENC)[6] pour modéliser l’utilité d’effectuer un retour sensoriel auprès du conducteur en fonction de ses capacités estimées. Le modèle de décision utilise en entrée des modèles d’attention [7], [8] issus de la littérature mais la question du choix de ces modèles d’attention et de leur paramétrage n’a pas encore été étudiée du point de vue de l’expérience utilisateur.
La problématique est de concevoir et de réaliser une expérimentation permettant de dégager l’effet des feedback visuels et sonores, de les comparer, tout en faisant varier les paramètres du modèle de décision.
Le laboratoire dispose d’un simulateur de conduite utilisant le logiciel SCANeR dans une salle immersive Translife afin de confronter des sujets à des scénarios complexes en réalité virtuelle. Les divers modèles d’attention à comparer, issus de la littérature, seront également à disposition de l’étudiant⋅e.
DÉROULEMENT
Après une étude de la littérature sur les méthodes d’analyse des comportements des conducteurs lors de la reprise de contrôle d’un véhicule hautement automatisé, il sera nécessaire de choisir et de mettre en œuvre une ou plusieurs expérimentations visant à étudier l’impact des divers modèles d’attention pour l’adaptation des feedbacks. Une partie importante du stage sera de réaliser le protocole, les passations, d’analyser les résultats et de les mettre en relation avec la littérature.
Le stagiaire devra présenter les travaux (rapport, soutenance et diffusion scientifique) lors d’évènements scientifiques locaux ou nationaux.
PROFIL
Nous recherchons pour ce stage un·e candidat·e de niveau M2 UXD avec une formation en réalité virtuelle et/ou en IHM. Le ou la candidat·e idéal·une appétence pour la recherche et des bases en création de protocole expérimental. Sans être indispensable, un intérêt pour le développement python est un point positif pour ce stage. Une connaissance de SCANeR et Unreal Engine est un plus.
ORGANISATION DU STAGE
Le stage se déroulera au laboratoire HeudiaSyC , la durée est de 6 mois entre Février et Aout 2022 (dates à discuter).
Le ou la stagiaire disposera d’un poste de travail avec tous les logiciels requis ainsi que de l’accès au CAVE TRANSLIFE et effectuera des réunions hebdomadaires avec ses encadrants.
Indemnités de stage : 570€ net par mois
DOCUMENTS A FOURNIR POUR CANDIDATURE
- CV et lettre de motivation à envoyer avant le 30 décembre à : baptiste.wojtkowski@hds.utc.fr ET indira.thouvenin@hds.utc.fr
RÉFÉRENCES
[1] V. A. Banks et N. A. Stanton, « Analysis of driver roles: modelling the changing role of the driver in automated driving systems using EAST », Theor. Issues Ergon. Sci., vol. 20, no 3, p. 284-300, 2017, doi: 10.1080/1463922X.2017.1305465.
[2] K. Bengler, M. Rettenmaier, N. Fritz, et A. Feierle, « From HMI to HMIs: Towards an HMI Framework for Automated Driving », Information, vol. 11, no 2, p. 61, janv. 2020, doi: 10.3390/info11020061.
[3] A. Eriksson, S. M. Petermeijer, M. Zimmermann, J. C. F. de Winter, K. J. Bengler, et N. A. Stanton, « Rolling Out the Red (and Green) Carpet: Supporting Driver Decision Making in Automation-to-Manual Transitions », IEEE Trans. Hum.-Mach. Syst., vol. 49, no 1, p. 20-31, févr. 2019, doi: 10.1109/THMS.2018.2883862.
[4] S. Brandenburg, « Take-over requests during highly automated driving: How should they be presented and under what conditions? », p. 12, 2019.
[5] A. Telpaz, B. Rhindress, I. Zelman, et O. Tsimhoni, « Haptic seat for automated driving: preparing the driver to take control effectively », in Proceedings of the 7th International Conference on Automotive User Interfaces and Interactive Vehicular Applications, Nottingham United Kingdom, sept. 2015, p. 23-30. doi: 10.1145/2799250.2799267.
[6] « Evidential Reasoning with Conditional Belief Functions - ScienceDirect ». https://www.sciencedirect.com/science/article/pii/B978155860332550081X (consulté le oct. 27, 2021).
[7] K. Zeeb, A. Buchner, et M. Schrauf, « What determines the take-over time? An integrated model approach of driver take-over after automated driving », Accid. Anal. Prev., vol. 78, p. 212-221, mai 2015, doi: 10.1016/j.aap.2015.02.023.
[8] L. Fridman et al., « What Can Be Predicted from Six Seconds of Driver Glances? », ArXiv161108754 Cs, nov. 2016, Consulté le: janv. 03, 2020. [En ligne]. Disponible sur: http://arxiv.org/abs/1611.08754
Poste Doctorant F/H Immersive and Situated Visualizations of Personal Data
Informations généralesThème/Domaine : Interaction et visualisationInstrumentation et...
Thèse : « «Dynamique d’interactions tactiles et cognition sociale » à l’UTC
Poursuivez ici selon votre inspiration...Type de financement : Demi-bourse région + demi-bourse...
Internship on Intelligent Tutoring System in Virtual Reality
Keywords: Virtual Reality Training System (VRTS), Data collection and analysis, Machine...
Postdoctoral researcher / Research engineer (AR/VR)
Keywords: Human Machine Interaction, Virtual Reality, Virtual Reality Training Systems (VRTS),...
Thèse: Prototypage rapide d’interactions en RA/RV
Mots-clés : Interaction homme – machine (IHM), réalités virtuelle et augmentée (RV&A), génie...
Thèse en réalité virtuelle de l'Université Paris Saclay
Sujet de la thèse: Comprendre l’impact des rétroactions et de l’accompagnement virtuels sur...