Stage M2R : Prises de parole en public en réalité virtuelle
Intitulé:
Différences inter-individuelles dans les stratégies visuelles lors de prises de parole en public en réalité virtuelle
Lieu
IMT Atlantique, Nantes – PACCE/LS2N
Durée
6 mois, à partir de Février/Mars 2021
Gratification
environ 560€/mois
Mots-clés
réalité virtuelle, interactions sociales virtuelles, oculométrie, modélisation d’utilisateurs
Pour candidater
veuillez envoyer un CV, une lettre de motivation, 2 lettres de recommandations et vos relevés de notes de M1/M2 à mathieu.chollet@imt-atlantique.fr
Nous recherchons des candidats pour un stage de recherche (Master 2) dans le domaine des interactions sociales virtuelles. La réalité virtuelle présente un fort potentiel pour de nombreuses applications tells que les thérapies d'exposition ou pour l’entraînement de compétences sociales. Dans de tels contextes, il est nécessaire de comprendre l’influence des éléments et des événements présents dans ces situations virtuelles sur l'état cognitif et émotionnel de l'utilisateur. Certains casques de réalité virtuelle récents intègrent des dispositifs de suivi du regard qui permettent d'analyser les stratégies visuelles des utilisateurs et leur exploration de l'environnement virtuel. Dans le cadre de ce projet, le stagiaire réalisera un module logiciel permettant d'enregistrer les directions du regard d’utilisateurs lors d’une tâche virtuelle de prise de parole en public et mènera une étude expérimentale sur la relation entre ces stratégies visuelles et le comportement des personnages virtuels de cette simulation.
Les tâches du stagiaire consisteront à (1) effectuer un état de l’art sur les stratégies visuelles lors de scénarios d'interactions sociales virtuelles ; (2) développer un module d'enregistrement des trajectoires de regard et l’intégrer à une plate-forme de prise de parole en public virtuelle existante, en utilisant le SDK d'un oculomètre embarqué dans un casque de réalité virtuelle ; (3) concevoir et réaliser une étude expérimentale afin d’identifier des différences individuelles dans les stratégies visuelles d’utilisateurs réalisant une prise de parole en public virtuelle ; (4) analyser les résultats et les soumettre pour publication dans une revue ou conférence avec comité de lecture. Le système sera développé à partir d'un logiciel existant, Cicero (Chollet et al., 2017), déjà utilisé dans plusieurs études expérimentales. Au-delà des données de suivi oculaire, l'étude impliquera la collecte de divers questionnaires, de données issues de capteurs physiologiques (rythme cardiaque, activité électrodermale) et d'enregistrements audiovisuels (voix, gestes, postures) afin de permettre des analyses ultérieures.
Le stage sera réalisé sur le campus de l'IMT Atlantique à Nantes. Le stagiaire sera encadré par Mathieu Chollet, du groupe de recherche PACCE du laboratoire LS2N. Le stage s'inscrit dans un projet de recherche plus large et est partiellement financé par une bourse de l'Agence Nationale de la Recherche ainsi que par des subventions régionales. Le stage pourra conduire à des collaborations de recherche avec d'autres équipes du LS2N.
Profil de l'étudiant :
• Master 2/3 niveau école d'ingénieur ou équivalent en informatique, sciences cognitives ou discipline connexe. Fort intérêt pour la recherche interdisciplinaire et les interactions homme-machine innovantes.
• Compétences requises : Programmation, moteurs de jeu 3D (Unity 3D, C#). Maîtrise de l'anglais ou du français.
• Compétences désirables : réalité virtuelle. Expérience avec les technologies/données d’eye-tracking. Conception de protocoles expérimentaux.
Refs :
[1] Pertaub, D. P., Slater, M., & Barker, C. (2002). An experiment on public speaking anxiety in response to three different types of virtual audience. Presence: Teleoperators & Virtual Environments, 11(1), 68-78.
[2] Chollet, M., & Scherer, S. (2017). Perception of virtual audiences. IEEE computer graphics and applications, 37(4), 50-59.
[3] Reichenberger, J., Pfaller, M., & Mühlberger, A. (2020). Gaze Behavior in Social Fear Conditioning: An Eye-Tracking Study in Virtual Reality. Frontiers in Psychology, 11.
[4] Rappa, Natasha & Ledger, Susan & Teo, Timothy & Wong, Kok & Power, Brad & Hilliard, Bruce. (2019). The use of eye tracking technology to explore learning and performance within virtual reality and mixed reality settings: a scoping review. Interactive Learning Environments. 1-13. 10.1080/10494820.2019.1702560.
[5] Pan, X., & Hamilton, A. F. D. C. (2018). Why and how to use virtual reality to study human social interaction: The challenges of exploring a new research landscape. British Journal of Psychology, 109(3), 395-417.
Poste Doctorant F/H Immersive and Situated Visualizations of Personal Data
Informations généralesThème/Domaine : Interaction et visualisationInstrumentation et...
Thèse : « «Dynamique d’interactions tactiles et cognition sociale » à l’UTC
Poursuivez ici selon votre inspiration...Type de financement : Demi-bourse région + demi-bourse...
Internship on Human Robot Interaction evaluation in Virtual Reality
Keywords:Human Machine Interaction, Human Robot Collaboration, Virtual Reality, Virtual Reality...
Internship on Intelligent Tutoring System in Virtual Reality
Keywords: Virtual Reality Training System (VRTS), Data collection and analysis, Machine...
Postdoctoral researcher / Research engineer (AR/VR)
Keywords: Human Machine Interaction, Virtual Reality, Virtual Reality Training Systems (VRTS),...
Thèse: Prototypage rapide d’interactions en RA/RV
Mots-clés : Interaction homme – machine (IHM), réalités virtuelle et augmentée (RV&A), génie...