AFXR
Menu icoMenu232Dark icoCross32Dark

Ajoutez un logo, un bouton, des réseaux sociaux

Cliquez pour éditer
  • AFXR
  • Accueil ▴▾
  • L'AFXR ▴▾
    • Qui sommes-nous ?
    • L'équipe
    • Partenaires
    • Contribuer
    • Statuts
  • Evénements ▴▾
    • Evènements
    • Journées jf·XR 2025
    • Archives des jf·XR
  • Ressources ▴▾
    • Blog de l'AFXR
    • Publications clés
    • Entretiens sur la XR
    • Qu'est-ce que la XR ?
  • Communauté ▴▾
    • Offres d'emplois
    • Annuaires
    • Agenda commun
  • Zone Membre ▴▾
    • Que pouvez-vous y trouver ?
    • Annuaire
    • Soumettre un article
    • Soumettre une offre de poste
    • Communication Adhérents
  • Nous soutenir
  • Se connecter
  • Qui sommes-nous ?
  • L'équipe
  • Partenaires
  • Contribuer
  • Statuts
  • Evènements
  • Journées jf·XR 2025
  • Archives des jf·XR
  • Blog de l'AFXR
  • Publications clés
  • Entretiens sur la XR
  • Qu'est-ce que la XR ?
  • Offres d'emplois
  • Annuaires
  • Agenda commun
  • Que pouvez-vous y trouver ?
  • Annuaire
  • Soumettre un article
  • Soumettre une offre de poste
  • Communication Adhérents
Retour
Mathieu Chollet
10 décembre 2020
Stage M2R : Prises de parole en public en réalité virtuelle

ABONNEZ-VOUS À NOTRE NEWSLETTER

Abonnez-vous à notre newsletter
icoCross16Dark

Stage M2R : Prises de parole en public en réalité virtuelle

Intitulé:

Différences inter-individuelles dans les stratégies visuelles lors de prises de parole en public en réalité virtuelle

Lieu

IMT Atlantique, Nantes – PACCE/LS2N

Durée

6 mois, à partir de Février/Mars 2021

Gratification

environ 560€/mois

Mots-clés

réalité virtuelle, interactions sociales virtuelles, oculométrie, modélisation d’utilisateurs

Pour candidater

veuillez envoyer un CV, une lettre de motivation, 2 lettres de recommandations et vos relevés de notes de M1/M2 à mathieu.chollet@imt-atlantique.fr

Nous recherchons des candidats pour un stage de recherche (Master 2) dans le domaine des interactions sociales virtuelles. La réalité virtuelle présente un fort potentiel pour de nombreuses applications tells que les thérapies d'exposition ou pour l’entraînement de compétences sociales. Dans de tels contextes, il est nécessaire de comprendre l’influence des éléments et des événements présents dans ces situations virtuelles sur l'état cognitif et émotionnel de l'utilisateur. Certains casques de réalité virtuelle récents intègrent des dispositifs de suivi du regard qui permettent d'analyser les stratégies visuelles des utilisateurs et leur exploration de l'environnement virtuel. Dans le cadre de ce projet, le stagiaire réalisera un module logiciel permettant d'enregistrer les directions du regard d’utilisateurs lors d’une tâche virtuelle de prise de parole en public et mènera une étude expérimentale sur la relation entre ces stratégies visuelles et le comportement des personnages virtuels de cette simulation.

Les tâches du stagiaire consisteront à (1) effectuer un état de l’art sur les stratégies visuelles lors de scénarios d'interactions sociales virtuelles ; (2) développer un module d'enregistrement des trajectoires de regard et l’intégrer à une plate-forme de prise de parole en public virtuelle existante, en utilisant le SDK d'un oculomètre embarqué dans un casque de réalité virtuelle ; (3) concevoir et réaliser une étude expérimentale afin d’identifier des différences individuelles dans les stratégies visuelles d’utilisateurs réalisant une prise de parole en public virtuelle ; (4) analyser les résultats et les soumettre pour publication dans une revue ou conférence avec comité de lecture. Le système sera développé à partir d'un logiciel existant, Cicero (Chollet et al., 2017), déjà utilisé dans plusieurs études expérimentales. Au-delà des données de suivi oculaire, l'étude impliquera la collecte de divers questionnaires, de données issues de capteurs physiologiques (rythme cardiaque, activité électrodermale) et d'enregistrements audiovisuels (voix, gestes, postures) afin de permettre des analyses ultérieures.

Le stage sera réalisé sur le campus de l'IMT Atlantique à Nantes. Le stagiaire sera encadré par Mathieu Chollet, du groupe de recherche PACCE du laboratoire LS2N. Le stage s'inscrit dans un projet de recherche plus large et est partiellement financé par une bourse de l'Agence Nationale de la Recherche ainsi que par des subventions régionales. Le stage pourra conduire à des collaborations de recherche avec d'autres équipes du LS2N.

Profil de l'étudiant :

• Master 2/3 niveau école d'ingénieur ou équivalent en informatique, sciences cognitives ou discipline connexe. Fort intérêt pour la recherche interdisciplinaire et les interactions homme-machine innovantes.

• Compétences requises : Programmation, moteurs de jeu 3D (Unity 3D, C#). Maîtrise de l'anglais ou du français.

• Compétences désirables : réalité virtuelle. Expérience avec les technologies/données d’eye-tracking. Conception de protocoles expérimentaux.

Refs :

[1] Pertaub, D. P., Slater, M., & Barker, C. (2002). An experiment on public speaking anxiety in response to three different types of virtual audience. Presence: Teleoperators & Virtual Environments, 11(1), 68-78.

[2] Chollet, M., & Scherer, S. (2017). Perception of virtual audiences. IEEE computer graphics and applications, 37(4), 50-59.

[3] Reichenberger, J., Pfaller, M., & Mühlberger, A. (2020). Gaze Behavior in Social Fear Conditioning: An Eye-Tracking Study in Virtual Reality. Frontiers in Psychology, 11.

[4] Rappa, Natasha & Ledger, Susan & Teo, Timothy & Wong, Kok & Power, Brad & Hilliard, Bruce. (2019). The use of eye tracking technology to explore learning and performance within virtual reality and mixed reality settings: a scoping review. Interactive Learning Environments. 1-13. 10.1080/10494820.2019.1702560.

[5] Pan, X., & Hamilton, A. F. D. C. (2018). Why and how to use virtual reality to study human social interaction: The challenges of exploring a new research landscape. British Journal of Psychology, 109(3), 395-417.

Découvrez davantage d'articles sur ces thèmes :
Orientation Recrutement Recherche Réalité Virtuelle Technologies immersives
icoFacebook35Color icoTwitter35Color icoLinkedin35Color icoComment35Color
icoFacebook35Color icoTwitter35Color icoLinkedin35Color icoComment35Color
0 commentaire(s)
ou
Connectez-vous
Aucun commentaire pour le moment.
Consultez également
Poste Doctorant F/H Immersive and Situated Visualizations of Personal Data

Poste Doctorant F/H Immersive and Situated Visualizations of Personal Data

Informations généralesThème/Domaine : Interaction et visualisationInstrumentation et...

Alexandre KABIL
27 avril 2020
Thèse : « «Dynamique d’interactions tactiles et cognition sociale » à l’UTC

Thèse : « «Dynamique d’interactions tactiles et cognition sociale » à l’UTC

Poursuivez ici selon votre inspiration...Type de financement : Demi-bourse région + demi-bourse...

1 mai 2020
Internship on Human Robot Interaction evaluation in Virtual Reality

Internship on Human Robot Interaction evaluation in Virtual Reality

Keywords:Human Machine Interaction, Human Robot Collaboration, Virtual Reality, Virtual Reality...

Alexandre KABIL
3 mai 2020
Internship on Intelligent Tutoring System in Virtual Reality

Internship on Intelligent Tutoring System in Virtual Reality

Keywords: Virtual Reality Training System (VRTS), Data collection and analysis, Machine...

Alexandre KABIL
3 mai 2020
Postdoctoral researcher / Research engineer (AR/VR)

Postdoctoral researcher / Research engineer (AR/VR)

Keywords: Human Machine Interaction, Virtual Reality, Virtual Reality Training Systems (VRTS),...

Alexandre KABIL
3 mai 2020
Thèse: Prototypage rapide d’interactions en RA/RV

Thèse: Prototypage rapide d’interactions en RA/RV

Mots-clés : Interaction homme – machine (IHM), réalités virtuelle et augmentée (RV&A), génie...

Alexandre KABIL
4 mai 2020
Contacts
  • UFR Sciences et Technologies de l'Université Evry-Paris-Saclay, CE1455, 40 rue de Pelvoux, 91020 EVRY
  • Contact
Informations
  • A propos
  • Manifeste de l'AFXR
  • Les Statuts
  • Partenaires
Réseaux sociaux
  • LinkedIn
  • Twitter
  • Facebook
  •  
  • Plan du site
  • Licences
  • Mentions légales
  • CGUV
  • Paramétrer les cookies
  • Se connecter
  • Propulsé par AssoConnect, le logiciel des associations Professionnelles