Connexion Espace candidat(e)

J'ai déjà un espace candidat(e)

 
En poursuivant votre navigation, vous acceptez l’utilisation de cookies à des fins d’authentification et d’ajout de favoris. En savoir plus
Moteur de recherche d'offres d'emploi GROUPE PSA

Vous êtes ici :  Accueil  ›  Liste des offres  ›  Détail de l'offre

Interface embarquée d'interaction multimodale basée sur la détection du regard H/F


Détail de l'offre

Informations générales

Entité de rattachement

Rejoindre le Groupe PSA, c'est intégrer une entreprise automobile française d'envergure mondiale, forte d'un héritage industriel de plus de 200 ans, qui contribue à écrire l'histoire du monde automobile. Mû par la recherche permanente de l'innovation et de l'excellence, le Groupe offre un cadre de travail à la fois stimulant et enrichissant. Pionnier et leader des technologies propres et de la mobilité durable, le Groupe PSA entend rester à la pointe des grandes tendances qui font bouger le monde. Grâce à un formidable esprit d'équipe et à une stratégie clairement définie, le Groupe fait preuve d'exigence, d'audace et d'agilité, prenant acte des changements clés pour l'automobile de demain.
Pour réussir ces transformations, l'entreprise a besoin de tous les talents, n'hésitez plus, rejoignez-nous !
  

Référence

2020-7827  

Description du poste

Filière/Métier

Recherche & Développement - Developpement Logiciel Embarque

Intitulé du poste

Interface embarquée d'interaction multimodale basée sur la détection du regard H/F

Contrat

Stage

Description de la mission

Le service Sciences Cognitives et Facteur Humain (SCHF), au sein de la direction scientifique de PSA, travaille à l'identification précoce, le maquettage et la pré validation de nouveaux concepts et prestations automobiles, avec la préoccupation d'améliorer l'expérience d'utilisation (conception centrée sur l'utilisateur).

SCHF souhaite continuer l'exploration d'une nouvelle modalité d'interaction Humain-Machine basée sur le tracking du regard.
L'action s'inscrit dans le champ des interactions multimodales intégrant la détection du regard dans la chaîne de contrôle/commande.
La révolution numérique dans l'automobile a entre autres deux conséquences que constituent le cadre de cette activité : d'une part, la généralisation des technologies de vision intelligente qui équiperont les futurs véhicules (caméras de perception de l'environnement de conduite, monitoring de l'attention conducteur et des activités dans le cockpit, ...). D'autre part, la présence du digital dans l'habitacle (multiplication des services accessibles grâce à l'hyper connectivité).

Le principe consiste à utiliser le regard comme désignateur d'une intention d'utilisation de la fonction regardée, qui se met en attente d'une validation utilisant un autre canal sensoriel (vocal, tactile, gestuel).

Après des premières générations employant des eye-trackers conçus pour des utilisations bureautiques, le concept veut aujourd'hui utiliser une caméra vidéo et des modèles DNN entrainées pour la reconnaissance de la direction du regard, couplée à différentes voies de validation (bouton physique sur le volant, geste, commande vocale).

L'objectif du stage est :
- Participer à la mise en place d'un démonstrateur dans un véhicule utilisant une plateforme logicielle ouverte dédiée IA et perception de l'habitacle, ainsi que des périphériques d'entrée/sortie pour procurer une expérience multimodale d'interaction.
- Recueillir l'expérience des utilisateurs en utilisation statique et dynamique.
Pour ce faire l'étudiant devra :
- Prendre en main la plateforme logicielle,
- Adapter les modèles de suivi du regard aux fonctionnalités de présélection et d'activation de fonctions,
- Interfacer divers inputs de validation/réglage de fonctions :
o trames CAN des commandes physiques sur le volant,
o gestes détectés par une Leap-motion
o autres dispositifs en développement à la direction scientifique (commande vocale, ultrahaptics device, ...),
- Interfacer des périphériques de sortie :
o objets graphiques sur écran (widgets, représentation de fonctions) pour capture, translation, grossissement, …
o réglages de luminosité/veille d'écrans d'affichage
- Mettre en place un plan d'évaluation de l'expérience multimodale d'interaction auprès d'un groupe d'utilisateurs.

Profil

Informatique :
- Connaissance en modélisation IA, DNN
- Connaissance des Environnements Unix, Lynux
- Bases en développement (C#, C++, OpenCV, Python)
Langues :
- Maitrise de l'anglais

Autres :
- Intérêt pour les développements centrés utilisateur

Durée du contrat

6 mois

Localisation du poste

Pays

Europe, France, Ile-de-France, Yvelines (78)

Ville

Vélizy-Villacoublay

Critères candidat

Niveau de diplôme préparé

Bac+5

Langues

Anglais (C1 - Courant (3,5 - 4,4 Bright))