Tous les projets

Perception de la distance auditive en réalité augmentée

Ce travail s’inscrit dans le cadre d’une étude plus vaste sur la modélisation et la perception spatiale dans le contexte de la réalité augmentée auditive. Dans un tel contexte, où l’environnement réel est enrichi par un ensemble d’évènements sonores virtuels, une problématique importante est de garantir la cohérence de la perception spatiale de ces événements sonores virtuels et des sources sonores réelles ou ancres visuelles présentes dans la salle. Assurer cette cohérence nécessite, en particulier, le choix d'un modèle de gestion de l’effet de distance sonore et l'accès à des informations sur les propriétés acoustiques de la salle. 

L’objectif d’une première étude était d’évaluer les performances d’un modèle, informé par la donnée d’une unique réponse impulsionnelle directionnelle mesurée dans le lieu réel, pour contrôler la distance apparente d’une source virtuelle. Au sein de ce modèle, l’effet de distance sonore est rendu par la modification de l’énergie de différents segments temporels de la réponse impulsionnelle de base. Les réponses impulsionnelles ainsi extrapolées sont ensuite exploitées dans un moteur de rendu par convolution pour placer la source virtuelle à différentes distances de l’auditeur. 

L’évaluation des performances du modèle a fait l’objet d’un protocole de test perceptif dans lequel le participant était placé dans une situation de réalité augmentée sonore dans laquelle il devait juger la distance d’une source sonore virtuelle en présence d’une série d’ancres visuelles (chaises). Les performances du modèle étaient menées par comparaison avec des réponses impulsionnelles binaurales de référence, mesurées dans la salle de test pour chaque distance testée. L’analyse statistique des résultats, collectés sur 40 participants au cours de deux sessions, démontre les performances équivalentes, d’un point de vue perceptif, de ce modèle face aux mesures de référence. Les critères jugés dans l’analyse sont la distance moyenne perçue, la variabilité inter-sujets et intra-sujet.

Avec la tutelle de :

IrcamSorbonne UniversitéCNRSMinistère de la Culture

Découvrez les autres projets de l'équipe

OpenTuning

Individuation créative par le design d'interaction avec des systèmes musicaux génératifs

Dates : mars 2026 à décembre 2029

Inside Artificial Improvisation

Dans la boîte noire de l’improvisation artificielle

Dates : janvier 2026 à décembre 2029

INTIM

Interactive analysis/synthesis of musical TIMbre

Dates : septembre 2024 à mars 2026