10h00- 18h00
Exposés et discussions exclusivement en anglais
Entrée libre, sur réservation
Avancées méthodologiques pour la réalité augmentée audio et ses applications
Dans le cadre du projet ANR HAIKUS (ANR-19-CE23-0023), l'Ircam, le Laboratoire lorrain de recherche en informatique et ses applications (Loria) et l'Institut Jean Le Rond d'Alembert (IJRA) organisent un atelier d'une journée sur les avancées méthodologiques pour la réalité augmentée audio et ses applications.
La réalité augmentée audio (RAA) consiste à intégrer des contenus sonores pré-enregistrés ou générés par ordinateur dans l'environnement réel de l'auditeur. L'audition joue un rôle essentiel pour comprendre notre environnement spatial et interagir avec celui-ci. La modalité auditive accroît l'engagement de l'utilisateur et enrichit l’expérience vécue dans les applications de réalité augmentée (RA), relevant en particulier des domaines de la création artistique, de la médiation culturelle, du divertissement et de la communication.
Les algorithmes de spatialisation sonore représentent des éléments clés dans la chaîne de traitement pour la RAA. Il s’agit de contrôler, en temps réel, la position et l’orientation des sources virtuelles et de synthétiser les effets de réverbération qui leur seront appliqués. Ces outils ont maintenant atteint un niveau de maturité et permettent de piloter des systèmes aussi divers que le rendu binaural tridimensionnel sur casque ou des réseaux de haut-parleurs massivement multicanaux. La précision du traitement spatial appliqué aux événements sonores virtuels est cependant essentielle pour assurer leur intégration sans hiatus perceptif dans l'environnement réel de l'auditeur. Pour atteindre ce niveau d'intégration et de transparence, des méthodes sont nécessaires pour identifier les propriétés acoustiques de l'environnement et ajuster les paramètres du moteur de spatialisation en conséquence. Idéalement, ces méthodes devraient permettre de déduire automatiquement les caractéristiques du canal acoustique, sur la seule base de de l’activité sonore des sources réelles présentes dans l'environnement réel (par exemple : voix, bruits, sons ambiants, sources en mouvement). Ces sujets font l'objet d'une attention croissante, en particulier à la lumière des progrès récents des approches basées sur les méthodes d’apprentissage machine dans le domaine de l'acoustique. En complément, les études perceptives permettent de définir le niveau d’exigence requis pour garantir une expérience sonore cohérente.
Intervenants
Antoine Deleforge, Inria
François Ollivier, Institut Jean Le Rond d'Alembert - Sorbonne Université
Annika Reinhardt, Université de Surrey, Royaume-Unie
Sebastian Schlecht, Université Friedrich-Alexander d'Erlangen-Nuremberg, Allemagne
Cagdas Tuna, Institut Fraunhofer IIS, Allemagne
Toon van Waterschoot, Université KU Leuven, Belgique
Olivier Warusfel, Ircam