Espaces acoustiques et cognitifs
L’activité de recherche et de développement de l’équipe est consacrée à la reproduction, à l’analyse/synthèse et à la perception de scènes sonores.

Dôme ambisonique à l'Ircam
© Ircam-Centre pompidou, photo : Quentin Chevrier
Les disciplines scientifiques de l’équipe sont le traitement du signal et l’acoustique pour l’élaboration de techniques de reproduction audio spatialisée et de méthodes d’analyse/synthèse du champ sonore. Parallèlement, l’équipe consacre un important volet d’études cognitives sur l’intégration multisensorielle pour un développement raisonné de nouvelles médiations sonores basées sur l’interaction corps/audition/espace. Les activités de recherche scientifique s’articulent avec une activité de développement de bibliothèques logicielles. Ces développements consignent le savoir-faire de l’équipe, soutiennent son activité de recherche théorique et expérimentale et sont le vecteur majeur de notre relation avec la création musicale et d’autres secteurs applicatifs.
Les travaux concernant les techniques de spatialisation se concentrent sur les modèles basés sur un formalisme physique du champ sonore. L’objectif principal est le développement d’un cadre formel d’analyse/synthèse du champ sonore exploitant des réponses impulsionnelles spatialisées (SRIR pour Spatial Room Impulse Response). Les SRIRs sont généralement mesurées par des réseaux sphériques comportant plusieurs dizaines de transducteurs (microphones et/ou haut-parleurs). L’application principale concerne le développement de réverbérateurs à convolution exploitant ces SRIRs à haute résolution spatiale afin de reproduire fidèlement la complexité du champ sonore. Les méthodes d’analyse-synthèse permettent également de considérer ces SRIRS comme des matériaux musicaux structurés et manipulables. Par ailleurs, les méthodes de synthèse sont actuellement exploitées pour générer un corpus de réponses impulsionnelles réalistes capable d’alimenter des processus d’apprentissage machine.
La technique de spatialisation binaurale sur casque retient également notre attention. L’évolution des pratiques d’écoute et la démocratisation des applications interactives tendent à privilégier l’écoute sur casque à travers l’usage des smartphones. Grâce à sa capacité d’immersion sonore, l’écoute binaurale devient le premier vecteur d’écoute tridimensionnelle. Basée sur l’exploitation des fonctions de transfert d’oreille (HRTFs) elle reste à ce jour la seule approche assurant une reconstruction exacte et dynamique des indices responsables de la localisation auditive. Elle s’impose comme un outil de référence pour la recherche expérimentale liée à la cognition spatiale en contexte multisensoriel et pour les applications de réalité virtuelle.
Parallèlement, les formats « orientés objet » (OBA pour Object-Based Audio) sont en voie d’adoption dans les chaînes de production et de distribution des contenus, notamment dans les domaines de la musique et du cinéma. Les productions actuelles reposent majoritairement sur le formalisme ADM (Audio Definition Model) qui est à la base de Dolby Atmos. Si le paradigme OBA permet potentiellement une interaction complète de l’utilisateur avec la scène sonore (navigation à 6 degrés de liberté, transformation de la position ou de l'orientation des objets), le format ADM existant présente d’importantes limitations qui restreignent les usages (souvent limités à une rotation 3-DoF de l’auditeur au centre de la scène). Nous nous intéressons actuellement à l’élaboration d’un schéma hiérarchique de métadonnées, associé au concept d’objets acoustiques, qui permettrait d’étendre ADM à des applications 6-DoF interactives.
Ces techniques de spatialisation audio 3D, associées aux dispositifs de captation des mouvements de l’interprète ou de l’auditeur dans l’espace, constituent une base organologique essentielle pour aborder les questions « d’interaction musicale, sonore et multimédia ». Parallèlement, elles nourrissent une recherche sur les mécanismes cognitifs liés à la sensation d’espace, notamment sur la nécessaire coordination entre les différentes modalités sensorielles (audition, vision, proprioception, motricité, ...) pour la perception et la représentation de l’espace. Nous tentons de mettre à jour l’influence des différents indices acoustiques (localisation, distance, réverbération...) utilisés par le système nerveux central de l’homme sur l’intégration des informations sensorielles et leur interaction avec les processus émotionnels.
L’équipe est également impliquée dans l’axe transversal Son/Musique/Santé. Dans ce cadre, elle poursuit notamment une étude consacrée à la perception sonore atypique chez les enfants présentant un autisme modéré à sévère. Elle participe également aux travaux de recherche sur la caractérisation et le traitement des acouphènes par réalité virtuelle.
Sur le plan musical, notre ambition est de fournir des modèles et des outils permettant aux compositeurs d’intégrer la mise en espace des sons depuis le stade de la composition jusqu’à la situation de concert, contribuant ainsi à élever la spatialisation au statut de paramètre d’écriture musicale. Plus généralement, dans le domaine artistique, ces recherches s’appliquent également à la postproduction, aux installations sonores interactives et à la danse à travers les enjeux de l’interaction son/espace/corps.
Membres de l'équipe
Olivier Warusfel
Responsable d'équipe
Isabelle Viaud-Delmon
Chercheuse
Markus Noisternig
Chercheur
Coralie Vincent
Ingénieure
Thibaut Carpentier
Ingénieur
Benoît Alary
Chargé de R&D
Valentin Bauer
Chargé de recherche
Alice Pain
Doctorante
Anthony Gallien
Doctorant
Louis GOSSELIN
Stagiaire
Paulin Roman
Stagiaire
- Spatialisation sonore : réverbération hybride et réponses impulsionnelles spatialisées (SRIR), analyse-synthèse de SRIR, synthèse de champs sonores par réseaux à haute densité spatiale, systèmes WFS et HOA, écoute binaurale, spatialisation distribuée, réalité augmentée
- Fondements cognitifs : Intégration multisensorielle et émotion, musique et plasticité cérébrale, perception de la distance en réalité augmentée
- Création / Médiation : Auralisation de salle, composition urbaine et paysagère, synthèse de la directivité.
Projets liés
Voir tous les projetsAxe Son-Musique-Santé
Cet axe transversal Son-Musique & Santé regroupe les recherches liées au bien-être et à la santé, effectuées dans le cadre du laboratoire STMS.
Synthèse de la directivité par corpus
La résidence artistique d’Aaron Einbond s’intéresse à la cohabitation entre sons instrumentaux et sons de synthèse dans un espace de diffusion.
Composition urbaine et paysagère
Logiciels liés
Spat Revolution
La révolution de l’audio immersif, offrant aux artistes, sound designers et ingénieurs du son des possibilités quasi illimitées pour concevoir, créer et mixer une expérience immersive exceptionnelle en temps réel.
Logiciel en vente à l'Ircam
Spatialisation
Spat
Spat est une suite logicielle pour la spatialisation des signaux sonores en temps réel, destinée à la création musicale, à la postproduction et aux performances live.
Logiciel gratuit
Spatialisation
Panoramix
Panoramix est une application autonome dédiée au mixage et à la post-production audio spatialisée.
Logiciel dans l'abonnement premium
Design et traitement sonores
Spatialisation