Espaces acoustiques et cognitifs

L’activité de recherche et de développement de l’équipe est consacrée à la reproduction, à l’analyse/synthèse et à la perception de scènes sonores.

Dôme ambisonique à l'Ircam

Dôme ambisonique à l'Ircam

© Ircam-Centre pompidou, photo : Quentin Chevrier

Les disciplines scientifiques de l’équipe sont le traitement du signal et l’acoustique pour l’élaboration de techniques de reproduction audio spatialisée et de méthodes d’analyse/synthèse du champ sonore. Parallèlement, l’équipe consacre un important volet d’études cognitives sur l’intégration multisensorielle pour un développement raisonné de nouvelles médiations sonores basées sur l’interaction corps/audition/espace. Les activités de recherche scientifique s’articulent avec une activité de développement de bibliothèques logicielles. Ces développements consignent le savoir-faire de l’équipe, soutiennent son activité de recherche théorique et expérimentale et sont le vecteur majeur de notre relation avec la création musicale et d’autres secteurs applicatifs.


Les travaux concernant les techniques de spatialisation se concentrent sur les modèles basés sur un formalisme physique du champ sonore. L’objectif principal est le développement d’un cadre formel d’analyse/synthèse du champ sonore exploitant des réponses impulsionnelles spatialisées (SRIR pour Spatial Room Impulse Response). Les SRIRs sont généralement mesurées par des réseaux sphériques comportant plusieurs dizaines de transducteurs (microphones et/ou haut-parleurs). L’application principale concerne le développement de réverbérateurs à convolution exploitant ces SRIRs à haute résolution spatiale afin de reproduire fidèlement la complexité du champ sonore. Les méthodes d’analyse-synthèse permettent également de considérer ces SRIRS comme des matériaux musicaux structurés et manipulables. Par ailleurs, les méthodes de synthèse sont actuellement exploitées pour générer un corpus de réponses impulsionnelles réalistes capable d’alimenter des processus d’apprentissage machine.


La technique de spatialisation binaurale sur casque retient également notre attention. L’évolution des pratiques d’écoute et la démocratisation des applications interactives tendent à privilégier l’écoute sur casque à travers l’usage des smartphones. Grâce à sa capacité d’immersion sonore, l’écoute binaurale devient le premier vecteur d’écoute tridimensionnelle. Basée sur l’exploitation des fonctions de transfert d’oreille (HRTFs) elle reste à ce jour la seule approche assurant une reconstruction exacte et dynamique des indices responsables de la localisation auditive. Elle s’impose comme un outil de référence pour la recherche expérimentale liée à la cognition spatiale en contexte multisensoriel et pour les applications de réalité virtuelle.


Parallèlement, les formats « orientés objet » (OBA pour Object-Based Audio) sont en voie d’adoption dans les chaînes de production et de distribution des contenus, notamment dans les domaines de la musique et du cinéma. Les productions actuelles reposent majoritairement sur le formalisme ADM (Audio Definition Model) qui est à la base de Dolby Atmos. Si le paradigme OBA permet potentiellement une interaction complète de l’utilisateur avec la scène sonore (navigation à 6 degrés de liberté, transformation de la position ou de l'orientation des objets), le format ADM existant présente d’importantes limitations qui restreignent les usages (souvent limités à une rotation 3-DoF de l’auditeur au centre de la scène). Nous nous intéressons actuellement à l’élaboration d’un schéma hiérarchique de métadonnées, associé au concept d’objets acoustiques, qui permettrait d’étendre ADM à des applications 6-DoF interactives.


Ces techniques de spatialisation audio 3D, associées aux dispositifs de captation des mouvements de l’interprète ou de l’auditeur dans l’espace, constituent une base organologique essentielle pour aborder les questions « d’interaction musicale, sonore et multimédia ». Parallèlement, elles nourrissent une recherche sur les mécanismes cognitifs liés à la sensation d’espace, notamment sur la nécessaire coordination entre les différentes modalités sensorielles (audition, vision, proprioception, motricité, ...) pour la perception et la représentation de l’espace. Nous tentons de mettre à jour l’influence des différents indices acoustiques (localisation, distance, réverbération...) utilisés par le système nerveux central de l’homme sur l’intégration des informations sensorielles et leur interaction avec les processus émotionnels.


L’équipe est également impliquée dans l’axe transversal Son/Musique/Santé. Dans ce cadre, elle poursuit notamment une étude consacrée à la perception sonore atypique chez les enfants présentant un autisme modéré à sévère. Elle participe également aux travaux de recherche sur la caractérisation et le traitement des acouphènes par réalité virtuelle.


Sur le plan musical, notre ambition est de fournir des modèles et des outils permettant aux compositeurs d’intégrer la mise en espace des sons depuis le stade de la composition jusqu’à la situation de concert, contribuant ainsi à élever la spatialisation au statut de paramètre d’écriture musicale. Plus généralement, dans le domaine artistique, ces recherches s’appliquent également à la postproduction, aux installations sonores interactives et à la danse à travers les enjeux de l’interaction son/espace/corps.


Membres de l'équipe

Olivier Warusfel

Responsable d'équipe

Coralie Vincent

Ingénieure

Benoît Alary

Chargé de R&D

Valentin Bauer

Chargé de recherche

Alice Pain

Doctorante

Paulin Roman

Stagiaire

  • Spatialisation sonore : réverbération hybride et réponses impulsionnelles spatialisées (SRIR), analyse-synthèse de SRIR, synthèse de champs sonores par réseaux à haute densité spatiale, systèmes WFS et HOA, écoute binaurale, spatialisation distribuée, réalité augmentée
  • Fondements cognitifs : Intégration multisensorielle et émotion, musique et plasticité cérébrale, perception de la distance en réalité augmentée
  • Création / Médiation : Auralisation de salle, composition urbaine et paysagère, synthèse de la directivité.

Axe Son-Musique-Santé

Cet axe transversal Son-Musique & Santé regroupe les recherches liées au bien-être et à la santé, effectuées dans le cadre du laboratoire STMS.

Synthèse de la directivité par corpus

La résidence artistique d’Aaron Einbond s’intéresse à la cohabitation entre sons instrumentaux et sons de synthèse dans un espace de diffusion.

Composition urbaine et paysagère

Logiciels liés

Logiciel

Spat Revolution

La révolution de l’audio immersif, offrant aux artistes, sound designers et ingénieurs du son des possibilités quasi illimitées pour concevoir, créer et mixer une expérience immersive exceptionnelle en temps réel.

Logiciel en vente à l'Ircam

Spatialisation

Logiciel

Spat

Spat est une suite logicielle pour la spatialisation des signaux sonores en temps réel, destinée à la création musicale, à la postproduction et aux performances live.

Logiciel gratuit

Spatialisation

Logiciel

Panoramix

Panoramix est une application autonome dédiée au mixage et à la post-production audio spatialisée.

Logiciel dans l'abonnement premium

Design et traitement sonores

Spatialisation

Avec la tutelle de :

IrcamSorbonne UniversitéCNRSMinistère de la Culture