Interactions musicales improvisées - OMax & co

Développement de situations d’interactions musicales improvisées humains/ordinateur

Ce projet concerne le développement de situations d’interactions musicales improvisées humains/ordinateur. Un nouveau paradigme d’interaction a été inventé par l’équipe et s’est largement diffusé, porté par le logiciel OMax.

Utilisant des techniques issues de l’apprentissage automatique (Machine Learning) et des langages formels, OMax apprend ses connaissances de manière non supervisée à partir d’un flux MIDI ou audio, produit par le musicien. Le processus sous-jacent à cette interaction peut être nommé « réinjection stylistique ». Le musicien est informé en continu par plusieurs sources formant un feed-back complexe. Il s’écoute jouer, il écoute les autres dans le présent, tout en mémorisant des images sonores qui dérivent ainsi du présent vers le passé. De la mémoire à moyen et à long terme, ces motifs, combinés à des images encore plus anciennes (répertoire, culture musicale), peuvent revenir au présent en ayant subi plusieurs transformations, dont une des plus communes en improvisation est la recombinaison formelle. OMax modélise ce processus mémoriel lui-même et permet de le « réifier » donc de le donner à entendre sur scène. Il réinjecte alors des figures musicales issues de la mémoire à court et long terme sous forme de reconstruction à la fois semblable et innovante, il fournit ainsi au musicien des stimuli à la fois familiers et provocants.

Ce projet a donné lieu à deux nouvelles recherches, SoMax qui explore la réactivité immédiate de l’agent artificiel à son environnement sonore, et Improtek (avec l’EHESS) qui explore la notion d’improvisation guidée dans le cadre d’un scénario convenu (e.g. grille harmonique). Le projet ANR DyCI2 a pour vocation d’étudier la synthèse de ces approches avec des techniques innovantes d’écoute artificielle.

Équipe Ircam : Représentations musicales.

  • logo Ircam