OMax

OMax combine l'interaction en temps réel de type Max avec les représentations musicales de haut niveau de type OpenMusic pour créer un « clone » à partir du jeu vivant d'un musicien. Utilisant des techniques issues de l'apprentissage automatique (Machine Learning) et des langages formels, OMax apprend de manière non-supervisée à partir d'un flux Midi, ou même d'un flux audio, produit par le musicien.

Le processus sous-jacent à cette interaction peut être nommé « réinjection stylistique ». Le musicien est informé en continu par plusieurs sources formant un feed-back complexe. Il s'écoute jouer, il écoute les autres dans le présent, tout en mémorisant des images sonores qui dérivent ainsi du présent vers le passé. De la mémoire à moyen et à long terme, ces motifs, combinés à des images encore plus anciennes (répertoire, apprentissage), peuvent revenir en ayant subi plusieurs transformations, dont une des plus communes en improvisation est la recombinaison.

D'une certaine manière, OMax modélise un tel processus mémoriel et permet de le « réifier » donc de le donner à entendre. Il réinjecte alors des figures musicales issues du passé (immédiat ou à long terme) de la performance sous forme de reconstruction à la fois semblable et innovante, et fournit au musicien des stimuli à la fois familiers et provocants.

Les improvisateurs de bon niveau réagissent en général à leur « clone » d'une manière créative et, l'expérience le confirme, avec un intérêt tout particulier pour un « sujet musical » qui les stimule tout en bouleversant leurs habitudes de jeu en les poussant à s'adapter à une situation inédite.

Des improvisateurs de premier plan (dont Bernard Lubat et Mike Garson, élèves de Bill Evans) ont expertisé OMax et fourni un retour précieux qui a permis de fixer les heuristiques nécessaires au delà du modèle formel. Ces sessions sont visibles pour certaines sur le site repmus.ircam.fr/omax/home

Techniquement parlant, un composant Max « écoute  » le musicien, extrait des descripteurs de haut niveau, segmente les événements, et fournit en flux continu ces informations à un composant OpenMusic. Ce dernier construit incrémentalement le modèle, tout en générant continûment des « improvisations » grâce à une architecture concurrente. Une interface de pilotage permet de régler la navigation dans la mémoire de la session, du passé immédiat au passé éloigné voire, si l'on utilise des modèles archivés, à un passé collectif impliquant d'autres situations et d'autres musiciens : cette utilisation donne alors naissance à des phénomènes d'hybridation.

Collaborations : EHESS, UCSD (San Diego, États-Unis), Cnsmdp

Participants

Équipes Ircam : Représentations musicales
Retour
L M M J V S D
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          
             
Mois précédentJour précédentJour suivantMois suivant

Portail de la musique contemporainePortail de la musique contemporainefermer

Veuillez installer Flash pour afficher ce lecteur.