Création d’environnements interactifs
Dans le cadre de ses recherches sur les modèles génératifs profonds, les travaux du groupe ACIDS de l'équipe Représentations musicales de l'Ircam s'expriment dans la conception de plusieurs outils de machine learning pour la synthèse musicale et créative. L’objectif est de fournir de nouveaux outils pour modéliser la créativité musicale et étendre les possibilités sonores grâce à des approches d’apprentissage automatique. Dans ce contexte, l’équipe expérimente des modèles d’IA profonde appliqués aux matériaux créatifs, visant à développer l’intelligence créative artificielle. Au cours des dernières années, elle a développé plusieurs objets visant à intégrer ces recherches directement sous forme d'objets temps réel utilisables dans MaxMSP et Ableton Live. Le groupe ACIDS a produit de nombreux prototypes d’instruments innovants et de modèles audio profonds intégrés légers. Les chercheurs et chercheuses proposent notamment les modèles RAVE, AFTER, FlowSynth ainsi que la librairie nn~ pour leur intégration dans MaxMSP et Ableton.
Par ailleurs, les travaux de l’équipe Représentations musicales sur les processus génératifs, notamment récemment dans le cadre du projet de recherche ERC REACH (Raising Co-Creativity in Cyber-Human Musicianship) se concrétisent par la création de logiciels innovants. Ces outils permettent de concevoir des dispositifs interactifs ou d'explorer de nouvelles façons d'interagir avec les compositrices, compositeurs, musiciennes, musiciens, improvisatrices, improvisateurs. Grâce à l’écoute artificielle et à la synchronisation de signaux musicaux, Dicy2 et Somax2 implémentent des agents intelligents capables d’apprentissage(s) à la volée ou en amont, et d’assurer des interactions musicales immédiates ou pré-définies dans des contextes structurés ou improvisés.
En 2024, l’ensemble des stagiaires des formations « Modèles audio génératifs profonds et IA dans Max et Ableton Live » ainsi que « Composer un environnement interactif et préparer une performance avec des agents génératifs » ont atteint totalement ou en grande partie les objectifs pédagogiques avec un taux de satisfaction de 100%.
Témoignages
« La formation d’une semaine sur 'Modèles audio génératifs profonds et IA dans Max et Ableton Live' a été, sans aucun doute, l’une de mes expériences les plus stimulantes sur le plan intellectuel et artistiquement inspirantes à ce jour. La qualité de l’enseignement et des ressources était exemplaire. Je recommande vivement cette formation à d’autres et je reviendrai pour une session future dans d’autres domaines. Merci à Philippe et à toute l’équipe ! ». Mark, musicien, compositeur, maître de conférences et chercheur doctorant. | « L’atelier a été une expérience incroyable – le mélange parfait de créativité, de théorie et d’expertise technique. La diversité des chercheurs et formateurs de l'Ircam, chacun apportant des parcours et des perspectives uniques, l’a rendu exceptionnellement enrichissant. Je me sens désormais encouragé à approfondir mes expérimentations avec machine learning et le son. ». Pedro, Technologue créatif, Modèles audio génératifs profonds et Ia dans Max et Ableton Live |
« Je suis très heureux d'avoir fait cette formation. Jérôme et Mikhail nous ont tout expliqué en détail et nous avons pu profiter des locaux de l'Ircam pour mettre en pratique nos nouvelles connaissances et échanger. Je ne peux que recommander cette formation à tous celles et ceux qui s'intéressent à la production musicale à l'ère numérique et qui souhaitent également l'associer à un instrument acoustique et à une pratique de la musique improvisée, il y a beaucoup à découvrir ! ». Swantje, étudiant, Interagir, composer et improviser avec des agents génératifs | « L’expérience musicale constituait un excellent complément à l’instruction technique. » Bruce, Professeur en composition musicale, Composer un environnement interactif et préparer une performance avec des agents génératifs |