Ircam http://www.ircam.fr Actualités de l'Ircam http://www.ircam.fr/fileadmin/sites/WWW_Ircam/ircam_logo_bw.gif Ircam http://www.ircam.fr fr <![CDATA[Abonnez-vous à notre newsletter]]> C'est gratuit, c'est tous les mois et c'est le meilleur moyen d'être au courant de l'actualité de l'Ircam.

]]>
Wed, 04 Mar 2015 13:02:00 +0100 webmaster@ircam.fr
<![CDATA[Soutenance de thèse de Jules Françoise]]> "Motion-Sound Mapping by Demonstration". Mercredi 18 mars à 14h30

Jules Françoise soutiendra en anglais sa thèse de doctorat, réalisée à l'Ircam au sein de l'équipe Interaction Son Musique Mouvement.

Jury

Frédéric Bevilacqua, Directeur de thèse, IrcamThierry Artières, Directeur de thèse, professeur à l'UPMC et Université d'Aix Marseille)Thierry Dutoit, Rapporteur, Professeur à l'Université de MonsMarcelo Wanderley, Rapporteur, Professeur à l'Université McGill, MontréalCatherine Achard, Examinatrice, Maître de Conférences à l'UPMC (ISIR)Olivier Chapuis, Examinateur, Chargé de recherche à l'Université Paris-Sud, OrsayRebecca Fiebrink, Examinatrice, Lecturer at Goldsmith University of LondonSergi Jordà, Examinateur, Professeur à l'Université Pompeu Fabra, Barcelona

Résumé "Apprentissage des Relations entre Mouvement et Son par Démonstration"

Le design du mapping (ou couplage) entre mouvement et son est essentiel à la création de systèmes interactifs sonores et musicaux. Cette thèse propose une approche appelée mapping par démonstration qui permet aux utilisateurs de créer des interactions entre mouvement et son par des exemples de gestes effectués pendant l'écoute. L'approche s'appuie sur des études existantes en perception et cognition sonore, et vise à intégrer de manière plus cohérente la boucle action-perception dans le design d'interaction. Le mapping par démonstration est un cadre conceptuel et technique pour la création d'interactions sonores à partir de démonstrations d'associations entre mouvement et son. L'approche utilise l'apprentissage automatique interactif pour construire le mapping à partir de démonstrations de l'utilisateur.

En s'appuyant sur des travaux récents en animation, en traitement de la parole et en robotique, nous nous proposons d'exploiter la nature générative des modèles probabilistes, de la reconnaissance de geste continue à la génération de paramètres sonores. Nous avons étudié plusieurs modèles probabilistes, à la fois des modèles instantanés (Modèles de Mélanges Gaussiens) et temporels (Modèles de Markov Cachés) pour la reconnaissance, la régression, et la génération de paramètres sonores. Nous avons adopté une perspective d'apprentissage automatique interactif, avec un intérêt particulier pour l'apprentissage à partir d'un nombre restreint d'exemples et l'inférence en temps réel. Les modèles représentent soit uniquement le mouvement, soit intègrent une représentation conjointe des processus gestuels et sonores, et permettent alors de générer les trajectoires de paramètres sonores continûment depuis le mouvement.

Nous avons exploré un ensemble d'applications en pratique du mouvement et danse, en design d'interaction sonore, et en musique. Nous proposons deux approches pour l'analyse du mouvement, basées respectivement sur les modèles de Markov cachés et sur la régression par modèles de Markov. Nous montrons, au travers d'un cas d'étude en Tai Chi, que les modèles permettent de caractériser des séquences de mouvements entre plusieurs performances et différents participants. Nous avons développé deux systèmes génériques pour la sonification du mouvement. Le premier système permet à des utilisateurs novices de personnaliser des stratégies de contrôle gestuel de textures sonores, et se base sur la régression par mélange de Gaussiennes. Le second système permet d'associer des vocalisations à des mouvements continus. Les deux systèmes ont donné lieu à des installations publiques, et nous avons commencé à étudier leur application à la sonification du mouvement pour supporter l'apprentissage moteur.

  • Date : mercredi 18 mars, 14h30
  • Lieu : Ircam, salle Stravinsky
  • Entrée libre dans la limite des places disponibles
]]>
Wed, 04 Mar 2015 00:00:00 +0100 webmaster@ircam.fr
<![CDATA[Séminaire Recherche et création]]> Trois séances dédiées à la présentation de projets de résidence en recherche artistique. Les 9, 16 et 23 mars

Séances Mars 2015 Lundi 9 mars

José Miguel Fernandez. Séminaire de sortie de résidence recherche artistique au sein de l'équipe MuTant (projet INEDIT) : "Étude de l'écriture de l'interaction et synchronisation en musiques mixtes".

Lundi 16 mars

Geof Holbrook présente son projet de résidence recherche artistique au sein de l'équipe Représentations musicales : "Toward a GA-oriented composition environment".

Lundi 23 mars

Juan Arroyo présente son projet de résidence de recherche artistique au sein de l'équipe Acoustique intrumentale. "Autour de l'écriture d'un quatuor à cordes hybrides".

  • Lieu : Ircam, salle Stravinsky, 12h-13h
  • Entrée libre dans la limite des places disponibles
  • Contact : paola.palumbo(at)ircam.fr
]]>
Mon, 23 Feb 2015 00:00:00 +0100 webmaster@ircam.fr
<![CDATA[Revue de web]]> Suivez l'actualité de l'Ircam dans les médias

]]>
Thu, 19 Feb 2015 00:00:00 +0100 webmaster@ircam.fr
<![CDATA[International Web Audio Conference]]> Comprendre les enjeux pour les technologies audio et la recherche musicale du navigateur web. Les conférences sont en ligne !

]]>
Tue, 10 Feb 2015 00:00:00 +0100 webmaster@ircam.fr