Recherche
Actualité

Comment faire bonne impression en disant bonjour ?

Un bonjour optimal, ça s'entend et maintenant ça se voit

Jean-Julien Aucouturier, chercheur CNRS au sein de l'équipe Perception et design sonores à l'Ircam (STMS - CNRS/Ircam/Ministère de la Culture/Sorbonne Université), Emmanuel Ponsot, chercheur à l'ENS au sein du Laboratoire des systèmes perceptifs (CNRS/ ENS Paris) et Pascal Belin, chercheur à l'Institut de neurosciences de la Timone (CNRS/Aix-Marseille université) ont établi une méthodologie expérimentale leur permettant de révéler avec quel « filtre » (ou représentation mentale) nous jugeons la personnalité de quelqu'un à l'écoute d'un mot aussi simple que « bonjour ». Quelle intonation est optimale pour donner l'impression d'être déterminé ou digne de confiance ? Cette méthode, déjà utilisée par les chercheurs à des fins cliniques notamment auprès de personnes ayant subi un AVC, ouvre désormais un grand nombre de pistes dans la perception du langage. Ces résultats sont publiés dans la revue PNAS le 26 mars 2018.

Lorsqu'un inconnu vous dit « bonjour », vous paraît-il amical ou au contraire hostile ? L'intonation vocale est à la base des jugements linguistiques et sociaux dans le discours. De la même façon que nous avons une image mentale d'une pomme (ronde, verte ou rouge, avec une queue…), nous possédons également des représentations mentales de la personnalité de quelqu'un à partir des paramètres acoustiques de sa voix. Pour la première fois, des chercheurs sont parvenus à visualiser ces représentations mentales et à les comparer entre individus.


Pour cela, les scientifiques ont mis au point une technique informatique de manipulation de la voix : le logiciel CLEESE. À partir de l'enregistrement d'un seul mot, ils génèrent aléatoirement des milliers d'autres prononciations du même mot ayant toutes une mélodie différente tout en gardant un ton réaliste (une sorte de maquillage sonore). En analysant les réponses des participants à ces enregistrements manipulés, les chercheurs ont caractérisé expérimentalement l'intonation du « bonjour » sincère. Par exemple, pour paraître déterminé le mot doit être prononcé avec une hauteur descendante, plus marquée sur la deuxième syllabe (voix dominantes*). Au contraire, pour être perçu comme digne de confiance, la hauteur doit monter rapidement à la fin du mot (voix digne de confiance*). Les chercheurs sont donc désormais capables de visualiser le « code » utilisé par les gens pour juger de la voix d'autrui, et ont montré que ce code est partagé par les hommes comme par les femmes et est indépendant du sexe de la voix écoutée.

Cette méthode peut s'appliquer à un grand nombre de questions dans le champ de la perception du langage. Comment ces résultats s'étendent-ils à une phrase entière ? Les représentations mentales dépendent-elles de la langue parlée ? Elle pourrait aussi s'appliquer à identifier la représentation des émotions notamment auprès de personnes souffrant d'autisme. Afin de répondre à ces questions, les chercheurs mettent leur logiciel CLEESE à la disposition de tous. Pour sa part, l'équipe de recherche à l'origine de l'étude présentée ici, l'utilise déjà à des fins cliniques, notamment pour analyser la perception des mots auprès de personnes victimes d'un AVC, une pathologie qui peut altérer la perception de l'intonation de la voix. Que ce soit à des fins de suivi thérapeutique ou encore de diagnostic, ils souhaiteraient l'utiliser pour la détection d'anomalies de la perception du langage et peut-être même en faire un outil d'aide à la rééducation.

Image : Méthodologie utilisée pour accéder aux « représentations mentales » de l'intonation dans la voix. Les participants jugent l'intonation d'un grand nombre de « bonjours » générés algorithmiquement et déterminent celui qui leur paraît « digne de confiance » par exemple. L'analyse de milliers de réponses permet de visualiser les représentations mentales auditives de chaque individu. © CNRS/ENS/AMU

Communiqué de presse national du CNRS / 26 mars 2018
https://www.cnrs.fr/


Biographie

person

Jean-Julien Aucouturier

Chercheur CNRS au sein de l’équipe Perception et design sonores, Jean-Julien Aucouturier a étudié l’informatique et occupé plusieurs postes en neuroscience cognitive (RIKEN Brain Science Institute de Tokyo, univers…