ACCUEIL > QUESTION D'ACTU > Comment notre cerveau distingue-t-il la musique des paroles?

Expérience sonore

Comment notre cerveau distingue-t-il la musique des paroles?

Par Raphaëlle de Tappie

Des chercheurs ont utilisé une approche innovante pour comprendre comment l’humain arrivait à décoder le langage et la musique au sein de chaque hémisphère cérébral.

AaronAmat/iStock

Le cerveau humain est constitué de façon à discriminer les sons pertinents pour un individu, comme ceux qui permettent les échanges. Ainsi, chez nous le traitement du son se fait surtout au niveau du langage et de la musique. Si nous savons depuis des décennies que l’hémisphère gauche est principalement impliqué dans la reconnaissance du langage, tandis que le droit aide à distinguer la musique, le fondement physiologique de cette distinction reste un mystère. Dans une nouvelle étude parue dans la revue Science, des chercheurs français et canadiens ont utilisé une approche innovante pour comprendre comment l’humain arrivait à décoder le langage et la musique au sein de chaque hémisphère cérébral.

Ici, une équipe de recherche codirigée par le chercheur Benjamin Morillon à l'Institut de neurosciences des systèmes (Inserm/Aix-Marseille université), en collaboration avec des scientifiques de l'Institut-Hôpital neurologique de Montréal de l'université McGill (Canada), ont combiné 10 phrases et 10 mélodies originales et créé un recueil de 100 chansons a capella, soit sans accompagnement instrumental. Ils ont ensuite modifié ces enregistrements en utilisant des distorsions spectrales (fréquence) et temporelles (temps). Ces deux dimensions auditives sont fondamentales car leur combinaisons simultanée stimule les neurones du cortex auditif.

Puis, ils ont invité 49 participants, anglophones et francophones, à écouter les enregistrements déformés par paire et leur ont demandé de déterminer s’ils étaient identiques au niveau de la mélodie ou du texte. Les chercheurs ont ainsi pu constater que, quelle que soit la langue, quand l’information temporelle était déformée, les participants peinaient à distinguer les paroles mais pas la mélodie. A l’inverse, quand l’information spectrale était modifiée, les sujets avaient du mal à distinguer la mélodie mais pas les paroles.

“Optimiser le traitement de deux signaux de communication importants dans le cerveau humain”

Grâce à des scanners du cerveau, les scientifiques ont observé que dans le cortex auditif gauche, l’activité variait en fonction de la phrase écoutée, mais restait relativement stable d’une mélodie à l’autre. En revanche, dans le complexe auditif droit, l’activité variait en fonction de la mélodie mais restait relativement stable d’une phrase à l’autre.

Quand l’information temporelle était abîmée, seule l’activité neuronale du cortex gauche était touchée, tandis que la dégradation de l’activité spectrale affectait seulement l’activité du cortex auditif droit. Ainsi, les neurones du cortex auditif gauche seraient principalement réceptifs au langage car ils arriveraient mieux à traiter l’information temporelle et ceux du droit surtout sensibles à la mélodie grâce à leur meilleure capacité à traiter l'information spectrale. Autre observation intéressante : les performances des participants dans la reconnaissance pouvaient seulement être prédites en observant l’activité neuronale de ces deux aires.

Selon les chercheurs, ces résultats prouvent que le cerveau humain a développé des systèmes neuronaux complémentaires dans chaque hémisphère pour traiter la stimulation auditive. “Cela peut être considéré comme une solution élégante par le système nerveux central pour optimiser le traitement de deux signaux de communication importants dans le cerveau humain, à savoir la parole et la musique, explique le docteur Philippe Albouy, de l'université McGill, premier auteur de l'étude. Nous montrons ici que cette spécialisation hémisphérique est liée aux caractéristiques acoustiques de base qui sont pertinentes pour la parole et la musique, liant ainsi la découverte à la connaissance de base de l'organisation neurale”, poursuit-il.

“Une spéculation intéressante”

Ces résultats indiquent que, dans chaque hémisphère cérébral, l'activité neuronale est dépendante du type d'information sonore. Si l'information temporelle est secondaire pour reconnaître une mélodie, elle est au contraire primordiale à la bonne reconnaissance du langage. Inversement, si l'information spectrale est secondaire pour reconnaître le langage, elle est primordiale pour reconnaître une mélodie, renchérit Benjamin Morillon. La spécialisation hémisphérique pourrait être le moyen pour le système nerveux d'optimiser le traitement respectif des deux signaux sonores de communication que sont la parole et la musique”, développe le chercheur français.

Pour le docteur Philippe Abouy, ces découvertes sont importantes pour comprendre le développement de la musique et de la parole. “Peut-être que nous avons développé la musique parce que nous avons une région du cerveau vraiment bonne pour traiter les fréquences, avance-t-il. Peut-être que nous avons développé la parole parce que nous avons une région du cerveau qui est vraiment douée pour gérer le temps.” 

C'est une spéculation intéressante”, commente le professeur Sarah Wilson, pionnière des neurosciences de la musique à l'université de Melbourne (Australie), en marge de l’étude. Selon elle, il est toutefois difficile de déterminer si ces régions avaient déjà évolué avant ou si elles ont commencé à communiquer avec le son de différentes manières. “C'est un peu de la poule ou de l'œuf”, explique-t-elle.

Un cerveau plus “polyvalent”

Peter Keller, professeur de cognition musicale à l'Institut MARC de l'université de Western Sydney (Australie), a lui aussi accueilli ces travaux favorablement. “Je pense que c'est un développement passionnant. La relation entre la parole, la musique et entre la structure et les fonctions cérébrales intéresse les gens depuis longtemps”, commente le chercheur, cité par ABC Science.

Enfin, pour le psychologue musical australien Bill Thompson, de l'université Macquarie (Australie), en montrant comment les différentes sections du cerveau sont sensibles à la fréquence et au temps, ces recherches soutiennent l’idée d’un cerveau plus “polyvalent”, capable de traiter différents types d'informations dans l'environnement. “Pour que le cerveau développe quelque chose qui est rigidement associé au langage et à la musique, il faudrait une espèce moins flexible, indique-t-il. Cette étude ne concerne toutefois que les premières étapes du traitement de la parole et de la musique”, rappelle-t-il.