Santé

Comment le cerveau décode musique et parole

ActualitéClassé sous :cerveau , aire du langage , langage

Reconnaître une mélodie ou comprendre une phrase n'active pas les mêmes zones du cerveau, les deux hémisphères ne sont pas mobilisés de la même façon, ce que les chercheurs savaient déjà. Cependant, cette spécialisation asymétrique n'était pas expliquée au niveau physiologique et neuronal.  

Le son est issu d'un ensemble complexe de vibrations de l'air qui, lorsqu'elles arrivent dans l’oreille interne au niveau de la cochlée, y sont discriminées en fonction de leur vitesse : à chaque instant, les vibrations lentes sont traduites en sons graves et les vibrations rapides en sons aigus. Cela permet de représenter le son selon deux dimensions : la dimension spectrale (fréquence) et la dimension temporelle (temps). Ces deux dimensions auditives sont fondamentales car c'est leur combinaison en simultané qui stimule les neurones du cortex auditif. Ces derniers permettraient notamment de discriminer les sons pertinents pour l'individu, tels que les sons utilisés pour la communication qui permettent l'échange et la compréhension entre individus.

Le langage et la musique constituent chez l'humain les principales utilisations du son et les plus complexes au niveau cognitif. L'hémisphère gauche est principalement impliqué dans la reconnaissance du langage, tandis que l'hémisphère droit est principalement impliqué dans celle de la musique. Cependant, le fondement physiologique et neuronal de cette asymétrie était encore méconnu.

Une équipe de recherche codirigée par le chercheur Inserm Benjamin Morillon à l'Institut de neurosciences des systèmes (Inserm/Aix-Marseille Université), en collaboration avec des chercheurs de l'Institut-Hôpital neurologique de Montréal de l'Université McGill, a utilisé une approche innovante pour comprendre comment le langage et la musique sont décodés au sein de chaque hémisphère cérébral chez l'humain. Ces résultats à paraître dans Science.

Extrait original de chant a capella (en bas à gauche) et son spectrogramme (au-dessus, en bleu) décomposé en fonction de la quantité d’informations spectrales et temporelles (au centre). Les cortex auditifs droit et gauche du cerveau (côté droit de la figure) décodent respectivement la mélodie et la parole. © Inserm

Des réceptivités différentes aux composantes du son

Les chercheurs ont enregistré 10 phrases chantées chacune par une soprane sur 10 airs mélodiques inédits composés pour l'occasion. Ces 100 enregistrements, dans lesquels mélodie et parole sont dissociées, ont ensuite été déformés en diminuant la quantité d'information présente dans chaque dimension du son. Il a été demandé à 49 participants d'écouter ces enregistrements déformés par paire, et de déterminer s'ils étaient identiques au niveau de la mélodie ou au niveau du texte. L'expérience a été menée en français et en anglais, afin d'observer si les résultats étaient reproductibles dans des langues différentes. En cliquant sur ce lien, une démonstration du test audio proposé aux participants est disponible.

L'équipe de recherche a constaté que, quelle que soit la langue, lorsque l'information temporelle était déformée les participants étaient capables de reconnaître la mélodie, mais avaient des difficultés à identifier le contenu du texte. À l'inverse, lorsque l'information spectrale était déformée, ils étaient capables de reconnaître le texte mais avaient du mal à reconnaître la mélodie.

L'observation par imagerie par résonance fonctionnelle (IRMf) de l'activité neuronale des participants a montré que, dans le cortex auditif gauche, l'activité variait en fonction de la phrase présentée mais restait relativement stable d'une mélodie à l'autre, tandis que dans le cortex auditif droit, l'activité variait en fonction de la mélodie présentée mais restait relativement stable d'une phrase à l'autre.

La spécialisation de chaque hémisphère cérébral

De plus, lorsque l'information temporelle était dégradée, seule l'activité neuronale du cortex auditif gauche était affectée, tandis que la dégradation de l'information spectrale affectait uniquement l'activité du cortex auditif droit. Enfin, les performances des participants dans la tâche de reconnaissance pouvaient être prédites seulement en observant l'activité neuronale de ces deux aires.

« Ces résultats indiquent que, dans chaque hémisphère cérébral, l'activité neuronale est dépendante du type d'information sonore, précise Benjamin Morillon. Si l'information temporelle est secondaire pour reconnaître une mélodie, elle est au contraire primordiale à la bonne reconnaissance du langage. Inversement, si l'information spectrale est secondaire pour reconnaître le langage, elle est primordiale pour reconnaître une mélodie. »

Les neurones du cortex auditif gauche seraient ainsi principalement réceptifs au langage grâce à leur meilleure capacité à traiter l'information temporelle, tandis que ceux du cortex auditif droit seraient, eux, réceptifs à la musique grâce à leur meilleure capacité à traiter l'information spectrale.  « La spécialisation hémisphérique pourrait être le moyen pour le système nerveux d'optimiser le traitement respectif des deux signaux sonores de communication que sont la parole et la musique », conclut Benjamin Morillon.

Cela vous intéressera aussi

[EN VIDÉO] « Le Cerveau des enfants, un potentiel infini ? » : le cerveau se développe lentement  Le documentaire Le Cerveau des enfants, un potentiel infini ? de Stéphanie Brillant, diffusé par Jupiter Films et qui sort en France le 23 mai, interroge des psychothérapeutes et des neurophysiologistes, tous nord-américains, sur le développement du cerveau de la naissance à l'âge adulte. Ces spécialistes en tirent des conseils destinés aux parents et aux éducateurs. 

Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour. Toutes nos lettres d’information

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !