Campus n°141

Quand parler devient une routine

141DO3.JPG

Prononcer une syllabe demande un contrôle moteur d’une
grande finesse. Après des années d’entraînement, cette tâche devient
un automatisme et ne requiert plus autant de ressources cognitives.
Un projet du PRN « Evolving Language » se penche sur cette transition.

On estime que pour maîtriser de manière « experte » un geste moteur, il faut plusieurs milliers d’heures de pratique. Il peut s’agir du mouvement sûr d’un peintre ou d’un pianiste mais aussi un de ceux – plus banals mais non moins exigeants en précision – que l’on utilise pour parler. Les spécialistes ont calculé que durant les dix premières années de sa vie, si on admet qu’il passe l’équivalent d’une heure par jour à causer sans arrêt, un enfant articule en tout environ un million de syllabes. Ce qui correspond à prononcer 2000 fois chacune des 500 syllabes les plus communément utilisées dans la langue française. Conclusion : comme il s’agit d’une valeur moyenne, il est probable qu’il faille plus de dix ans pour que l’opération consistant à émettre les séquences de sons du langage devienne ce qu’on appelle une « routine » motrice et cognitive.
Telle est en tout cas l’hypothèse de travail d’un des deux projets de recherche du Pôle de recherche national Evolving Language que codirige Marina Laganaro, professeure associée à la Section de psychologie (Faculté de psychologie et des sciences de l’éducation).
« Nous aimerions étudier le processus cognitif qui est à l’œuvre lorsque nous parlons, explique-t-elle. Je ne m’intéresse donc pas aux aspects linguistiques du phénomène mais seulement à la planification et à l’exécution des opérations physiques nécessaires à la production de la parole, c’est-à-dire à ce qu’on appelle les gestes de parole. Plus particulièrement, on se demande à partir de quel moment dans l’évolution et dans le développement humain, ces gestes deviennent automatiques. Autrement dit, quand résultent-ils de l’activation de routines stockées dans le cortex plutôt que d’actions motrices élaborées en direct ? »


Du muscle au neurone

Longtemps, les spécialistes du langage ont pensé que l’être humain était, à l’exception de certains oiseaux et quelques exemples chez les mammifères qui se comptent sur les doigts d’une main, la seule espèce capable d’articuler distinctement des séquences de sons intelligibles. En particulier, il leur semblait que les grands singes, nos plus proches cousins du point de vue évolutif, étaient dépourvus de cette faculté.
En réalité, des recherches plus récentes ont montré que ces primates disposent d’une mécanique articulatoire suffisante pour produire les sons que nous utilisons pour parler – ou du moins une partie d’entre eux. Ce qui leur manque, par contre, c’est le contrôle cognitif assez fin des gestes moteurs de la parole. C’est ainsi que le problème s’est déplacé de l’anatomie des articulateurs (mâchoire, langue, larynx, appareil respiratoire…) vers le cerveau.
« Nous n’allons pas investiguer le singe, précise tout de suite Marina Laganaro qui collabore sur ce projet avec Volker Dellwo, professeur associé à l’Institut de linguistique computationnelle de l’Université de Zurich. Le but est d’étudier la production de la parole chez l’enfant, l’adolescent et l’adulte et de mesurer les signaux corrélés dans l’activité cérébrale à l’aide de l’électroencéphalogramme (EEG). »
Produire une syllabe exige la coordination de beaucoup de muscles – il en faut près de 200 en tout pour parler. Articuler des sons intelligibles demande donc un contrôle très fin de ces séquences motrices. Ces dernières sont devenues automatiques à l’âge adulte mais pas encore chez l’enfant de 6 ans, même s’il connaît déjà l’ensemble des sons (phonèmes) et leurs combinaisons (syllabes) les plus communs de sa langue maternelle.
« Nous voulons également comparer la production de syllabes avec celle de séquences qui ne font pas partie du langage parlé (le non-speech) tels que les bruits faits par un bisou, un soupir ou un claquement de langue, explique Marina Laganaro. Ces bruits mobilisent les mêmes articulateurs que les paroles. Leur intérêt dans l’expérience réside dans le fait qu’ils ne font pas appel à des routines aussi entraînées chez les adultes que la parole et demandent un degré plus important de planification. »
Ce domaine n’est pas une nouveauté pour Marina Laganaro. Dans un article paru en avril 2020 dans la revue Brain and Language, le groupe de la chercheuse genevoise a en effet montré, grâce à l’EEG, que la planification motrice des mouvements speech et non speech recrute les mêmes réseaux de neurones mais avec des dynamiques temporelles différentes. De plus, la production de syllabes existantes dans la langue mais utilisées plus rarement recourt à une dynamique de recrutement des réseaux neuronaux intermédiaire entre le speech et le non-speech.
« L’EEG n’est pas très performant pour délimiter spatialement des aires cérébrales actives mais nous fournit des mesures temporelles très précises, note Marina Laganaro. Dans l’expérience que nous sommes en train de mettre sur pied, nous allons nous intéresser aux processus de planification et de programmation de la production de la parole et donc aux instants précédant l’émission du premier son. »
La chercheuse souligne enfin que cette recherche est avant tout fondamentale. Il est cependant possible que certains résultats puissent un jour avoir des retombées sur le traitement de personnes souffrant de dysarthrie ou d’apraxie de la parole, c’est-à-dire de troubles de la production de la parole apparus à la suite d’une lésion cérébrale par exemple.

Aphasie Le deuxième projet que Marina Laganaro codirige au sein du PRN avec Silvia Brem, professeure au Département de psychiatrie de l’enfant et de l’adolescent de l’Université de Zurich, concerne non pas la production de la parole mais le langage, c’est-à-dire cette faculté abstraite qui implique la planification aux divers niveaux linguistiques nécessaires pour parler (la syntaxe, le lexique, la phonologie…). Dans ce volet, la chercheuse genevoise, qui est aussi coresponsable du master en logopédie à l’UNIGE, s’intéressera plus particulièrement à la pathologie de l’aphasie acquise après une lésion cérébrale.
« L’aphasie, c’est la perte du langage chez quelqu’un qui le maîtrisait, explique-t-elle. La personne est capable d’articuler tous les sons de la parole mais souffre de troubles du langage dont le plus fréquent est l’incapacité de trouver des mots. Beaucoup de thérapies tournent autour de ce point. Nous allons tester si les nouvelles technologies, et en particulier la réalité virtuelle, peuvent être des outils efficaces dans le traitement
de l’aphasie, à savoir le réapprentissage ou la récupération de l’accès aux mots. »
Dans un premier temps, l’étude n’enrôlera que des individus sains, représentatifs de la population générale. L’expérience consistera à enseigner aux volontaires des mots qui leur sont inconnus afin de simuler la perte subie par les personnes aphasiques. Aidés là encore par l’EEG, Marina Laganaro et ses collègues compareront le processus d’apprentissage mené dans des conditions de réalité virtuelle et dans celles d’une rééducation logo­pédique classique.
« La réalité virtuelle permet de recréer des situations d’immersion, assure la chercheuse. Nous ne savons pas encore si cela se fera avec un masque sur les yeux ou à l’aide d’un avatar à l’écran. Mais nous avons déjà imaginé des scénarios comme un marché dans lequel on vend des fruits exotiques aux noms inconnus, des magasins d’instruments de musique anciens que plus personne ne connaît, des métiers avec des outils dont on a oublié l’existence, etc. Est-ce que l’apprentissage de nouveaux mots dans ces conditions est équivalent à celui mené dans une structure classique ? Faut-il le même nombre de répétitions (drills) avant que la nouvelle connaissance soit durablement imprimée dans la mémoire ? »

 

 

La stimulation transcrânienne dope l’apprentissage. Pas chez tout le monde


La stimulation de l’activité de certaines régions du cerveau à l’aide d’un champ électrique ou magnétique extérieur n’est pas une technique nouvelle. Elle est utilisée depuis des décennies pour le diagnostic de certaines lésions neurologiques et dans la recherche médicale pour améliorer la récupération de facultés perdues (dont le langage) après un accident cérébral vasculaire, par exemple.
« Le problème, c’est que ces méthodes ne fonctionnent pas avec tous les patients, explique Adrian Guggisberg, professeur associé au Département de neurosciences cliniques (Faculté de médecine). On ignore pourquoi on obtient des progrès avec certains mais pas avec d’autres. On ne sait pas non plus exactement ce qui se passe dans le cerveau lorsqu’on applique ces champs électriques ou magnétiques. Nous observons parfois des résultats paradoxaux qui rendent le processus très difficile à théoriser. En collaboration avec Marina Laganaro, professeure associée à la Section de psychologie (Faculté de psychologie et des sciences de l’éducation), nous avons donc conçu un projet expérimental, au sein du Pôle de recherche national (PRN) Evolving Language, qui devrait nous permettre d’y voir plus clair. »
La stimulation transcrânienne magnétique ne nécessite aucun contact avec la tête du patient. Le dispositif génère un champ magnétique variable assez fort pour induire dans le cerveau des courants ioniques (c’est-à-dire des courants électriques véhiculés par des ions) et activer des réseaux de neurones. En stimulant des zones cérébrales impliquées dans le contrôle moteur, il est ainsi possible de mesurer la réponse des muscles correspondants et de détecter, le cas échéant, la présence d’une pathologie neuromusculaire. Il y a une vingtaine d’années, les chercheurs se sont rendu compte qu’en appliquant des impulsions magnétiques de moindre intensité mais à répétition, on n’active plus de muscles mais on exerce une influence sur l’activité neuronale.
À un rythme d’une impulsion par seconde, on inhibe les neurones qui se situent juste sous le dispositif magnétique. À dix, on les excite. L’application de cette méthode à des fins d’apprentissage (ou de rééducation) est devenue un objectif au long cours avec des résultats toutefois mitigés.
Ni invasive ni dangereuse, la stimulation électrique passe par l’application de deux électrodes (une anode et une cathode) sur le crâne. Le contact électrique est assuré par des éponges trempées dans une solution d’eau salée.
Le dispositif envoie un faible courant continu qui module le potentiel électrique de repos des neurones qu’il traverse. Sous l’anode, l’activité des cellules nerveuses est excitée, sous la cathode, elle est inhibée.
La méthode est utilisée dans des traitements de récupération de certaines facultés perdues après un AVC, dont le langage. Là aussi avec un succès limité.
« Dans un premier temps, nous allons étudier l’impact de la technique de stimulation électrique sur une vingtaine d’individus sains, explique Adrian Guggisberg.
Nous allons mesurer l’activité cérébrale par imagerie médicale en même temps que l’on applique la stimulation transcrânienne.
Les volontaires auront la tâche d’apprendre de nouveaux mots, des mots rares, désignant des objets anciens par exemple, que plus personne ne connaît. L’objectif consiste à mieux comprendre ce qui se passe dans le cerveau et, surtout, à identifier les personnes qui voient leurs performances augmentées. Une telle information nous permettrait, à l’avenir, de prédire quels patients seraient de bons candidats pour un tel traitement. Dans un deuxième temps, nous aimerions utiliser ces résultats sur un groupe de patients aphasiques. »