"La rééducation post-AVC consiste à stimuler la plasticité cérébrale pour permettre au patient de récupérer une partie des capacités motrices perdues.”
Projet Brain Computer Interface (BCI) du centre de recherche Clinatec
“Pour la première fois, un patient tétraplégique a pu se déplacer et contrôler ses deux membres supérieurs grâce à une neuroprothèse qui recueille, transmet et décode en temps réel les signaux cérébraux pour contrôler un exosquelette”, se félicitait en octobre 2019 le Commissariat à l’énergie atomique et aux énergies alternatives (CEA).
Développé au centre de recherche Clinatec, au sein du CEA, BCI est un projet d’interface cerveau-machine visant à permettre aux personnes en situation de handicap moteur sévère de se mouvoir grâce au pilotage mental d’un exosquelette. Une neuroprothèse, implantée au niveau du cortex moteur, recueille les signaux cérébraux émis lors des intentions de mouvements. Ces signaux sont ensuite décodés grâce à un algorithme de machine learning afin de prédire le mouvement volontaire imaginé par le patient et de contrôler l’exosquelette.
Blaise Yvert : “Il y a principalement deux approches concernant les interfaces cerveau-machine. La première approche, non invasive, consiste à mesurer l’activité cérébrale par le biais d’électrodes placées sur le cuir chevelu (EEG). Cela permet à des personnes de contrôler un curseur informatique ou de saisir des lettres sur un écran. L’inconvénient, c’est que c’est relativement lent, qu’il est difficile de contrôler beaucoup de degrés de liberté, et que ça demande en général énormément de concentration de la part du sujet.
Pour avoir quelque chose de plus performant, on utilise des électrodes intracorticales, c’est-à-dire implantées dans le cortex, pour enregistrer l’activité de neurones individuels et prédire le mouvement que veut faire la personne. C’est par exemple le principe du projet BrainGate. L’avantage de cette deuxième méthode, c’est qu’elle est plus précise et rapide, mais elle nécessite d’ouvrir le crâne et la dure-mère, avec les complications médicales que cela peut entraîner.
L’approche choisie par Clinatec est à mi-chemin entre les deux : les électrodes sont implantées sous le crâne mais en surface de la dure-mère. On s’affranchit donc de l’os, peu conducteur, pour obtenir des signaux de meilleure qualité que l’EEG. On reste toutefois au niveau macroscopique, à une certaine distance du cerveau.
Ce qui est intéressant avec l’étude réalisée à Clinatec, c’est que les chercheurs montrent qu’il est possible de contrôler un effecteur avec jusqu’à huit degrés de liberté par le biais de ces électrodes macroscopiques ainsi qu’une transmission sans fil à travers la peau minimisant le risque infectieux. Le contrôle d’autant de degrés de liberté n’avait pour l’instant été réalisé qu’avec des électrodes intracorticales.
Toutefois, les mouvements obtenus restent encore assez approximatifs, et de gros efforts sont à réaliser pour améliorer la précision des enregistrements fournis par ce type d’implants.”
Système de rééducation en réalité virtuelle pour les patients ayant subi un AVC
L’accident vasculaire cérébral (AVC) est la première cause de handicap physique acquis chez l’adulte. Lorsqu’il touche une aire cérébrale impliquée dans la motricité, il peut provoquer une paralysie d’une partie du corps.
La rééducation post-AVC consiste à stimuler la plasticité cérébrale pour permettre au patient de récupérer une partie des capacités motrices perdues. Développé par l’entreprise américaine Penumbra et utilisé au Cooper University Health Care, dans l’État du New Jersey, le REAL Immersive System est un dispositif de réalité virtuelle pour la rééducation des membres supérieurs de patients ayant subi un AVC.
Grâce à une série d’exercices interactifs, il vise à réactiver la neuroplasticité, c’est-à-dire aider le cerveau à se “recâbler” et former de nouvelles connexions neuronales. Le système comprend un casque équipé d’un écran et une série de capteurs placés sur le corps du patient, immergé dans un environnement virtuel. À l’aide d’une tablette, un thérapeute peut choisir parmi une série d’activités qui incitent le patient à bouger ses bras.
Blaise Yvert : “Ici, on demande au sujet d’essayer de bouger les bras de manière ludique, ce qui va le motiver à effectuer davantage de travail qu’avec des systèmes de réhabilitation classiques. Le concept est intéressant, car il se base sur le fait de récompenser par le jeu l’effort fait par le patient de vouloir bouger pour stimuler la plasticité.
Une approche fondée sur ce principe est mise au point à l’École polytechnique fédérale de Lausanne, en Suisse, par l’équipe du professeur Grégoire Courtine. Les chercheurs sont parvenus à redonner à des singes paraplégiques la capacité à marcher grâce à une stimulation ciblée de la moelle épinière délivrée en réponse à une activité cérébrale produite par l’animal quand il veut bouger.
Le fait qu’il y ait une corrélation entre l’intention du mouvement et la réalisation de ce mouvement, même si cela passe au début par un système artificiel, permet d’induire de la plasticité neuronale, de la croissance axonale et de rétablir des connexions entre le cerveau, la moelle épinière et les membres.
Une approche voisine a également donné des résultats prometteurs chez des patients paralysés depuis plusieurs années.”
Le projet Euphonia de Google
Les outils de reconnaissance automatique de la parole soulèvent un paradoxe : ils sont supposés faciliter notre vie quotidienne, mais ils ne sont pas toujours adaptés aux utilisateurs qui en auraient le plus besoin. Ainsi, les personnes souffrant d’un handicap moteur, qui les empêche de s’exprimer de façon “naturelle”, éprouvent des difficultés à se faire comprendre par les assistants vocaux et à interagir avec leurs appareils intelligents, dont la généralisation pourrait constituer un facteur d’exclusion supplémentaire.
Conscient de cet enjeu, Google a lancé le projet Euphonia, qui a pour objectif d’améliorer la capacité des logiciels de reconnaissance vocale à reconnaître des formes de langage non conventionnel à l’aide de réseaux de neurones artificiels.
Blaise Yvert : “La reconnaissance automatique de la parole est fondée sur l’entraînement de réseaux de neurones qui ont besoin d’énormément de données pour apprendre. On utilise donc des bases de données contenant des milliers d’heures d’enregistrements provenant de différents individus.
Cependant, pour comprendre une personne atteinte de troubles dysarthriques forts, le réseau doit être entraîné sur la parole de cette personne. Le problème, c’est que l’on ne peut pas acquérir autant de données de la part d’un seul locuteur.
Les ingénieurs de Google ont donc adapté un réseau de neurones, ayant déjà appris à partir d’un énorme corpus de parole standard, à la parole particulière d’un sujet en le réentraînant pendant un court laps de temps avec un jeu de données beaucoup moins important.
Cela semble fonctionner très bien. Leurs résultats montrent que cette approche réduit considérablement les taux d’erreur de mots produits par le réseau pour cette personne.
Nous essayons de faire un peu la même chose au BrainTech Lab à partir de l’activité cérébrale. Nous avions conçu un synthétiseur vocal capable de transformer les mouvements articulatoires en parole à l’aide d’un réseau de neurones profonds entraîné sur un important corpus.
On essaie maintenant de l’adapter à des patients après avoir converti leurs signaux cérébraux en mouvements articulatoires avec une courte phase de calibration à partir d’une quantité de données assez faible.”