● Le dispositif de neurotechnologie utilise des microélectrodes implantées dans le cortex moteur et un algorithme de machine learning pour traduire l’activité neuronale.
● Les tests ont permis de décoder des phrases entières avec un vocabulaire de 125.000 mots, mais le taux d’erreur reste élevé (26% à 54%).
Sera-t-il un jour possible de rendre la parole à ceux qui l’ont perdue ou de la donner à ceux qui n’ont jamais pu s’exprimer ? Une équipe de recherche de Stanford Medicine spécialisée en neurotechnologies a réalisé une étude avec une interface cerveau-ordinateur (Brain Computer Interface, BCI) qui détecte le « langage interne » des patients souffrant de troubles de la parole pour le retranscrire. « Le langage intérieur semble être une version plus faiblement modulée des tentatives de langage bien que les deux puissent être distingués à l’aide d’une dimension neuronale dite “intention motrice” », précisent les chercheurs. Plus récemment, une équipe de la Columbia University School of Engineering and Applied Science a développé un nouveau BCI à base de silicium capable de créer une liaison mini-invasive à haut débit avec le cerveau pour traiter les troubles neurologiques.
Reconnaître les phonèmes dans la pensée
Concrètement, ce BCI utilise de minuscules réseaux de microélectrodes implantés chirurgicalement à la surface du cerveau, et enregistre directement les schémas d’activité neuronale. Ces signaux sont ensuite transmis par câble à un algorithme informatique qui les traduit en actions telles que la parole ou le mouvement du curseur d’un ordinateur. Dans le cas présent, le langage est capté directement à partir de l’activité neuronale du cortex moteur. Grâce au machine learning, l’algorithme est capable de reconnaître les schémas neuronaux associés à chaque phonème. Ainsi, ce dispositif permet de restaurer la communication tout en étant bien moins fatigant que les autres dispositifs comme ceux utilisés pour les patients atteints de la maladie de Charcot (sclérose latérale amyotrophique). « C’est comme si le cerveau préparait le mouvement sans franchir le seuil nécessaire pour l’exécuter » notent les chercheurs. En analysant ces signaux, les scientifiques ont réussi à décoder des phrases entières en temps réel, avec un vocabulaire allant jusqu’à 125.000 mots. L’un des patients a pu faire afficher à l’écran des phrases comme « We don’t have a real strict budget » simplement en les pensant. Couplé à un synthétiseur vocal, le système les a énoncées à voix haute. Pour l’heure, il reste perfectible : le taux d’erreur varie de 26% à 54% selon les patients, mais reste inférieur aux autres méthodes qui sont basées sur les tentatives de prise de parole.
En analysant ces signaux, les scientifiques ont réussi à décoder des phrases entières en temps réel, avec un vocabulaire allant jusqu’à 125.000 mots
Une amélioration des dispositifs grâce au machine learning
Depuis plusieurs années, les neuroprothèses vocales permettent aux personnes atteintes de la SLA ou de lésions médullaires de communiquer en décodant les signaux cérébraux associés à des tentatives de parole, c’est-à-dire des mouvements des lèvres ou de la langue, même imperceptibles. « Comparé à la parole tentée, le BCI de parole interne exigeait moins d’efforts, offrait un meilleur confort et contournait les contraintes physiologiques (par exemple, le contrôle de la respiration) qui ralentissent la parole tentée chez les personnes paralysées », indiquent les chercheurs de Stanford. « Ces recherches sont très prometteuses et nécessitent pour le moment une période d’apprentissage très longue pour le patient avec un coût prohibitif. Le frein majeur pour son acceptation est les électrodes invasives. Mais vu l’évolution des BCI ces dernières années et l’augmentation des traitements de calcul en machine learning, je ne serais pas étonné que la techno évolue relativement rapidement pour peut-être avoir un jour des électrodes non-invasives », explique Foued Bouchnak, chef de projet innovation chez Orange.
Un défi éthique : protéger la vie privée mentale
Le système pose toutefois un risque éthique majeur : il est capable de décoder involontairement des pensées privées, car des tâches comme le comptage ou la mémorisation de séquences activent spontanément la parole intérieure. Pour y remédier, les chercheurs ont développé deux solutions. La première est l’intégration d’un mot-clé pour activer ou désactiver le décodeur (ex. « ChittyChittyBangBang »), qui fonctionne avec une précision de 98,75 %. La seconde est un entraînement des patients « anti-parole intérieure » : le système apprend à ignorer les signaux liés à la pensée silencieuse en les labellisant comme privés. Il n’en reste pas moins que, quel que soit l’état de l’art en la matière, il est urgent d’encadrer les neurotechnologies.
Sources :
Inner speech in motor cortex and implications for speech neuroprostheses (en anglais)







