• Une étude démontre que les modèles de réseaux de neurones issus du machine learning présentent une organisation interne similaire à celle du cortex auditif humain.
• Les modèles sont entraînés à discerner différents sons dans un même environnement, ouvrant la voie à une meilleure représentation de l’espace auditif cérébral. Ils pourraient également aider à s’exprimer des personnes ayant du mal à le faire.
Des réseaux de neurones qui imitent la structure et le fonctionnement du système auditif humain pourraient permettre de concevoir de meilleurs appareils auditifs, implants cochléaires et interfaces cerveau-machine. La raison est simple et surprenante : les modèles informatiques entraînés aujourd’hui à effectuer des tâches auditives présentent une organisation interne similaire à celle du cortex auditif humain. C’est le résultat d’une étude, publiée dans PLOS Biology, des fonctionnements de différents réseaux de neurones profonds d’analyse auditive, comme cela a déjà été fait pour le fonctionnement de la vue. « On cherche à savoir si les réseaux de neurones artificiels se comportent de la même manière que ceux du cerveau humain, voire s’ils peuvent prédire des réponses similaires à celles du cerveau », explique Greta Tuckute, doctorante au département des sciences du cerveau et de la cognition du MIT. L’étude évalue les modèles et les compare au fonctionnement du cerveau afin d’apporter de nouvelles perspectives pour rendre ces modèles plus représentatifs de l’espace auditif cérébral.
L’objectif est que, si ces modèles sont un jour incorporés dans une neurotechnologie, cette dernière soit capable de retranscrire ce qu’il se passe dans l’environnement sonore
Des modèles capables de discerner différents sons dans le même environnement
« L’objectif est de construire des modèles à grande échelle pour saisir le comportement humain et les réponses du cerveau afin que, si ces modèles sont un jour incorporés dans une neurotechnologie, cette dernière soit capable de retranscrire ce qu’il se passe dans l’environnement sonore », explique Jenelle Feather, chercheuse au Centre de neurosciences computationnelles de l’Institut Flatiron (New York). En somme, l’idée générale est de comprendre comment un réseau de neurones est capable de classifier et discerner tous les sons « entendus » dans un même temps et présents dans un environnement sonore ; de déterminer, par exemple, si un modèle informatique est capable de reconnaître et discerner un oiseau en même temps qu’une voiture qui passe et qu’une personne s’exprime. « Ce qui est intéressant dans notre étude, c’est que nous testons un large éventail de modèles et que nous constatons que certains sont plus efficaces que d’autres pour prédire les réponses du cerveau. »
Pour obtenir ces résultats, l’équipe de recherche a comparé les réponses du cerveau des sons naturels différents grâce à l’imagerie par résonance magnétique fonctionnelle (IRMf) et a réalisé des analyses comparatives sur des réseaux des neurones artificiels. Grâce à différentes méthodes, les représentations modélisées d’un réseau neuronal qui analyse des sons peuvent être aujourd’hui comparées aux schémas d’activation d’un cerveau. Concrètement, les auteurs de l’étude ont mesuré les réponses des unités internes des réseaux neuronaux artificiels pendant qu’ils « écoutaient » un sous-ensemble des 165 sons. Les chercheurs ont ensuite ajusté un simple pour prédire comment le cerveau réagirait au même ensemble de sons. Enfin, ils ont évalué la précision du modèle pour prédire les réponses du cerveau avec une autre série de sons. Les modèles dont les représentations sont les plus proches de celles observées dans le cerveau sont ceux qui ont été entraînés à plus d’une tâche et qui ont ensuite été entraînés sur une entrée auditive comprenant un bruit de fond.
Des perspectives pour assister les personnes en situation de handicap
Les similarités des modèles artificiels et biologiques pourraient permettre de comparer un modèle informatique du cerveau aux réseaux neuronaux. « Si nous disposions d’un modèle précis des réponses cérébrales, nous pourrions potentiellement stimuler les réponses cérébrales auditives de manière à mieux coder l’environnement auditif. Cela pourrait fournir à une personne en situation de handicap des informations sur les sons environnants. » Ces modèles précis de fonction cérébrale pourraient également aider des patients atteints du syndrome d’enfermement, qui sont incapables de parler, mais dont le cerveau est très actif. « Il s’agit de décoder les réponses du cerveau pour appréhender leurs discours intentionnels et leurs réactions à une conversation, par exemple. » Les dispositifs médicaux de neurotechnologies constituent un champ de recherche prometteur ; d’autres équipes s’attellent à des travaux complémentaires, pour contrôler certaines zones du cerveau et en améliorer la stimulation.
En apprentissage automatique, la régression est une technique utilisée pour identifier les relations entre les variables indépendantes et dépendantes, dans le but principal de prédire un résultat. Elle implique l’entraînement d’un ensemble d’algorithmes pour révéler les modèles qui caractérisent la distribution de chaque point de données. Une fois les schémas identifiés, le modèle peut faire des prédictions précises pour de nouveaux points de données ou valeurs d’entrée.