● Des architectures de puces basées sur des réseaux de neurones, destinées à répondre à des problèmes de latence et de consommation énergétique relatives aux besoins de l’IA, font l’objet de nombreuses études.
● L’objectif est de créer des systèmes embarqués autonomes n’ayant plus besoin de communiquer avec des serveurs, ce qui permettrait de réduire la consommation énergétique.
● Cette approche de l’informatique suppose d’imbriquer la mémoire avec la puissance de calcul et offre de nouvelles perspectives aux secteurs de l’industrie automobile, de la robotique et de la santé.
Et si des capteurs embarqués autonomes étaient capables de repérer en direct des mouvements sur une image, de les identifier et de reconnaître ce qu’il se produit sur une vidéo, sans avoir à transférer des données ? Ce scénario à la « Minority Report » nécessite une puissance de calcul pharaonique et une consommation d’énergie importante. C’est pourquoi l’informatique neuromorphique s’inspire des réseaux de neurones du cerveau. « Pour l’heure, l’informatique permet de faire ce type de calculs en envoyant les informations à un serveur qui les traite et qui les renvoie au système embarqué, ce qui consomme énormément d’énergie », note Corentin Delacour, doctorant et chercheur au CNRS (LIRMM) sur le projet européen NeurONN, qui vise à développer des architectures de « puces neuromorphiques » basées sur des réseaux de neurones oscillatoires. Face aux limites physiques de la « », l’informatique neuromorphique ouvre alors la voie à des architectures de puces plus puissantes et redoutablement efficaces énergétiquement. Le neuromorphisme s’inspire en effet du fonctionnement des réseaux de neurones biologiques en privilégiant des architectures parallèles, et non séquentielles, c’est-à-dire que plusieurs opérations peuvent être réalisées en même temps, et non à la suite. « Les architectures traditionnelles présentent des limitations en termes d’efficacité énergétique et de communication entre la mémoire et les processeurs », souligne Fabio Pavanello, chercheur en photonique à l’IMEP-LAHC.
Proposer des solutions de calcul embarqué à basse consommation pour des objets connectés dans des secteurs comme ceux de l’automobile, de la robotique, de la santé
« Avec une puce neuromorphique basée sur une technologie photonique, la latence serait limitée à la vitesse de la lumière », explique-t-il. L’idée est de concevoir des puces en intégrant la mémoire directement dans l’unité de calcul, éliminant ainsi la nécessité d’une communication constante entre des blocs distincts, ce qui diminuerait de 10 à 100 fois la consommation énergétique de la puce. « Cette intégration étroite des deux composants essentiels permet des manipulations plus rapides des données et une réduction significative de la latence », ajoute Fabio Pavanello.
Des applications dans tous les secteurs
L’enjeu est donc de développer des architectures sous forme de réseaux de neurones. « Quand la taille d’un problème mathématique augmente, le nombre de possibilités augmente de manière exponentielle, précise Corentin Delacour. Les réseaux de neurones oscillants (ONN) sur lesquels nous travaillons permettent de résoudre des problèmes d’optimisation, c’est-à-dire que les calculs peuvent être réalisés en temps réel. » Des équipes de recherche étudient d’autres architectures, comme les réseaux de neurones à impulsions (SNN). Madeleine Abernot est doctorante et chercheuse au CNRS (LIRMM) : « L’objectif est de proposer des solutions de calcul embarqué à basse consommation pour des objets connectés dans des secteurs comme ceux de l’automobile, de la robotique, de la santé ou encore de l’agriculture. Nous avons, par exemple, développé une preuve de concept sur une puce FGPA avec une start-up baptisée A.I.Mergence, afin de faire de la détection embarquée en computer vision. »
Jean-Baptiste Floderer est expert en ingénierie neuromorphique et fondateur de Neurosonics, une société spécialisée dans l’électronique pour les dispositifs médicaux : « Des start-up comme Prophesee travaillent aujourd’hui sur des caméras neuromorphiques, inspirées du fonctionnement de la rétine humaine. En détectant des changements de pixels à la microseconde, elles sont capables d’effectuer en temps réel des traitements d’image complexes avec un minimum de calcul et donc, d’énergie. Parce qu’elles peuvent imiter les neurones humains, on pourrait aussi imaginer que les puces neuromorphiques permettent de connecter des réseaux neuronaux vivants avec des réseaux neuronaux artificiels, dans un objectif thérapeutique. L’idée serait de stimuler des zones du cerveau ou de la moelle épinière avec une telle précision qu’il serait possible de traiter des maladies neurologiques, voire des paralysies ou des cécités. »
Passage à l’échelle
Intel a développé une puce neuromorphique appelée Loihi 2, basée sur des circuits asynchrones et pouvant apprendre en temps réel grâce à des mécanismes de plasticité synaptique. En d’autres termes, cette puce s’inspire directement du fonctionnement réel des neurones et des synapses, qui en biologie, constitue la zone entre deux neurones et qui assure la transmission d’informations entre celles-ci. Cette nouvelle génération de puces neuromorphiques intègre également des fonctionnalités avancées pour la connectivité neuronale, permettant des interactions plus complexes entre les neurones et une modélisation plus précise du cerveau. Dans l’industrie, des entreprises telles que General Electric et Siemens explorent les possibilités offertes par les puces neuromorphiques pour optimiser les processus de fabrication, en permettant des systèmes autonomes capables d’apprendre et de s’adapter en temps réel aux variations de production. En matière de sécurité, des sociétés comme AnyVision et DeepCam utilisent les puces neuromorphiques pour des tâches de reconnaissance faciale, d’analyse de comportement et de détection d’anomalies.
Exprimée en 1965 par l’ingénieur Gordon E. Moore, un co-fondateur d’Intel, cette « loi » prédit l’évolution de la taille et du prix des microprocesseurs. Elle postule qu’à coût égal, leur complexité double tous les ans. En 1975, Gordon E. Moore précise que c’est le nombre de transistors sur une même surface qui doit doubler tous les deux ans, jusqu’à atteindre l’échelle de taille des atomes à une date estimée alors à 2015.