« On veut que les machines soient inhumaines pour être plus fiables… » Jean-Gabriel Ganascia, chercheur en intelligence artificielle et président du comité d’éthique au CNRS, s’amuse du paradoxe. En effet, c’est pour améliorer les interactions entre l’humain et la machine que différents labos cherchent à intégrer dans l’IA des caractéristiques proprement humaines : positives comme la créativité, ou moins flatteuses comme le mensonge, la peur ou la transgression. Jusqu’alors, la machine était programmée pour mimer des composantes de l’intelligence humaine afin de reproduire des processus. L’étape d’après concerne « la théorie de l’esprit », l’un des quatre types d’intelligence artificielle décrits par Arend Hintze, de l’université du Michigan. Le professeur en biologie intégrative et ingénierie informatique affirme que dans le futur, les algorithmes seront capables de comprendre et de hiérarchiser les émotions qui influent sur le comportement humain.
Monitoring du pilote
Cette prise en compte du facteur humain par l’IA intéresse différents secteurs de l’industrie et des services. L’aéronautique par exemple, où l’amélioration des interactions entre un pilote et un système expert peut trouver des applications très concrètes. Informé par un jeu de capteurs recueillant des données sur l’état physiologique et psychique du pilote ‒ tension, rythme cardiaque, saccades de l’œil, stress ‒, un programme peut saisir des émotions et proposer des solutions adaptées. C’est l’objet du programme « Man Machine Teaming », lancé par Thales et Dassault fin 2017, visant à améliorer la relation homme/machine en maintenant en permanence l’humain dans la boucle de décision.
Le repérage des émotions et la mise en place d’échanges entre l’humain et la machine qui prennent en compte ces émotions sont un aspect de l’informatique émotionnelle, étudiée notamment au LIMSI-CNRS. L’imitation de l’émotion par une machine qui va s’adresser à l’humain est un autre aspect de cette branche de l’intelligence artificielle. La « fake empathy », l’empathie simulée, qui va être notamment activée sur des robots comme NAO et PARO, est une application de cette informatique affective. Capable de détecter des intonations de voix ou un sourire sur le visage de son interlocuteur, NAO est un humanoïde qui peut adapter ses réponses aux émotions. Il est utilisé dans certaines maisons de retraite et dans des institutions recevant des enfants autistes. PARO, lui, prend la forme d’un phoque. Développé à l’origine pour assister les patients atteints de la maladie d’Alzheimer, le robot nourri d’informatique émotionnelle est capable de communiquer des émotions telles que la joie, la surprise ou le mécontentement. Joie, peur, colère, les émotions traitées par l’IA restent sommaires au regard de la complexité du psychisme humain, qui, bien souvent, combine des émotions comme la peur et le soulagement. Pour affiner leur perception, les chercheurs multiplient les façons d’informer un algorithme. En conjuguant par exemple des informations issues de capteurs qui vont saisir des signes dont l’interprétation n’est pas toujours simple et des informations issues de descriptions comportementales, de « gabarits psychologiques ».
Une IA morale
Le chemin est long avant de pouvoir prétendre mettre en équation les subtilités humaines. « Les machines sont à des années-lumière de capturer nos affects, affirmait en août 2018 Laurence Devillers, chercheuse au LIMSI, il y a une complexité de mélanges d’émotions dans la vraie vie. Nous sommes rarement dans une colère furieuse, dans une tristesse extrême ou dans une joie délirante, mais souvent dans un mélange de peur et de soulagement, d’amusement et de colère. Cela parce que le contexte joue énormément. »
Après avoir mimé les mécanismes cognitifs, puis modestement commencé à intégrer des éléments affectifs, l’IA devra-t-elle un jour accéder à la conscience et se doter de valeurs morales ? Des chercheurs américains caressent cette idée, signale Jean-Gabriel Ganascia qui ne partage pas cette vision : « les valeurs morales sont d’ordre prescriptif et non descriptif ; elles ne procèdent pas de l’expérience ». Sans aller jusqu’à tenter de donner une conscience aux algorithmes, en évoquant les robots thérapeutiques utilisés auprès des malades, Laurence Devillers se dit « convaincue que nos machines devront avoir demain une dimension « morale » ».