La dualité homme/machine, une illusion à dépasser

Les chercheurs en sciences humaines s’intéressent de plus en plus à l’intelligence artificielle. Aux États-Unis, en particulier, où l’ethnographe Tricia Wang, fondatrice du blog Ethnography Matters, et l’anthropologue Madeleine Clare Elish, spécialiste des systèmes autonomes, évoquent notamment la nécessité de repenser la relation entre humanité et machine.

Nous aurons toujours besoin des humains pour remettre les machines sur la bonne voie.

La vision cauchemardesque de la lentille rouge de HAL 9000, le robot intelligent et despote de Stanley Kubrick, n’a pas fini de nous hanter que, déjà, les prophètes du transhumanisme popularisé par Ray Kurzweil et ses disciples nous plongent dans des effrois existentiels inédits.

La célèbre victoire de Deep Mind au jeu de Go en 2016 et la prolifération de véhicules et drones autonomes ne sont-ils d’ailleurs pas le signe que nous sommes progressivement, mais sûrement, en train de transférer le contrôle de notre société humaine à des machines ?

Cette analyse a au moins une faille, et elle est majeure : elle présuppose une dualité humains/machines où le big data donne nécessairement aux machines (via l’intelligence artificielle) l’avantage sur les humains. Or nous avons toujours vécu en symbiose avec nos outils : depuis la première pierre de silex façonnée en outil tranchant, nous les avons créés et avons été influencés par eux.

C’est ce que l’ethnographe américaine Tricia Wang, fondatrice et animatrice du blog Ethnography Matters, appelle « le système en réseau de la collaboration entre humains et machines ». En réalité, l’humain modèle et continuera à modeler la machine, qu’il le veuille ou non, souligne-t-elle : même les algorithmes sont biaisés puisqu’ils sont conçus par des humains.

Effets miroir

Or c’est en refusant de reconnaître cette relation symbiotique, donc le rôle, et, ultimement, la responsabilité humaine, dans le développement de la machine intelligente, que les humains ouvrent la porte aux risques de cauchemar artificiel évoqués plus haut.

Au contraire, souligne Tricia Wang, accepter, étudier, comprendre et prendre acte de cette symbiose est indispensable si l’on souhaite que la croissance exponentielle des données et de la performance informatique profite à la communauté humaine de manière bénéfique et significative.

Genevieve Bell, la célèbre anthropologue australienne qui, depuis presque vingt ans, guide les efforts d’innovation d’Intel en plaçant l’humain toujours plus au centre de la technologie, fascine depuis longtemps les médias par son approche résolument tournée vers l’utilisateur. Son exemple a d’ailleurs fait des émules à travers l’industrie des nouvelles technologies, notamment chez Microsoft, Google et IBM.

Schizophrénie

Mais pour Tricia Wang, comme pour ses pairs des sciences humaines (sociologie, anthropologie, ethnologie, ethnographie et histoire notamment) spécialisés dans la recherche sur les technologies d’innovation ‒ et ils sont de plus en nombreux ‒, il ne suffit plus aux technologies de servir l’utilisateur individuel : il convient de s’assurer qu’elles serviront l’ensemble de la communauté humaine sur le long terme. Et il ne suffit plus à l’humain de se penser comme utilisateur : il lui faut assumer son rôle de participant dans cette évolution.

L’idée largement répandue que le succès ultime de la technologie est une technologie indépendante de l’humain, où celui-ci n’a plus sa place, est au mieux erronée, au pire dangereuse.

Les objets et systèmes intelligents, ou autonomes, reflètent déjà la schizophrénie à l’œuvre dans notre société lorsque des humains créent et portent la responsabilité ultime de technologies conçues pour oblitérer, tout au moins en apparence, la participation de l’humain.

Cette dissimulation affecte les humains négativement, affirme l’anthropologue Madeleine Clare Elish : le cadre moral de référence de la société, de même que le cadre juridique et légal n’ont pas évolué en matière de perception de la responsabilité, alors même que ces systèmes intelligents fonctionnent selon un modèle de contrôle distribué.

Diplômée du MIT et thésarde dans le département d’anthropologie de l’université de Columbia à New York, Madeleine Clare Elish a centré sa recherche sur l’impact social de l’intelligence artificielle et des systèmes autonomes. Ainsi a-t-elle été invitée par Tricia Wang à publier sur ethnographymatters.org dans le cadre d’une édition spéciale intitulée : Co-designing with machines: moving beyond the human/machine binary.

« Zone de déformation morale »

En cas de faille ou de panne du système, ce dernier est préservé tandis que l’humain se voit attribuer 100 % de la responsabilité. Les humains, selon Madeleine Clare Elish, deviennent la « zone de déformation morale » du système. Elle souligne qu’une évolution positive des systèmes en réseau humain/machine ne sera possible que si le rôle de l’humain est repensé dans le contexte de sa collaboration avec la machine, y compris la notion de travail et les relations sociales.

A contrario, « nous aurons toujours besoin des humains pour remettre les machines sur la bonne voie », écrit Tricia Wang en référence aux risques de dérapage inhérents à la technologie ‒ y compris certains algorithmes dont l’impact discriminatoire a déjà été démontré en matière de justice criminelle et de recherche d’emplois, entre autres exemples. « L’intelligence artificielle doit intégrer les dimensions de sens, de valeurs, de morale et d’éthique », souligne-t-elle.

Un nombre croissant de scientifiques réputés dans des institutions aussi prestigieuses que le MIT et l’UC Berkeley se rallient à cette approche. Plusieurs milliers de leaders dans les cercles scientifiques, industriels et intellectuels du monde entier ont signé la lettre publiée en 2015 par l’ingénieur informatique Stuart Russell où il déclarait : « Nous recommandons que la recherche se consacre à garantir que les systèmes de plus en plus puissants d’intelligence artificielle soient robustes et bénéfiques. […] Nos systèmes IA doivent faire ce que nous voulons leur faire faire. »

À la suite de quoi, l’entrepreneur Elon Musk, figure emblématique de la Silicon Valley et critique controversé des dangers de l’intelligence artificielle, a créé un fonds de financement de projets de recherche consacrés à « garantir l’impact bénéfique de l’IA ». Plusieurs centaines d’équipes de recherche du monde entier ont déposé des dossiers de projets. Tricia Wang et Madeleine Clare Elish sont en bonne compagnie.

A lire aussi sur Hello Future

GettyImages - controverses IA - AI controversis

Controverses autour de l’IA : des questions éthiques aux enjeux de régulation

Découvrir
JWST

L’IA facilite l’exploitation de la quantité astronomique de données spatiales

Découvrir

L’analyse du mouvement avec l’IA promet d’aider au maintien à domicile

Découvrir

Apprentissage par renforcement : une IA puissante dans toujours plus de domaines

Découvrir

Comment rester bien informé quand les algorithmes décident pour nous ?

Découvrir