En poursuivant votre navigation sur ce site, sans modifier le paramétrage de vos cookies, vous acceptez l’utilisation de cookies nous permettant de réaliser des statistiques de visite.
En savoir plus

En ce moment

L’IA pourrait réduire le taux d’erreurs humaines


L’IA n’égale pas l’homme qui est capable d’imaginer et de réussir un amerrissage d’urgence sur l’Hudson.


L’humain peut s’appuyer sur l’algorithme pour réduire le risque d’erreur dans ses interactions avec un système complexe, mais la décision finale doit rester du côté de l’homme.

« Errare humanum est », rappelle dans un sourire Jean-Gabriel Ganascia, quand on évoque le recours à l’intelligence artificielle (IA) pour évacuer l’erreur dans les interactions entre l’homme et les systèmes complexes. Les algorithmes sont écrits par des humains, faillibles donc, qui peuvent avoir introduit des erreurs ou des sources d’erreur dans leur programme, souligne le spécialiste de l’IA, président du comité d’éthique du CNRS. S’appuyer sur l’IA pour évacuer l’erreur, c’est alors prendre le risque de voir l’IA faire une erreur, en toute bonne foi, pourrait-on dire. C’est le sens de l’accident causé par une voiture autonome d’Uber en mars dernier, rappelle Jean-Gabriel Ganascia. « L’IA n’a pas été défaillante, le programme a parfaitement fonctionné », juge l’expert, en expliquant que la voiture était programmée pour tenir compte d’un cycliste, d’un piéton, mais pas d’un piéton poussant un vélo. Elle était aussi programmée pour ne pas prendre en considération des images parasites comme celle d’un sac en plastique volant sur la route, de façon à ne pas être stoppée de façon intempestive. Elle a donc parfaitement répondu à l’ensemble des consignes. L’erreur ne vient pas de la machine, mais bien de l’homme qui n’a pas décrit tous les cas d’usage possibles dans cette situation.

Intelligence augmentée

Cet épisode a le mérite d’interroger la notion d’erreur dans la relation entre l’humain et un système complexe. « La machine n’invente rien, ce qu’elle peut produire vient des données qu’on y a entrées, et d’elles seules », affirme Luc Julia, co-inventeur de Siri, l’interface vocale d’Apple, CTO et vice-président Innovation de Samsung, qui publie cet automne L’intelligence artificielle n’existe pas. « Il n’y a pas d’intelligence dans l’IA, dit-il en forme de provocation, mais de la connaissance ‒ de données et de règles ‒ et de la reconnaissance. » Il faudrait plutôt parler « d’intelligence augmentée de l’humain », qui va s’appuyer sur des ressources qu’il ne peut mobiliser avec la même puissance que la machine, estime Luc Julia en évoquant AlphaGo, le programme qui a triomphé du champion du jeu de go. « Cette augmentation de l’humain va lui permettre de limiter la marge d’erreur dans des domaines comme le pilotage d’une voiture, le diagnostic médical et le fonctionnement des produits électroniques, les trois grands domaines d’application de l’IA chargée de traquer les erreurs », estime le patron de l’innovation de Samsung. Le caractère systématique de l’IA allié à la puissance de calcul est bien de nature à pallier les déficiences humaines, convient de son côté Jean-Gabriel Ganascia : « là où l’homme peut être défaillant parce que soumis à des pressions et à des humeurs, l’IA ne l’est pas ».

Différents types d’erreurs

Pour autant, soulignent d’une même voix tous les experts, même si elle constitue une précieuse aide au pilotage d’un système aussi complexe qu’un avion, l’IA n’égale pas l’homme, qui seul est capable d’imaginer et de réussir un amerrissage d’urgence sur l’Hudson. En 2009, cet exploit du pilote d’un Airbus A320, qui avait posé son avion en urgence sur le fleuve devant Manhattan, sans déplorer de victimes, avait forcé l’admiration et rappelé la primauté de l’humain sur la machine.

« Sans remplacer l’homme ni évacuer totalement l’erreur humaine, l’IA peut la limiter. Tout dépend de la nature de l’erreur », indique Célestin Sedogbo, directeur de l’Institut Cognition et spécialiste du traitement du langage à l’ENSC-Bordeaux. Quand l’erreur humaine provient d’un manque de connaissance, l’augmentation cognitive permise par l’IA peut totalement détromper l’opérateur en lui apportant un mode opératoire et en le guidant pas à pas. La « tunellisation » constitue un autre type d’erreur, étudié au sein de l’institut dirigé par Célestin Sedogbo. « Un pilote chevronné, parfaitement compétent, occupé par un problème particulier, ne va pas entendre la consigne de sortie du train d’atterrissage, explique l’expert qui collabore avec Thales. Son attention est concentrée dans un tunnel. » Il ne va pas être possible de l’en sortir avec une nouvelle alarme qu’il n’entendrait pas.

La seule solution est alors de faire jouer une fonction réflexe connue sous le nom de « neurone miroir ». Fonctionnant sur le même principe que le bâillement provoqué par la seule vue d’une autre personne qui bâille, le programme mis en route par l’IA va dérouler sous les yeux du pilote une vidéo en montrant précisément un en train de sortir le train d’atterrissage. Le pilote va alors « sortir » de son tunnel pour imiter l’action qui se déroule sous ses yeux.

Algorithme injuste

Autre type d’erreur humaine commune, le « biais » culturel, le préjugé, vient fausser le jugement et influencer une décision. Dans ce cas, l’IA ne pourra repérer et corriger le biais, précise Gaël Varoquaux, chercheur à l’Inria Saclay, que si celui-ci a été décrit au préalable et intégré à l’algorithme. En rappelant le cas du logiciel de prédiction de la récidive utilisé dans les prisons américaines, défavorable aux condamnés noirs, comme l’a montré l’étude de ProPublica, Gaël Varoquaux explique qu’il n’y a pas d’algorithme neutre : si on ne s’attache pas à corriger ces biais dans les données qu’on soumet à l’IA, on les reproduit. « L’IA ne va pas corriger les erreurs humaines dans ce cas, elle va juste les apprendre. »

Mots-clés :

, , , , , , , , , , , ,