Prise de décision : l’IA pourrait réduire le taux d’erreurs humaines

Getty Images - AI and human error - IA et erreur humaine Shot of a young woman looking stressed while using a laptop to work from home
● Dans ses prises de décisions, l’humain peut s’appuyer sur l’algorithme pour réduire le risque d’erreur dans ses interactions avec les machines. En revanche, il doit conserver la décision finale.
● L’intelligence artificielle qui s’appuie sur les réseaux de neurones et le machine learning incarne un outil pertinent pour résoudre en temps réel des problèmes indétectables par le cerveau humain.
● Des experts comme Luc Julia, co-inventeur de Siri, et Jean-Gabriel Ganascia (CNRS) expliquent comment aborder avec justesse les interactions entre l’homme et les systèmes complexes.

L’IA n’égale pas l’homme qui est capable d’imaginer et de réussir un amerrissage d’urgence sur l’Hudson.

Les conséquences des erreurs humaines peuvent être désastreuses, par exemple un ralentissement de la productivité ou des blessures sur un site industriel critique ou, dans le domaine de la santé, des erreurs médicales. Ces dernières ont un impact sur les patients ainsi que les soignants qui en éprouvent de la culpabilité ou d’autres émotions négatives, ce qui engendre un cercle vicieux, selon une étude de BMC Health Services Research. Entraînés sur des données critiques, les modèles de machine learning peuvent accompagner les professionnels dans leur prise de décisions, comme l’ont montré des chercheurs qui ont développé un outil d’apprentissage automatique capable d’améliorer la précision de la détection d’erreurs médicales dans les unités de soins intensifs néonatales. Si ces dispositifs sont prometteurs, l’OMS prévient néanmoins que l’adoption précipitée de systèmes automatisés peut augmenter le nombre d’erreurs médicales et ainsi éroder la confiance dans l’IA.

« Errare humanum est », rappelle dans un sourire Jean-Gabriel Ganascia, quand on évoque le recours à l’intelligence artificielle (IA) pour éliminer l’erreur dans les interactions entre l’homme et les systèmes complexes. Les algorithmes sont écrits par des humains, faillibles donc, qui peuvent avoir introduit des erreurs ou des sources d’erreur dans leur programme, souligne le spécialiste de l’IA, président du comité d’éthique du CNRS. S’appuyer sur l’IA pour évacuer l’erreur, c’est alors prendre le risque de voir l’IA faire une erreur, en toute bonne foi, pourrait-on dire. C’est le sens de l’accident causé par une voiture autonome d’Uber en mars 2018, rappelle Jean-Gabriel Ganascia. « L’IA n’a pas été défaillante, le programme a parfaitement fonctionné », juge l’expert, en expliquant que la voiture était programmée pour tenir compte d’un cycliste, d’un piéton, mais pas d’un piéton poussant un vélo. Elle était aussi programmée pour ne pas prendre en considération des images parasites comme celle d’un sac en plastique volant sur la route, de façon à ne pas être stoppée de façon intempestive. Elle a donc répondu à merveille à l’ensemble des consignes. L’erreur ne vient pas de la machine, mais bien de l’homme qui n’a pas décrit tous les cas d’usage possibles dans cette situation.

Il n’y a pas d’intelligence dans l’IA, dit Luc Julia en forme de provocation, mais de la connaissance de données et de règles ‒ et de la reconnaissance.

Intelligence augmentée

Cet épisode a le mérite d’interroger la notion d’erreur dans la relation entre l’humain et un système complexe. « La machine n’invente rien, ce qu’elle peut produire vient des données qu’on y a entrées, et d’elles seules », affirme Luc Julia, co-inventeur de Siri, l’interface vocale d’Apple, désormais directeur scientifique de Renault, qui a publié fin 2019 L’intelligence artificielle n’existe pas. « Il n’y a pas d’intelligence dans l’IA, dit-il en forme de provocation, mais de la connaissance de données et de règles ‒ et de la reconnaissance. » Il faudrait plutôt parler « d’intelligence augmentée de l’humain », qui va s’appuyer sur des ressources qu’il ne peut mobiliser avec la même puissance que la machine, estime Luc Julia en évoquant AlphaGo, le programme qui a triomphé du champion du jeu de go. « Cette augmentation de l’humain va lui permettre de limiter la marge d’erreur dans des domaines comme le pilotage d’une voiture, le diagnostic médical et le fonctionnement des produits électroniques, les trois grands secteurs d’application de l’IA chargée de traquer les erreurs », estime-t-il. Le caractère systématique de l’IA allié à la puissance de calcul est bien de nature à pallier les déficiences humaines, convient de son côté Jean-Gabriel Ganascia : « Là où l’homme peut être défaillant, parce que soumis à des pressions et à des humeurs, l’IA ne l’est pas. » Dans un article de recherche publié en février 2023 dans la revue Nuclear Engineering and Technology, des chercheurs américains ont expliqué avoir entraîné des réseaux antagonistes génératifs – des algorithmes d’apprentissage non supervisé – à détecter les incohérences entre les données de capteurs enregistrées automatiquement et les données de surveillance collectées manuellement dans une centrale nucléaire. Les résultats sont formels : l’outil développé améliore la détection d’anomalies et d’erreurs humaines.

Différents types d’erreurs

Pour autant, soulignent d’une même voix tous les experts, même si elle constitue une précieuse aide au pilotage d’un système aussi complexe qu’un avion, l’IA n’égale pas l’homme, qui seul est capable d’imaginer et de réussir un amerrissage d’urgence sur l’Hudson. En 2009, cet exploit du pilote d’un Airbus A320, qui avait posé son avion en urgence sur le fleuve devant Manhattan, sans déplorer de victimes, avait forcé l’admiration et rappelé la primauté de l’humain sur la machine.

« Sans remplacer l’homme ni évacuer totalement l’erreur humaine, l’IA peut la limiter. Tout dépend de la nature de l’erreur », indique Célestin Sedogbo, directeur de l’Institut Cognition et spécialiste du traitement du langage à l’ENSC-Bordeaux. Quand l’erreur humaine provient d’un manque de connaissance, l’augmentation cognitive permise par l’IA peut complètement détromper l’opérateur en lui apportant un mode opératoire et en le guidant pas à pas. La « tunnellisation » constitue un autre type d’erreur, étudié au sein de l’institut dirigé par Célestin Sedogbo. « Un pilote chevronné, parfaitement compétent, occupé par un problème particulier, ne va pas entendre la consigne de sortie du train d’atterrissage, explique l’expert qui collabore avec Thales. Son attention est concentrée dans un tunnel. » Il ne va pas être possible de l’en sortir avec une nouvelle alarme qu’il n’entendrait pas.

La seule solution est alors de faire jouer une fonction réflexe connue sous le nom de « neurone miroir ». Sur le même principe que le bâillement provoqué par la seule vue d’une autre personne qui bâille, le programme mis en route par l’IA va dérouler sous les yeux du pilote une vidéo en montrant précisément un confrère en train de sortir le train d’atterrissage. Le pilote va alors « sortir » de son tunnel pour imiter l’action qui se déroule sous ses yeux.

Algorithme biaisé, voire injuste

Autre type d’erreur humaine commune, le biais culturel, le préjugé, fausse le jugement et influence une décision. Dans ce cas, l’IA ne pourra repérer et corriger le biais, précise Gaël Varoquaux, chercheur à l’Inria Saclay, que si celui-ci a été décrit au préalable et intégré à l’algorithme. En rappelant le cas du logiciel de prédiction de la récidive utilisé dans les prisons américaines, défavorable aux condamnés noirs, comme l’a montré l’étude de ProPublica, Gaël Varoquaux explique qu’il n’y a pas d’algorithme neutre : si on ne s’attache pas à rectifier ces biais dans les données qu’on soumet à l’IA, on les reproduit. « L’IA ne va pas corriger les erreurs humaines dans ce cas, elle va juste les apprendre. »

A lire aussi sur Hello Future

Une femme assise à un bureau, concentrée sur son ordinateur portable. Elle porte une chemise à rayures et a les cheveux longs et bouclés. Sur le bureau, on peut voir un carnet ouvert et un pot contenant des stylos. La lumière naturelle entre par une grande fenêtre, créant une ambiance chaleureuse et productive.

Orange développe pour ses salariés un usage sécurisé et optimisé des IA génératives

Découvrir
décryptage de la lettre de Charles Quint - Cécile Pierrot à la bibliothèque

L’IA ouvre de nouveaux outils à la recherche en histoire

Découvrir
Une personne en blouse de laboratoire et lunettes de protection tient un microprocesseur dans sa main gantée. L'environnement est lumineux et moderne, suggérant un laboratoire de recherche ou de développement technologique.

Biais algorithmiques : le hardware influence également les réseaux de neurones

Découvrir
Trois personnes collaborent autour d'un ordinateur portable dans un environnement de bureau moderne. L'une d'elles, debout, explique quelque chose aux deux autres assis, qui semblent attentifs. Sur la table, on peut voir un ordinateur de bureau, une tablette et des accessoires de bureau. Des plantes et des bureaux sont visibles en arrière-plan.

FairDeDup : un outil pour aider les modèles d’IA à se libérer des biais sociaux

Découvrir
Une femme se tient dans un train, tenant un téléphone. Elle porte un manteau beige et une écharpe bleue et marron. L'intérieur du train est lumineux, avec des sièges et des barres de soutien en métal.

Un modèle mathématique souhaite aider l’IA à anticiper les émotions humaines

Découvrir
Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange

Parlons Tech 14 : comment l’IA aide-t-elle à apprendre ?

Découvrir