● Les intelligences artificielles (IA) acquièrent nos biais via les modalités de leur entraînement. Il est possible de programmer les modèles d’apprentissage automatique pour lutter contre les inégalités.
● Des projets ont pour ambition de créer des IA inclusives. Gapsquare est un outil de ressources humaines entraîné sur des données paritaires. D’autres programmes visent à favoriser l’inclusion des plus pauvres dans les parcours de soins.
Les intelligences artificielles sont des pages blanches. Si nous leur transmettons nos biais, nous pouvons également leur apprendre à les éviter.
La communauté médicale et les services de ressources humaines s’inquiètent du risque croissant que les systèmes d’intelligence artificielle puissent amplifier les inégalités. Des acteurs comme Bill Gates persistent à considérer l’IA d’abord comme une opportunité pour les secteurs de la santé et de l’éducation. Les parties prenantes du secteur priorisent bien la limitation des biais reproduits par les algorithmes. Au-delà, l’IA constitue d’après certains un outil valable de lutte contre les inégalités : les intelligences artificielles sont des pages blanches. Si nous leur transmettons nos biais, nous pouvons également leur apprendre à les éviter. Aux États-Unis, un outil développé début 2023 par MetroHealth, de l’Université Case Western Reserve (Cleveland), permet d’évaluer le risque que des patients issus de minorités ne viennent pas à leur rendez-vous médical. Objectif : proposer aux hôpitaux d’adresser à ces patients des alternatives de télémédecine ou des solutions de transport.
Vers des intelligences artificielles inclusives
Au Royaume-Uni, la docteure Zara Nanu a développé la plateforme Gapsquare qui analyse les salaires des employés en fonction de leurs genre, ethnicité, handicap, etc. Elle est convaincue que, si rien n’est fait, les IA vont davantage discriminer les travailleuses en matière de recrutement et de salaires. De fait, s’appuyer sur des données historiques du domaine conduit un algorithme à reproduire une situation où les hommes doivent être mieux payés et occuper des postes plus importants. Entraîner un système sur des données paritaires et inclusives permet d’en faire un outil au service d’une meilleure justice sociale au travail. En mars 2018, le mathématicien Cédric Villani publiait un rapport intitulé « Donner un sens à l’intelligence artificielle », dans lequel il prône une intelligence artificielle (IA) inclusive et diverse. Toujours d’actualité, ses conclusions indiquaient : « En matière d’IA, la politique d’inclusion doit donc revêtir un double objectif : s’assurer que le développement de ces technologies ne contribue pas à accroître les inégalités sociales et économiques ; et s’appuyer sur l’IA pour effectivement les réduire. » Dès 2016, la data scientist et activiste américaine Cathy O’Neil dénonce les dérives potentielles des algorithmes dans son essai Weapons of Math Destruction. Si les algorithmes sont supposés neutres, de nombreux exemples (le logiciel de recrutement d’Amazon, le logiciel de justice COMPAS, etc.) ont révélé que ce n’est pas toujours le cas. Les modèles d’apprentissage automatique et les jeux de données peuvent présenter des biais, voire les amplifier.
Les algorithmes servent de base à des décisions qui ont un impact sur nos vies (…) L’IA est utilisée pour recruter, attribuer un prêt, établir un diagnostic médical, etc.
Une diversité de biais algorithmiques
Dans un article intitulé « Algorithmes : biais, discrimination et équité », des chercheurs de Télécom ParisTech identifient trois types de biais : ceux qui résultent des biais cognitifs des programmeurs ; les biais statistiques, liés à des données partielles ou erronées (« Garbage in, garbage out […] fait référence au fait que même l’algorithme le plus sophistiqué qui soit produira des résultats inexacts et potentiellement biaisés si les données d’entrée sur lesquelles il s’entraîne sont inexactes ») ; enfin, les biais économiques, liés à des calculs coût-efficacité ou à des manipulations volontaires des entreprises. La prise en compte du problème est d’autant plus importante que les algorithmes servent désormais de base à des décisions qui ont un impact sur nos vies. Il ne s’agit plus seulement de se voir recommander tel ou tel film sur Netflix, une vidéo sur YouTube, un sur Amazon… l’IA est utilisée pour recruter, attribuer un prêt, établir un diagnostic médical, et même fixer la durée d’une peine de prison. Heureusement, plusieurs solutions existent pour limiter et corriger les biais des algorithmes.
Favoriser la mixité et la diversité parmi les développeurs.
Si les biais des algorithmes sont – en partie – liés aux biais cognitifs de ceux qui les programment, on comprend l’importance que revêt la diversité parmi les développeurs. Or, le secteur de l’informatique et des nouvelles technologies est largement dominé par les hommes blancs. En 2023, Femmes@Numérique rappelait que « les femmes ne représentent que 26,9 % des effectifs dans les métiers du numérique et moins de 16 % des fonctions techniques qui sont pourtant aujourd’hui au cœur de la stratégie des organisations ». De nombreuses études montrent que les minorités ethniques sont également sous-représentées. Comme l’indique Mathilde Saliou, autrice de Technoféminisme, comment le numérique aggrave les inégalités, à Hello Future, il est « urgent de rendre le dialogue possible avec les utilisateurs finaux qui n’ont pas nécessairement conscience des données soumises à ces systèmes ».
Comment changer les choses ? En associant l’éducation à l’égalité et au numérique à l’école, et les actions menées au sein des entreprises. Il peut s’agir de soutenir des associations qui incitent les jeunes filles à se tourner vers l’informatique ou des programmes qui s’adressent à certains publics cibles (comme la Web@cadémie, qui forme des jeunes sortis du système scolaire au métier de développeur Web) ; de mettre en avant des rôles modèles féminins et développer le mentorat ; ou de constituer des équipes de développement plus inclusives. Fin 2022, Simplon proposait par exemple une formation gratuite pour les femmes qui souhaitent découvrir le développement Web.
Machine learning : une programmation plus inclusive
Il est possible de « désencoder » les discriminations et de développer pour inclure, notamment sur le choix de l’algorithme ou des variables prédictives à prendre en compte. Au-delà du seul code, le choix des données d’apprentissage joue un rôle critique, il importe par exemple d’insuffler de la diversité dans les bases de données d’apprentissage. À ce titre, IBM – dont des chercheurs du MIT avaient épinglé le système de reconnaissance faciale – a présenté son Diversity in Faces Dataset, un jeu de données regroupant un million de visages humains étiquetés, censé être représentatif de la société et visant à améliorer les technologies de reconnaissance faciale.
Les chercheurs de Télécom ParisTech détaillent deux types de solutions pour limiter les biais des algorithmes : les pistes statistiques, liées à la façon dont les données sont collectées et traitées, et les pistes algorithmiques, qui cherchent à introduire l’équité dès la conception des algorithmes en intégrant diverses contraintes : « un domaine de recherche en machine learning se développe autour de ce que l’on appelle l’équité algorithmique. Ces travaux ont pour objectif de concevoir des algorithmes qui répondent à des critères d’équité, par exemple la non-discrimination en fonction d’attributs protégés par la loi comme l’origine ethnique, le genre ou l’orientation sexuelle. » La tâche est ardue, car l’équité est un concept pluriel et non universel, dont les définitions varient d’une société et d’une société à l’autre, dont les applications peuvent être incompatibles entre elles. Il y a d’ailleurs toute une palette de critères qui sont utilisés en apprentissage machine pour juger du caractère équitable d’un algorithme, mais aucun ne fait consensus et plusieurs sont incompatibles.
Il existe également des IA capables de détecter et lutter contre les discriminations. Des centres de recherche et entreprises technologiques ont lancé leur projet, comme Aequitas, développé par le Center for Data Science and Public Policy de l’Université de Chicago, ou AI Fairness 360 d’IBM, des boîtes à outils open source visant à traquer et à corriger les biais dans les bases de données et les modèles de machine learning. La mathématicienne Cathy O’Neil a créé son entreprise d’audit algorithmique, ORCAA. En France, on peut citer la start-up française Maathics, qui offre le même type de services et attribue le label Fair Data Use.
Rendre les algorithmes plus transparents
Chaque personne doit pouvoir comprendre à quelles règles obéit un algorithme aux conséquences duquel elle est confrontée, et ces règles doivent avoir pu être éventuellement discutées au préalable. Rendre les algorithmes transparents consiste à ouvrir les « boîtes noires » pour comprendre le fonctionnement interne des modèles d’apprentissage et les données utilisées. La notion de « transparence des algorithmes » a pris une grande importance dans le débat public et fait l’objet de nombreuses initiatives, comme la plateforme TransAlgo, lancée par l’Inria en 2018, ou la création par l’Union européenne, en avril 2023, du Centre européen pour la transparence des algorithmes (European Centre for Algorithmic Transparency).
Au-delà de l’équité, réduire les inégalités grâce à l’IA
On l’a vu, le rapport Villani fixe un double objectif : l’équité, mais aussi la réduction des inégalités. Il évoque notamment la création d’un système automatisé d’aide à la gestion des démarches administratives pour corriger l’égalité d’accès aux services publics, ou les technologies basées sur l’IA permettant de mieux prendre en compte les besoins des personnes en situation de handicap et d’améliorer leurs conditions de vie. À ce titre, les applications Seeing AI de Microsoft ou Lookout de Google aident les personnes aveugles ou malvoyantes à identifier des éléments (individus, objets, textes, etc.) présents dans leur environnement grâce à la reconnaissance automatique d’images. L’objectif de ces projets est proche de celui de DreamWaves, qui couple une technologie de réalité virtuelle audio avec un système de guidage cartographique.
Au-delà, l’IA possède un formidable potentiel pour simplifier les usages au sein du monde digital et ainsi réduire la fracture numérique. L’idée est de placer l’IA au service de l’égalité des chances, de la lutte contre les discriminations ou de la diversité et l’inclusion en entreprise. Plusieurs initiatives vont dans ce sens, comme les outils visant à limiter les biais pendant le recrutement. En utilisant Textio, un éditeur de texte intelligent capable de rendre un descriptif de poste plus inclusif, l’éditeur de logiciel Atlassian a fait passer le pourcentage de femmes recrutées de 10% à 57%. En France, la communauté Data for Good rassemble des centaines de data scientists, développeurs et designers volontaires qui mettent leurs compétences au service de projets à impact social. Si l’IA comporte des risques, nombreux sont les exemples qui prouvent qu’elle représente aussi une formidable opportunité pour l’innovation sociale.
Sources :
– Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne
– Algorithmes : biais, discrimination et équité
– Concrètement, comment rendre les algorithmes responsables et équitables ?
– Using Artificial Intelligence to Promote Diversity
En savoir plus :
How to solve AI’s inequality problem (en anglais)
AI Can Help Address Inequity — If Companies Earn Users’ Trust (en anglais)