En poursuivant votre navigation sur ce site, sans modifier le paramétrage de vos cookies, vous acceptez l’utilisation de cookies nous permettant de réaliser des statistiques de visite.
En savoir plus

En ce moment

Comment l’IA peut aider à réduire les inégalités


Les intelligences artificielles sont des pages blanches. Si nous leur transmettons nos biais, nous pouvons également leur apprendre à les éviter.


Si les algorithmes sont aujourd’hui accusés de reproduire certains biais, ils peuvent aussi contribuer à les corriger. En quête d’équité, l’intelligence artificielle représente un formidable outil au profit de la lutte contre les inégalités.

En mars 2018, le mathématicien et député Cédric Villani publiait un rapport intitulé Donner un sens à l’intelligence artificielle dans lequel il prône une intelligence artificielle (IA) inclusive et diverse. « En matière d’IA, la politique d’inclusion doit donc revêtir un double objectif : s’assurer que le développement de ces technologies ne contribue pas à accroître les inégalités sociales et économiques ; et s’appuyer sur l’IA pour effectivement les réduire. » Un objectif majeur, car en la matière, les choses ne vont pas de soi.

Dès 2016, la data scientist et activiste américaine Cathy O’Neil dénonce les dérives potentielles des algorithmes dans son essai Weapons of Math Destruction. Si les algorithmes sont supposés neutres, de nombreux exemples (le logiciel de recrutement d’Amazon, le logiciel de justice COMPAS, etc.) ont révélé que ce n’est pas toujours le cas. Les modèles d’apprentissage automatique et les jeux de données peuvent présenter des biais, voire les amplifier.

Dans un article publié récemment, des chercheurs de Télécom ParisTech identifient trois types de biais : ceux qui résultent des biais cognitifs des programmeurs ; ensuite, les biais statistiques, liés à des données partielles ou erronées (« « Garbage in, garbage out » […] fait référence au fait que même l’algorithme le plus sophistiqué qui soit produira des résultats inexacts et potentiellement biaisés si les données d’entrée sur lesquelles il s’entraîne sont inexactes ») ; enfin, les biais économiques, liés à des calculs coût-efficacité ou à des manipulations volontaires des entreprises.

La prise en compte du problème est d’autant plus importante que les algorithmes servent désormais de base à des décisions qui ont un impact sur nos vies. Il ne s’agit plus seulement de se voir recommander tel ou tel film sur Netflix, telle ou telle vidéo sur YouTube, tel ou tel livre sur Amazon… L’IA est utilisée pour recruter, attribuer un prêt, établir un diagnostic médical, et même fixer la durée d’une peine de prison. Heureusement, plusieurs solutions existent pour limiter et corriger les biais des algorithmes.

1. Favoriser la mixité et la diversité parmi les développeurs. Si les biais des algorithmes sont – en partie – liés aux biais cognitifs de ceux qui les programment, on comprend l’importance que revêt la diversité parmi les développeurs. Or, le secteur de l’informatique et des nouvelles technologies est largement dominé par les hommes blancs. Le rapport Villani rappelle que « les femmes représentent […] à peine 33 % des personnes du secteur numérique (12 % seulement, si l’on écarte les fonctions transversales et supports) ». De nombreuses études montrent que les minorités ethniques sont également sous-représentées.

Comment changer les choses ? En associant l’éducation à l’égalité et au numérique à l’école et les actions menées au sein des entreprises. Il peut s’agir de soutenir des associations qui incitent les jeunes filles à se tourner vers l’informatique ou des programmes qui s’adressent à certains publics cibles (comme la Web@cadémie, qui forme des jeunes sortis du système scolaire au métier de développeur Web) ; de mettre en avant des rôles modèles féminins et développer le mentorat ; ou de constituer des équipes de développement plus inclusives.

2. Coder pour inclure. Les intelligences artificielles sont des pages blanches. Si nous leur transmettons nos biais, nous pouvons également leur apprendre à les éviter. Nous pouvons « désencoder » les discriminations et développer pour inclure, notamment sur le choix de l’algorithme ou des variables prédictives à prendre en compte. Au-delà du seul code, le choix des données d’apprentissage joue un rôle critique, il importe par exemple d’insuffler de la diversité dans les bases de données d’apprentissage. À ce titre, IBM – dont le système de reconnaissance faciale avait été épinglé par des chercheurs du MIT – a présenté son Diversity in Faces Dataset, un jeu de données regroupant un million de visages humains étiquetés, censé être représentatif de la société et visant à améliorer les technologies de reconnaissance faciale.

Les chercheurs de Télécom ParisTech détaillent deux types de solutions pour limiter les biais des algorithmes : les pistes statistiques, liées à la façon dont les données sont collectées et traitées, et les pistes algorithmiques, qui cherchent à introduire l’équité dès la conception des algorithmes en intégrant diverses contraintes : « […] un domaine de recherche en machine learning se développe autour de ce que l’on appelle l’équité algorithmique. Ces travaux ont pour objectif de concevoir des algorithmes qui répondent à des critères d’équité, par exemple la non-discrimination en fonction d’attributs protégés par la loi comme l’origine ethnique, le genre ou l’orientation sexuelle ». La tâche est ardue, car l’équité est un concept pluriel et non universel, dont les définitions varient d’une société à l’autre, d’une époque à l’autre, et dont les applications peuvent être incompatibles entre elles. Il y a d’ailleurs toute une palette de critères qui sont utilisés en Apprentissage Machine pour juger du caractère équitable d’un algorithme, mais aucun ne fait consensus et plusieurs sont incompatibles.

Il existe également des IA capables de détecter et lutter contre les discriminations. Des centres de recherche et entreprises technologiques ont lancé leur projet, comme Aequitas, développé par le Center for Data Science and Public Policy de l’université de Chicago, ou AI Fairness 360 d’IBM, des boîtes à outils open source visant à traquer et corriger les biais dans les bases de données et les modèles de machine learning. La mathématicienne Cathy O’Neil a créé son entreprise d’audit algorithmique, ORCAA. En France, on peut citer la start-up française Maathics, qui offre le même type de services et attribue le label Fair Data Use.

3. Rendre les algorithmes plus transparents. Chaque fois que l’algorithme a des conséquences importantes pour la vie d’une personne, il est important qu’elle puisse comprendre à quelles règles celui-ci obéit, et que celles-ci aient pu être éventuellement discutées au préalable. Rendre les algorithmes transparents consiste à ouvrir les « boîtes noires » pour comprendre le fonctionnement interne des modèles d’apprentissage et les données utilisées. La notion de « transparence des algorithmes » a pris une grande importance dans le débat public et fait l’objet de nombreuses initiatives, comme la plateforme TransAlgo, lancée par l’Inria en 2018.

Au-delà de l’équité, réduire les inégalités grâce à l’IA

On l’a vu, le rapport Villani fixe un double objectif : l’équité, mais aussi la réduction des inégalités. Il évoque notamment la création d’un système automatisé d’aide à la gestion des démarches administratives pour améliorer l’égalité d’accès aux services publics, ou les technologies basées sur l’IA permettant de mieux prendre en compte les besoins des personnes en situation de handicap et d’améliorer leurs conditions de vie.

À ce titre, les applications Seeing AI de Microsoft ou Lookout de Google aident les personnes aveugles ou malvoyantes à identifier des éléments (individus, objets, textes, etc.) présents dans leur environnement grâce à la reconnaissance automatique d’images.

Au-delà, l’IA possède un formidable potentiel pour simplifier les usages au sein du monde digital et ainsi réduire la fracture numérique.

L’idée est de placer l’IA au service de l’égalité des chances, de la lutte contre les discriminations, ou encore de la diversité et l’inclusion en entreprise. Plusieurs initiatives vont dans ce sens, comme par exemple les outils visant à limiter les biais pendant le recrutement.

En utilisant Textio, un éditeur de texte intelligent capable de rendre un descriptif de poste plus inclusif, l’éditeur de logiciel Atlassian a fait passer le pourcentage de femmes recrutées de 10 % à 57 %. En France, la communauté Data for Good rassemble des centaines de data scientists, développeurs et designers volontaires qui mettent leurs compétences au service de projets à impact social.

Si l’IA comporte des risques, nombreux sont les exemples qui montrent qu’elle représente aussi une formidable opportunité pour l’innovation sociale.


Les intelligences artificielles sont des pages blanches. Si nous leur transmettons nos biais, nous pouvons également leur apprendre à les éviter.


Mots-clés :

, , , ,

Sources :

– Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne
Algorithmes : biais, discrimination et équité
– Concrètement, comment rendre les algorithmes responsables et équitables ?
– Using Artificial Intelligence to Promote Diversity