Des algorithmes pour gouverner… les algorithmes !

Savoir quelles données sont collectées sur les réseaux, c’est bien. Savoir précisément comment et dans quel but elles le sont, ce serait encore mieux… Or la transparence est encore loin d’être la règle dans les logiciels qui commandent nos services numériques : le temps est-il venu de passer les algorithmes sur le gril ?

La confiance s’est imposée comme un maître-mot avec la profusion des débats autour de l’utilisation des données et de la protection de la vie privée. La création et le maintien de cette confiance sont des enjeux fondamentaux pour obtenir le consentement des utilisateurs. Cette exigence fondamentale est tout aussi valable pour les algorithmes, moins souvent évoqués et pourtant tout aussi présents, notamment parce qu’ils sont à la base des systèmes d’intelligence artificielle.

De l’effervescence autour des algorithmes

De fait, les débats en France et en Europe ont eu longtemps tendance à se cristalliser autour de la question des données. Ces derniers mois, une vigilance particulière apparait vis-à-vis des algorithmes, à la faveur de phénomènes largement relatés dans les médias. Comme le procédé de « bulle filtrante », employé par des moteurs de recherche ou des réseaux sociaux pour remonter vers leurs utilisateurs tel ou tel contenu en fonction de leurs profils, de leurs usages, de l’historique de leurs données. Et plus récemment avec l’algorithme Admission Post Bac (APB), qui a été décrié notamment pour sa relative opacité. Or la traçabilité et la capacité à expliquer des décisions prises par un algorithme sont essentielles à la confiance.

Des biais polluent-ils les algorithmes ?

« Les premiers systèmes recourant à l’intelligence artificielle, les systèmes experts, intégraient des règles qui étaient édictées par les développeurs, donc facilement vérifiables, explique Laurence Devillers, chercheuse au CNRS, professeure en Intelligence Artificielle à Paris-Sorbonne et membre de la commission sur l’éthique de la recherche sur le numérique d’Allistène (CERNA). Avec la progression des technologies est apparu l’apprentissage statistique, où la masse des données a peu à peu remplacé la connaissance humaine. Avec le machine learning, la machine analyse les données qu’on lui fournit et prend ses décisions en fonction de ces données. Or des biais peuvent être introduits par ces données, voire par les développeurs lors de la mise au point de l’algorithme. Un logiciel de reconnaissance des formes, programmé pour identifier la photo d’un animal ou d’un objet donné peut ne pas y parvenir lorsque l’animal ou l’objet est placé dans un environnement différent ou quand quelques pixels sont supprimés de la photo ». Par méconnaissance de ces biais, des croyances peuvent être manipulées et véhiculées – même inconsciemment -, et nuire au final à l’information du grand public sur ce sujet. L’humain reste plus que jamais nécessaire pour éviter que ces biais aboutissent à une perte de maîtrise des machines. Il est nécessaire d’éduquer sur  ces sujets. Un rapport de la CERNA sur l’éthique de la recherche en apprentissage machine est d’ailleurs disponible.

Des algorithmes responsables par construction

Mais la régulation et la transparence des algorithmes pourrait tout aussi bien être le fait d’autres algorithmes. C’est la piste étudiée au sein de la plateforme scientifique TransAlgo, dirigée par Nozha Boujemaa, directrice de recherche INRIA et directrice de l’institut DATAIA : Sciences des données, Intelligence Artificielle et Société. « Le sujet de la transparence des systèmes algorithmiques est tout nouveau et pose de nombreux défis en termes de R&D. L’objectif final de la plateforme est d’aboutir à des algorithmes  capables d’auditer le comportement d’autres algorithmes, et de promouvoir la conception d’algorithmes responsable-par-construction respectant les règles éthiques et juridiques dès leur conception. Avoir des algorithmes « accountable by design« , en somme. Ce faisant, il s’agit de mettre fin à l’asymétrie informationnelle qui s’est installée entre le concepteur d’un service numérique et son consommateur, qu’il soit citoyen ou professionnel. Apporter de la transparence dans les données utilisées par les algorithmes mais aussi dans l’explicabilité de leurs comportements et de leurs critères de décisions est essentiel, par exemple quand une appli de navigation nous conseille un trajet X : comment savoir si ce trajet est déterminé parce qu’il sera le plus rapide ou pour nous faire passer par des points d’intérêt commerciaux ? »

Les nouveaux garde-fous éthiques seront bientôt là pour ramener de la transparence, de l’équité et de la loyauté dans les algorithmes. Et dessiner un environnement de confiance, pour une vie sociale « algo-compatible »…

« Il faut mettre un coup d’arrêt à l’asymétrie informationnelle entre les concepteurs des services numériques et les consommateurs, pour rétablir la confiance dans les algorithmes. »

A lire aussi sur Hello Future

Cybersécurité : attaques et détournements des IA

Découvrir

Economiser encore plus d’énergie grâce à l’IA coopérative

Découvrir
Un homme inspectant des données sur plusieurs écrans bleutés

Détecter les fraudes sur les appels internationaux avec l’IA

Découvrir

Comment l’Intelligence Artificielle accélère le travail des analystes en cybersécurité

Découvrir
Getty Images - AI and human error - IA et erreur humaine

Prise de décision : l’IA pourrait réduire le taux d’erreurs humaines

Découvrir