• L’action du Groupe en la matière est incarnée et portée notamment par le Conseil d’Éthique de la Data et de l’IA, constitué de personnalités indépendantes, juristes, universitaires, etc.
• Métiers de la relation client, offres Computer Vision, etc. : les réalisations et avancées permises par le Conseil soutiennent la stratégie de création de valeur. La validation éthique est un gage de qualité.
Après Bletchey Park en 2023 et Séoul en 2024, Paris accueille le 3e Sommet pour l’action sur l’IA les 10 et 11 février 2025. Plus d’un millier d’acteurs gouvernementaux, du secteur privé et de la société civile se rassemblent pour discuter de l’avenir de l’IA et de son développement au service de l’intérêt public. L’IA de confiance et les sujets liés à l’éthique notamment sont au cœur de ces échanges.
À cette occasion, Roxane Adle-Aiguier, PMO du Conseil d’Éthique de la Data et de l’IA, et Émilie Sirvent-Hien, responsable du Programme de Recherche IA éthique et responsable chez Orange, reviennent sur les efforts déployés au sein du Groupe pour répondre aux enjeux d’éthique, de responsabilité et de durabilité associés à la mise en œuvre des technologies d’IA.
L’engagement d’Orange dépasse le cadre théorique ; il s’agit aussi d’œuvrer à l’opérationnalisation de l’IA éthique.
En 2021, Orange créait un Conseil d’Éthique de la Data et de l’IA. Quels sont le rôle et les missions de cet organe ?
Roxane Adle-Aiguier – Le Conseil est composé de 10 conseillers externes, experts et indépendants chargés notamment d’émettre des avis consultatifs auprès du Comex (Comité exécutif), sur des sujets liés à la gouvernance de l’IA responsable ou à des cas d’usage concrets qui lui sont soumis. Il suit aussi la mise en œuvre des orientations et principes éthiques validés par le Comex. Il a défini un cadre éthique pour les technologies d’IA et de Data incarné dans la Charte de la Data et de l’IA d’Orange en cohérence avec la raison d’être du Groupe, « être l’acteur de confiance qui donne à chacune et à chacun les clés d’un monde numérique responsable ».
Chez Orange les réflexions autour de l’éthique de l’IA n’ont pas commencé avec la création du Conseil. Notre engagement remonte à plus d’une décennie, en même temps qu’ont débuté les travaux de la Recherche sur les technologies d’IA, et se décline autant au sein de l’entreprise qu’à l’extérieur. En 2016, Mari-Noëlle Jégo-Laveissière (aujourd’hui CEO Orange Europe) a été membre du High Level Expert Group on Artificial Intelligence de la Commission européenne en tant qu’experte qualifiée pour poser les fondations d’une IA de confiance pour l’Europe, fondations de l’AI Act tel qu’il existe aujourd’hui. En 2020, nous avons par ailleurs lancé le Programme de recherche IA éthique et responsable, piloté par Émilie, pour orchestrer les travaux de recherche dans ce domaine sur les enjeux d’IA éthique et éclairer le Groupe.
Émilie Sirvent-Hien – Le Programme de Recherche a en effet vocation à éclairer le Groupe, de façon dynamique, en se transformant pour coller au plus près des évolutions technologiques et des cadres réglementaires. Il repose sur une équipe de chercheurs aux compétences et aux profils diversifiés, entre technique et sciences humaines. Actuellement, le Programme structure ses travaux autour de plusieurs thématiques clés, telles que l’équité et l’inclusion, l’explicabilité et la transparence des algorithmes, l’impact environnemental des systèmes d’IA ou la culture de responsabilité, et il participe à la normalisation. Notre action ne se limite pas à une dimension théorique ou fondamentale : il s’agit aussi d’œuvrer à l’opérationnalisation de l’IA éthique, à travers l’étude de cas d’usage ou l’élaboration et le partage de guidelines vers les métiers.
Dès 2022, Orange déploie sa Charte Éthique de la Data et de l’Intelligence Artificielle. Depuis, quels sont d’autres livrables majeurs du Conseil ?
RAA – En effet, la signature, par Christel Heydemann et Michael Trabbia, et la publication de la Charte élaborée par le Conseil ont constitué un jalon fondateur, car elles ont permis d’affirmer nos valeurs, notre positionnement et notre vision sur les sujets éthiques relatifs à l’IA et la Data. Depuis, le Conseil a finalisé de nombreux chantiers qui, pour beaucoup et comme l’a expliqué Émilie, abordent ces questions par un angle concret et opérationnel. On peut ainsi citer la création de formations de sensibilisation pour nos collaborateurs, sur l’IA de façon générale et sur l’IA éthique en particulier, la production de recommandations pour les métiers de la relation client, la relecture et validation des différents guidelines du Groupe. Le conseil a aussi accompagné Orange Business afin de veiller à la bonne adéquation de l’offre de reconnaissance d’images Computer Vision avec les principes éthiques, en étudiant 7 cas d’usage particuliers.
Comment piloter la dynamique interne autour de l’IA éthique et évaluer le degré d’adhésion et d’acculturation des équipes ?
ÉSH – Nous avons une série d’indicateurs de suivi, comme le nombre de systèmes, produits et services à base d’IA, le nombre de collaborateurs qui ont suivi une formation, le nombre de cas d’usage étudiés ou de projets analysés d’un point de vue éthique par les unités d’affaires, les filiales et les divisions. Des référents éthiques positionnés dans chaque pays y animent les dispositifs en déployant les guidelines et les méthodologies que nous produisons.
Au-delà des chiffres ou des outils, la démarche reste profondément humaine et ne va pas à sens unique. Nous voyons que de très nombreux collaborateurs se posent des questions et expriment des attentes, nous sommes là pour les prendre en compte et y répondre. C’est d’autant plus vrai que l’explosion de l’IA générative a non seulement démocratisé l’accès aux outils d’IA mais a également permis à tout un chacun de s’interroger et d’être plus sensible à la nécessité d’une IA responsable.
La démarche est-elle aussi valorisée à l’externe vis-à-vis des clients ou des fournisseurs ?
RAA – Bien sûr, elle permet de rassurer nos clients sur le respect des valeurs éthique d’Orange. Pour en revenir à l’exemple de l’offre Computer Vision d’Orange Business précédemment mentionnée, la prise en compte des recommandations du Conseil et sa validation est un atout et un gage de qualité. Nous nous attachons aussi à promouvoir ces enjeux auprès de notre écosystème de fournisseurs et sous-traitants, en incluant dans nos et nos contrats d’approvisionnement des clauses sur le respect de nos valeurs, de l’éthique de l’IA, à l’image de ce qui est fait pour la RSE.
ÉSH – La valeur associée à la démarche se jauge aussi en termes de réputation, sur le long terme. Ne pas agir, c’est courir le risque de perdre du business, de perdre la confiance des salariés, et d’être moins attractif auprès des talents de demain, qui sont très sensibles à ces enjeux.
Adopté en 2024, l’AI Act entrera en vigueur en 2026. Le Groupe est-il déjà prêt ?
RAA – Nous avons pu anticiper l’arrivée de l’AI Act, que ce soit à travers notre participation au High Level Expert Group on Artificial Intelligence, notre contribution au livre blanc sur l’IA Une approche européenne axée sur l’excellence et la confiance et la mise en place de processus et de formations pour opérationnaliser le respect des principes de notre charte éthique. Pouvoir préparer nos entités était aussi un but associé à la création du Conseil d’Éthique de la Data et de l’IA et, de fait, nous avons déjà des référents, des outillages ou des dispositifs de gestion des risques en place, ce qui nous donne un temps d’avance. Il s’agira toutefois de porter une attention particulière aux spécificités de la réglementation et à l’acculturation des équipes, ce que nous commençons à faire avec une première formation en e-learning, et travailler avec les filières métiers afin d’évaluer avec précision les impacts potentiels.
Qu’attendez-vous du Sommet pour l’action sur l’IA de Paris ?
ÉSH – Cette troisième édition doit être plus concrète et génératrice d’action. Nous espérons que le Sommet sera un tremplin pour la mise en place de dynamiques collectives autour d’enjeux clés comme les conséquences (positives ou négatives) de la régulation, l’impact environnemental et sociétal de l’IA ou la confiance et la sécurité. Du point de vue du Groupe, il constitue aussi un moment d’échanges qui nous permettra d’enrichir notre écosystème de parties prenantes, ainsi que notre propre stratégie d’IA éthique.
![](https://hellofuture.orange.com/app/uploads/2025/02/Avatar.png)
![](https://hellofuture.orange.com/app/uploads/2025/02/Avatar.png)