• Certains employés manipulent consciemment les outils d’IA, faussant ainsi les résultats. Cela détériore la fiabilité des outils et crée un cercle vicieux de défiance dans l’entreprise.
• Les managers gagnent à adapter leur approche selon les niveaux de confiance des employés, en rassurant sur l’usage des données et en insistant sur les bénéfices concrets.
Comment avez-vous conçu votre étude qualitative sur l’utilisation de l’IA dans les entreprises ?
Nous avons mené une étude qualitative approfondie en observant l’introduction, la mise en œuvre et l’utilisation d’une nouvelle technologie d’IA au sein d’une entreprise. L’outil en question collecte diverses empreintes numériques, telles que les calendriers et les communications internes sur des plateformes comme Slack, pour créer un profil des compétences de chaque individu. La finalité est de créer une cartographie organisationnelle des compétences. Cette cartographie permet par exemple, dans une entreprise de conseil, de sélectionner les personnes les plus adaptées lors de l’arrivée d’un nouveau projet. Elle permet également à un nouvel employé d’identifier les collègues avec qui collaborer.
Certains peuvent même manipuler l’outil pour influencer leur profil, par exemple en communiquant fréquemment sur des sujets comme le machine learning pour être perçus comme des experts
Vous avez identifié quatre configurations de confiance parmi les employés face à l’IA, lesquelles ?
Nous avons distingué quatre configurations de confiance qui influencent le comportement des employés envers l’outil, basées sur deux dimensions : la confiance cognitive (relative à la performance de l’outil) et la confiance émotionnelle (enthousiasme ou anxiété face à l’outil). Les quatre configurations sont :
- Confiance totale (haute confiance cognitive et émotionnelle) : les utilisateurs croient en l’efficacité de l’outil et se sentent à l’aise en l’utilisant.
- Méfiance totale (basse confiance cognitive et émotionnelle) : les utilisateurs doutent de la performance de l’outil et éprouvent des sentiments négatifs à son égard.
- Confiance inconfortable (haute confiance cognitive, basse confiance émotionnelle) : bien que les utilisateurs reconnaissent l’efficacité de l’outil, ils se sentent mal à l’aise ou anxieux en l’utilisant.
- Confiance aveugle (basse confiance cognitive, haute confiance émotionnelle) : les utilisateurs se sentent positifs à l’égard de l’outil, mais ne sont pas convaincus de son efficacité.
Comment ces différents niveaux de confiance envers l’IA affectent-ils l’utilisation de l’outil ?
Les configurations de confiance déterminent divers comportements. Ceux ayant une confiance inconfortable (haute confiance cognitive, basse confiance émotionnelle) reconnaissent l’efficacité de l’outil, mais éprouvent de la peur ou de l’anxiété à son égard, ce qui peut les amener à limiter les informations qu’ils fournissent ou à se refuser complètement à son utilisation. Certains peuvent même manipuler l’outil pour influencer leur profil, par exemple en communiquant fréquemment sur des sujets comme le machine learning pour être perçus comme des experts, même s’ils ne le sont pas réellement. Ces comportements peuvent dégrader les performances de l’IA en introduisant des données biaisées ou incomplètes, créant un cercle vicieux où la diminution de la performance de l’IA érode davantage la confiance des utilisateurs, freinant ainsi l’adoption de l’outil.
Quels sont les principaux défis que vous avez identifiés dans l’utilisation de ces outils d’IA ?
Le principal défi réside dans le maintien de la qualité des données alimentant l’outil. Lorsque les utilisateurs manipulent l’outil ou fournissent moins d’informations, la cartographie des compétences devient inexacte. Cela réduit la confiance cognitive des autres utilisateurs, qui peuvent alors cesser d’utiliser l’outil, créant un cercle vicieux. De plus, les différentes configurations de confiance peuvent entraîner des comportements variés, tels que la manipulation, la restriction ou le retrait des données, ce qui affecte négativement les performances de l’IA et complique son adoption au sein de l’organisation.
Quelles recommandations donneriez-vous aux managers pour une utilisation plus fluide de ces outils ?
Ils doivent renforcer la confiance émotionnelle des utilisateurs et adopter des approches adaptées à chaque groupe, en fonction de leur configuration de confiance. Pour ceux ayant une faible confiance émotionnelle, il est crucial de communiquer positivement sur l’IA, d’expliquer clairement l’utilisation des données et de dissiper les craintes. Il est également important de reconnaître que l’outil ne sera pas parfait dès le début, mais qu’il s’améliorera avec le temps grâce aux retours des utilisateurs. En favorisant un environnement de transparence et de soutien, les managers peuvent encourager une adoption plus harmonieuse de l’IA. Aussi je constate que les entreprises lancent souvent des projets pilotes, mais ces initiatives s’essoufflent après trois à six mois. Les managers ne font pas suffisamment d’efforts pour former leurs équipes à l’utilisation de l’IA afin d’améliorer leur productivité. Sans accompagnement et sans intégration progressive dans les processus de travail, l’IA est perçue comme une expérimentation temporaire plutôt qu’un véritable levier de transformation.
Le point de vue de Roxane Marsan (Orange Campus Tech Director) :
Chez Orange, nous avons formé environ 40.000 salariés à l’IA générative, technologie qui suscite à la fois intérêt et interrogations tant quant à son fonctionnement qu’à l’avenir des métiers. En interne, notre outil Dinootoo a été adopté par 60.000 collaborateurs !
L’IA n’ayant rien de magique, nous devons la démystifier et nous abordons donc avec eux les notions d’hallucinations, de prompts et les limites des modèles. On souhaite encourager les salariés d’Orange à prendre en main ces outils et prendre bien conscience des problèmes liés aux biais et limites des IA, afin qu’ils développent un esprit critique à leur égard. Une partie d’entre eux hésitent d’ailleurs encore à les utiliser, craignant, entre autres, des implications sur leur métier.
Pour accompagner nos collaborateurs, nous avons mis en place des ateliers sur différents niveaux :
- Niveau 1 : il porte sur la prise en main et les premiers usages, la compréhension du fonctionnement des systèmes, leur cadre légal et la sensibilisation aux impacts environnementaux de l’IA. L’objectif est de questionner la valeur et l’intérêt de l’utilisation de l’IA. Nous accompagnons également les utilisateurs dans leur pratique pour qu’ils comprennent réellement ce qu’ils produisent.
- Niveau 2 : cas d’usage spécifiques par métier (communication, RH, finance, etc.) pour démontrer l’apport de l’IA dans le quotidien professionnel.
- Formation technique : elle ne concerne que les équipes qui développeront des systèmes d’IA avec nos nombreux partenaires technologiques.
Sources :
It’s Amazing – But Terrifying!: Unveiling the Combined Effect of Emotional and Cognitive Trust on Organizational Member’ Behaviours, AI Performance, and Adoption (en anglais)
