● Des millions d’utilisateurs se tournent vers ces outils pour du soutien psychologique, voire des relations sentimentales.
● Ces interactions soulèvent des questions cruciales : l’IA peut-elle remplacer un thérapeute ? Comment expliquer l’attachement que nous développons envers des machines ? Quels sont les risques psychologiques et sociaux de ces relations ?
Parlons Tech, épisode 23 avec :
- Moustafa Zouinar – Chercheur ergonome au laboratoire SENSE chez Orange
- Céline Borelle – Sociologue au laboratoire SENSE chez Orange
L’effet Eliza, phénomène où des utilisateurs développent un attachement émotionnel à l’égard d’une machine, est décuplé par les grands modèles de langage. « Certains utilisateurs développent une dépendance émotionnelle envers ces programmes parce que les grands modèles de langage donnent l’illusion de tout comprendre. Pourtant, il s’agit toujours de logiciels, et cet attachement peut avoir des conséquences graves, jusqu’à mettre en danger leur vie », précise Moustafa Zouinar.
Ces outils ne remplacent pas un thérapeute (Céline Borelle)
Ces IA désormais capables de dialogues naturels, créent l’illusion d’une écoute empathique, et poussent certains à la dépendance. Face à ces dérives, des initiatives émergent, comme la loi californienne imposant aux plateformes de rappeler, toutes les trois heures, que l’interlocuteur est une machine. Chez Orange, Céline Borelle distingue deux usages : les IA encadrées par des professionnels, qui prolongent le lien thérapeutique, et les outils généralistes comme Replika qui, utilisés seuls, fonctionnent comme un journal intime interactif, sans altérité réelle.
Des risques psychologiques à évaluer
« Ces outils ne remplacent pas un thérapeute », explique-t-elle, tout en alertant sur le risque d’isolement social et, à l’inverse, leur potentiel à enrichir nos compétences relationnelles si utilisés comme un terrain d’expérimentation. La chercheuse a étudié le recours à des robots sociaux auprès d’enfants autistes pour les aider à apprivoiser les interactions sociales. « Le robot permet de tester des comportements sans jugement », note Céline Borelle. L’impératif : encadrer strictement leur usage : pas de prénom, activation en présence de l’enfant, et rejet des programmes de « vie autonome », jugés prématurés. « Avec les progrès de l’IA, ces usages méritent d’être réévalués », souligne-t-elle. L’addiction au numérique interroge. Né dans les années 1990 avec les autodiagnostics d’internautes, ce phénomène s’étend aujourd’hui aux chatbots. « La santé mentale inclut la capacité à maîtriser son usage du numérique », rappelle Céline Borelle.
Dans le contexte d’usages professionnels, l’IA est parfois présentée comme un « collaborateur », mais Moustafa Zouinar tempère : « Dans la plupart des études sur ce sujet, la collaboration se limite à différentes répartitions de tâches, sans par exemple de discussion entre l’humain et le système sur les objectifs ou les moyens à mettre en place pour les atteindre. » Les systèmes d’IA sont parfois considérés par les salariés comme des outils et non des collaborateurs. Qui plus est, l’opacité des modèles d’IA de type « boîte noire », en rendant difficile à obtenir des explications de l’IA, constitue un obstacle important au développement d’interactions de type collaborative.
Moustafa Zouinar







