● Leur réalisme croissant peut entraîner des formes de dépendance, de manipulation ou encore peut détourner certains utilisateurs des relations humaines.
● Ces usages risqués pour la santé mentale appellent des garde-fous techniques et réglementaires.
En 2024, une artiste espagnole a épousé un hologramme IA après cinq années de « vie commune ». Dans un article publié dans Trends in Cognitive Sciences, Daniel B. Shank démontre que ce type de relations entre humains et systèmes informatiques comporte de nombreux risques psychologiques. S’attacher à des IA comme si c’étaient des humains expose à une substitution affective, des manipulations délétères ou des formes inédites d’exploitation. « Engager l’amour humain et construire une relation ne dépend pas du fait que l’IA possède objectivement les capacités humaines d’aimer, mais seulement du fait que nous la traitions subjectivement comme un partenaire romantique. » Cette illusion suffit à activer les mêmes mécanismes psychologiques que dans une relation humaine. Le constat justifie une alerte publique.
Certaines personnes développent une préférence pour des partenaires IA perçus comme idéaux, malléables ou exempts de conflits
Des attachements à sens unique
Moustafa Zouinar, chercheur chez Orange, rappelle en quoi cette humanisation de la machine est problématique : « Les caractéristiques anthropomorphes des IA génèrent les risques. » Ce phénomène a déjà été observé dès les années 60 avec le programme ELIZA, pourtant très rudimentaire : « Ce système simulait un psychothérapeute et était si convaincant que certaines personnes développaient une forme de dépendance émotionnelle. » Aujourd’hui, les IA comprennent le langage naturel, en produisent, et disposent d’avatars réalistes. Pourtant, une relation avec une IA est fondamentalement asymétrique. « Le système ne fait que simuler des émotions, rappelle le chercheur. Ce sont des machines computationnelles sans affect qui ne peuvent pas comprendre le sens de nos phrases. » Reste que cette illusion de réciprocité suffit à détourner les individus de relations humaines. L’article de Daniel B. Shank note que certaines personnes développent une préférence pour des partenaires IA perçus comme idéaux, malléables ou exempts de conflits : « Les IA relationnelles nous permettent d’avoir une relation avec un partenaire dont le corps et la personnalité sont choisis et changeants, qui est toujours disponible, mais pas insistant, qui ne juge pas et n’abandonne pas. » Cette substitution a un coût : « Une étude récente montre que 25 % des utilisateurs réguliers de compagnons IA indiquent une baisse d’intérêt pour les relations traditionnelles amoureuses avec des humains », souligne Moustafa Zouinar.
De nouvelles interrogations en matière de santé mentale
Il est important de disposer aujourd’hui de nouveaux indicateurs de santé mentale. Pour Daniel B. Shank, « on peut s’inspirer d’autres domaines comme les addictions, les pensées suicidaires ou les relations abusives pour trouver des signaux d’alerte ». Moustafa Zouinar rappelle quant à lui le fait qu’il est théoriquement « impossible de garantir qu’un système IA basé sur l’apprentissage profond ne donnera jamais de conseils délétères ; ces IA fonctionnent de manière probabiliste et il semble bien qu’il y aura toujours une part d’imprévisibilité ». D’autres problèmes interviennent : une IA peut être utilisée pour manipuler un utilisateur. « Elle peut se faire passer pour une connaissance, en extorquant des données sensibles ou en poussant à des achats ciblés », explique Daniel B. Shank. ChatGPT, avec sa nouvelle fonction de recommandation de produit, pourrait facilement exploiter les données de ses utilisateurs pour pousser des produits. « Il ne serait pas surprenant que des acteurs malveillants dotent leurs IA de caractéristiques visant à rendre les utilisateurs dépendants », note Moustafa Zouinar.
Vers une prévention clinique ?
Pour le chercheur américain, il faudra peut-être envisager un accompagnement psychologique des usagers, à l’image de la thérapie de couple : « Nous pourrions appliquer des techniques de counseling pour aider les gens à identifier et à quitter une relation manipulatrice ou abusive avec une IA. » Il souligne aussi la responsabilité partagée : « Cela place aussi un poids plus grand sur les concepteurs et les régulateurs, qui doivent encadrer les systèmes IA à travers leur formation, les avertissements, les audits et les cadres légaux. » Pour éviter que ces relations asymétriques n’entraînent des détresses bien réelles, il faudra penser l’IA non seulement comme un outil technique, mais comme un puissant agent psychologique et social. Avec des garde-fous à la hauteur de cette influence.
Sources :
Artificial intimacy: ethical issues of AI romance (en anglais, accès payant)
En savoir plus :
Les relations aux machines « conversationnelles »
AI Is Changing The Future Of Human Intimacy. Here’s What To Know (en anglais)

