● Ces applications et chatbots ne prennent pas nécessairement en compte les spécificités culturelles des patients et peuvent les induire en erreur, voire provoquer leur détresse.
● Contre les biais algorithmiques et le manquement au respect de la confidentialité des données, ces outils méritent un meilleur encadrement au sein de protocoles de soin.
Publicité mensongère ? En tapant « AI Therapist » (thérapeute IA) sur Google, un lien sponsorisé de la start-up Replika apparaît, indiquant fièrement « AI Therapist Chatbot » (chatbot thérapeute IA). Les questions du formulaire préalable à la personnalisation de cet outil sont orientées vers l’accompagnement thérapeutique. Problème : Replika n’est pas un service thérapeutique mais une start-up qui propose, en quelque sorte, des amis IA virtuels. Plus bas dans les résultats, une autre start-up s’appelant Abby s’accorde sur la même définition, tout en déclarant être gratuite et disponible 24/7. Pour Abby, le positionnement thérapeutique est clairement affiché, tout comme la mention « unbiased advice » (conseils non biaisés). Ce choix sémantique est questionnable. En plein essor, les thérapies IA prétendent complémenter voire remplacer les parcours thérapeutiques traditionnels et les psychologues. Les arguments marketing sont la disponibilité, l’accessibilité en différentes langues et le prix compétitif dans un contexte de pénurie de professionnels de santé mentale dans certaines régions. Des plateformes comme Charater.ai ou Replika n’ont pas été conçues pour répondre à des questions de santé mentale. Elles le font pourtant sans sourciller et induisent parfois leurs utilisateurs en erreur.
Ces outils ne peuvent pourtant pas se substituer aux thérapeutes, mais davantage s’insérer dans des dispositifs de soins déjà existants
Des outils à inscrire et encadrer dans des protocoles de soin
Une équipe de chercheurs de la Geisel School of Medicine de Dartmouth a mené le premier essai clinique d’un chatbot thérapeutique basé sur l’IA générative. Therabot, c’est son nom, a permis des améliorations significatives des symptômes chez les participants qui souffrent de troubles dépressifs majeurs, d’anxiété généralisée ou de troubles de l’alimentation, allant jusqu’à une diminution de 51% des symptômes pour les personnes souffrant de dépression. Céline Borelle, sociologue au laboratoire SENSE (Orange Research), souligne l’intérêt des agents artificiels intelligents pour « moduler la sanction sociale, et surtout amoindrir la sanction sociale négative ». « Ces outils ne peuvent pourtant pas se substituer aux thérapeutes, mais davantage s’insérer dans des dispositifs de soins déjà existants, alerte-t-elle. Une IA peut, par exemple, permettre à un professionnel de maintenir le lien entre deux rendez-vous avec un patient, mais en aucun cas elle ne peut remplacer ce professionnel. » Selon la chercheuse, un outil d’intelligence artificielle à des fins thérapeutiques doit être encastré dans un dispositif de soin plus large. Les intelligences artificielles qui prétendent pouvoir remplacer les thérapeutes sont de fait loin d’être exemptes de biais, à commencer par des conceptions culturelles et normatives spécifiques de la santé mentale qui ne correspondent pas à toutes les personnalités. De la même manière, elles ne peuvent pas comprendre toutes les subtilités culturelles et sont dépendantes des modèles de langues à partir desquels elles ont été entraînées. La relation « thérapeutique » peut par ailleurs se heurter à des limites, comme l’aspect générique et non personnalisé de réponses face à des sujets complexes et l’absence d’empathie humaine. « Ces outils ne sont pas délétères s’ils ne se substituent pas au thérapeute, mais il faut rappeler que ce qui est thérapeutique, c’est le lien au thérapeute », indique Céline Borelle.
Des enjeux de confidentialité importants
La question de la confidentialité et du respect des données personnelles se pose également. En mai 2025, Replika s’est vu infliger une amende de 5 millions d’euros par les autorités italiennes pour atteinte à la protection des données personnelles. Dans le même temps, une équipe de chercheurs de l’Iowa State University a développé un modèle d’intelligence artificielle capable d’analyser les publications sur les réseaux sociaux pour détecter des signes de dépression. Les chercheurs soulignent l’importance de respecter la vie privée des utilisateurs et recommandent que les plateformes obtiennent un consentement éclairé avant de collecter des données à des fins de santé mentale. Pour Céline Borelle, ce type d’approche pose problème sur le fond. « On ne sait pas ce que l’on mesure. Par ailleurs, il n’est pas certain que l’on puisse amener une personne vers un protocole de soin suite à une alerte automatisée. »