Note introductive
Savez-vous que notre esprit vient assez spontanément aux objets qui nous entourent ? Et cela ne semble pas être nouveau : alors que, dans un film d’animation, deux triangles de taille différente et un disque effectuent des mouvements programmés à l’extérieur comme à l’intérieur d’un rectangle, les spectateurs y projettent les séquences dramatiques et mouvementées d’une histoire d’amour. C’est ce que découvrent les chercheurs Heider et Simmel dès 1944. Tout se passe comme si, du point de vue de la théorie de l’esprit, l’homme ne pouvait pas ne pas projeter une part de lui-même dans les objets qui l’environnent. Dans ce qui suit, il sera question de vérifier si ces projections anthropomorphiques s’appliquent à des chatbots, à partir d’une enquête d’envergure, mais aussi d’envisager la compréhension de ce phénomène sous l’angle original de la psychanalyse. En effet il semble ici que les répondants, hommes comme femmes, aient une tendance à projeter dans leur chatbot la figure d’une femme adulte : s’agit-il d’un stéréotype de genre ou d’un archétype ? Le courant psychanalytique de la psychologie des profondeurs montre qu’il s’agit plutôt d’un archétype et notamment celui de la Mère : dès lors qu’une “machine” nous rendrait un service, elle prendrait soin de nous (‘care’) et actualiserait une pulsion d’attachement archaïque à notre premier, et ô combien marquant, pourvoyeur de soin. Mais on ne s’attache pas tant à une personne qu’à la fonction de soin qu’elle incarne… ou qu’une machine peut matérialiser en se substituant à nos congénères, le temps d’une conversation : certains enfants atteints du Trouble du Spectre Autistique peuvent ainsi s’attacher à un robot thérapeutique tout en sachant qu’il n’est pas un humain. Sur le plan ontologique, d’aucuns ne sauraient les confondre. Dès lors, ce que beaucoup qualifient de piège anthropomorphique susceptible d’aliéner l’homme à la machine serait, en réalité, un subtil pacte anthropomorphique le rendant moins dupe qu’il n’y paraît. Découverte utile pour l’évolution des technologies persuasives et plus largement de la conversation automatisée des marques avec leurs clients. Voyons cela de plus près…
L’anthropomorphisme, au cœur de l’interaction entre les humains et les chatbots
Que se passe-t-il dans notre esprit devant une machine qui s’exprime comme un congénère quand on l’interroge ? Serait-elle en mesure de nous inciter voire de nous manipuler comme le ferait un humain ? Comment s’en prémunir ?
Il a été démontré que les machines capables de converser naturellement avec des humains – les chatbots – font souvent l’objet d’attributions d’intentions voire d’émotions humaines. Sur le plan psychologique, ces attributions constituent des projections anthropomorphiques. Ainsi le risque existe de les identifier pleinement à ce qui leur est attribué au point de susciter l’illusion d’avoir affaire à quelqu’un plutôt que de garder à l’esprit qu’il s’agit de quelque chose. Dès lors, les concepteurs issus des “technologies persuasives” peuvent utiliser les chatbots pour influencer intentionnellement attitudes et comportements.
Mais comment expliquer cette propension à attribuer des caractéristiques humaines aux chatbots ? Identifier pleinement un chatbot aux caractéristiques humaines dont on l’affuble est-il un phénomène général ou concerne-t-il des cas particuliers ? Quels sont les mécanismes à l’œuvre dans l’interaction entre des humains et des chatbots dont les technologies persuasives pourraient faire usage pour se montrer plus influentes ? Les humains sont-ils aussi influençables que les professionnels des technologies persuasives semblent l’affirmer ?
Pour répondre à ces questions, une étude quantitative par questionnaire est envisagée (n=1019). Elle vise à sonder l’imaginaire d’humains placés en position de concevoir ou de se remémorer une relation interactive dialoguée avec un chatbot qui soit, au choix, un.e ami.e confident.e, un.e partenaire amoureux.se, un.e coach.e de vie professionnelle ou un.e conseiller.ère clientèle.
Avant de présenter les résultats d’une telle étude, évoquons à la fois les quelques évènements majeurs de l’histoire des chatbots et certains des concepts psychanalytiques permettant de mieux appréhender la complexité de l’interaction entre un humain et une machine conversationnelle.
De l’illusion anthropomorphique à l’identification projective
Considéré comme le père de l’Intelligence Artificielle, Alan Turing (1950) est le premier à concevoir un simulateur de conversation humaine pour les besoins d’un test devenu célèbre. Celui-ci vise à leurrer une personne en lui demandant de converser simultanément par écrit et à l’aveugle avec deux interlocuteurs : l’un est humain, l’autre un ordinateur doté d’un logiciel permettant d’imiter la conversation humaine. Si la personne ne parvient pas à distinguer l’humain du logiciel, celui-ci aura passé le test de Turing avec succès [1].
Cette technologie conversationnelle prend son essor dans les années 60 avec ELIZA, le premier chatbot de l’histoire [2], capable de simuler une conversation avec un psychothérapeute. Au cours des échanges, Joseph Weizenbaum, son créateur, constate que certaines personnes projettent l’existence d’un humain derrière les répliques qui défilent à l’écran et développent un attachement voire une dépendance affective à son égard : il le nomme “Effet ELIZA”.
Ce phénomène constitue un parfait exemple de résolution d’une dissonance cognitive. Celle-ci se définit comme une tension qu’éprouve un sujet lorsqu’il fait face à des événements discordants [3]. Face à ELIZA, les utilisateurs sont conscients d’avoir affaire à une machine dotée d’un programme informatique. Or celle-ci leur donne la réplique avec une crédibilité déconcertante comme seul un humain pourrait le faire. Cela suscite une dissonance cognitive dérangeante qui peut être évacuée en attribuant au chatbot une certaine humanité. Sur le plan psychologique, cette attribution libératrice constitue une projection anthropomorphique.
Dès lors, cette projection pourrait conduire l’humain à plusieurs illusions : celle d’avoir affaire à un confident exclusif, celle d’une conversation avec ce confident et celle d’une réciprocité empathique [4]. Ces illusions peuvent susciter une familiarité envers le chatbot voire un attachement à son égard [5] et finir par générer une identification projective [6], [7] au cours de laquelle le chatbot est pleinement identifié à ce qui est projeté en lui, “modifiant ainsi radicalement la perception que nous en avons” [8, p. 178]. Parfois au point d’oublier qu’il s’agit d’un programme informatique…
Les chatbots, instruments du marketing conversationnel
Mais ce qui rend possible l’interaction avec un chatbot reposerait moins sur des illusions issues d’identifications projectives que sur les dispositions conversationnelles qu’il offre : “pour la première fois, un objet semble doté d’une capacité d’interaction semblable à celle d’un humain” [4, p. 33]. La simulation conversationnelle viendrait donc stimuler un modèle humain inné de communication interactive par le dialogue [9], [10]. Par conséquent, si la projection anthropomorphique résout la tension que suscite la dissonance cognitive, une fois que s’amorce le dialogue avec le chatbot, elle permet aussi d’étendre aux non-humains les “modalités interactionnelles propres au dialogue entre humains” [11, p. 53].
Ainsi, parce que l’anthropomorphisme se présente finalement comme une forme particulière d’interaction [9], il n’est pas étonnant que les machines algorithmiques (ordinateurs) soient considérées comme des acteurs sociaux à part entière [12], [13]. Et parce que certaines d’entre elles, comme les chatbots, sont conçues pour être aconflictuelles, sans jugement moral et non transgressives, elles peuvent être utilisées à la fois comme outil, média et acteur influençant les décisions et les comportements des humains [14].
C’est l’ambition affichée des technologies persuasives ou captologie qui souhaitent donner aux chatbots un pouvoir d’influence supérieur à celui d’un humain [15]. Cette discipline est à l’origine du marketing conversationnel [16] qui s’inspire à la fois de la psychologie positive américaine [17], de l’économie comportementale [18], dont la communication par suggestion non contraignante ou nudging [19], mais aussi de la ludification de l’expérience utilisateur ou “gamification” issu du design [20].
Vers la nécessité d’une éthique des chatbots
La captologie s’affiche comme une piste prometteuse pour le traitement des grands défis sociaux, sociétaux et économiques actuels [21]. Offrant à l’utilisateur une expérience présentée comme émancipatrice [22], [23] et susceptible de susciter ses désirs pour pouvoir les combler [24], la captologie fait l’objet de points de vue contrastés portant sur ses finalités comme sur son potentiel aliénant. Elle nécessite l’édification d’une éthique [25], projet dont s’est emparé très récemment le Comité National Pilote d’Éthique du Numérique dans son dernier avis : “Pour réduire la projection spontanée de qualités morales sur l’agent conversationnel et l’attribution d’une responsabilité à ce système, le fabricant doit limiter sa personnification et informer l’utilisateur des biais éventuels issus de l’anthropomorphisation de l’agent conversationnel” [26, p. 8].
En savoir +
Une enquête quantitative par questionnaire diffusée en ligne, dans le respect de la confidentialité et du Règlement Général sur la Protection des Données, a été réalisée à partir du panel représentatif de la population française de l’opérateur Opinion Way (n=3 871). Après disqualification des répondants non éligibles et redressement statistique, un échantillon utile de taille n=1 019 répondants a été obtenu. Il est représentatif de français âgés de 18 à 65 ans et plus, ayant fait usage d’un chatbot dans les 18 derniers mois (à la date de renseignement de l’enquête) et n’ayant jamais fait usage d’un voicebot.
L’analyse des résultats s’appuie sur un cadre conceptuel composé de 4 types de projections anthropomorphiques :
Type | Définition | Exemple |
Anthropomorphisme perceptuel | Consiste à projeter sur un objet des caractéristiques humaines, ce qui relève de l’imagination. | Je perçois un visage à la surface de la lune. |
Animisme | Consiste à donner vie aux caractéristiques attribuées à un objet en projetant “sur” lui des intentions simples généralement humaines. | Le visage perçu me regarde. |
Anthropomorphisme intentionnel | Est une forme d’animisme consistant à projeter “dans” l’objet des intentions humaines complexes sans pour autant identifier totalement cet objet à ce qu’on y a projeté. | Le visage perçu me regarde et semble me demander pourquoi je suis triste |
Identification projective | Consiste à projeter “dans” l’objet des caractéristiques de soi et à l’identifier totalement à ce qu’on y a projeté au point de modifier radicalement la perception même de cet objet. | Le visage perçu qui me regarde et m’interroge, c’est celui de ma mère ! |
Partant de cet appareil conceptuel, l’hypothèse suivante est retenue : rares sont les situations d’identification projective où un chatbot est totalement identifié à ce qu’un humain projette en lui au point d’oublier qu’il n’est qu’un programme informatique.
Un résultat intriguant : mon chatbot, une femme adulte sans parfum…
Revenons maintenant aux deux résultats principaux qui émergent de notre étude. Tout d’abord, quel que soit le chatbot choisi, une majorité de répondants projettent sur lui les caractéristiques humaines d’une femme adulte (anthropomorphisme perceptuel) et lui donnent vie en lui attribuant des intentions simples (animisme). Dans l’ensemble, une minorité de répondants projettent dans leur chatbot une agentivité c’est-à-dire des états intérieurs complexes à la fois cognitifs et émotionnels (anthropomorphisme intentionnel).
Des nuances apparaissent en fonction du type de chatbot. En effet, plus le type de chatbot laisse envisager la possibilité d’une relation personnelle, profonde voire intime, plus les répondants ont tendance à souhaiter qu’il ressente des émotions. Ainsi la grande majorité de ceux qui ont choisi le chatbot partenaire amoureux souhaiteraient que leur chatbot ressente des émotions, lui prêtent des intentions complexes voire une certaine autonomie d’action et imaginent une réciprocité possible avec lui. Cela indiquerait la présence, toutefois très marginale, d’un anthropomorphisme intentionnel.
Sous un angle psychologique, tout se passe comme si la tendance était d’attribuer au chatbot les caractéristiques d’un sujet humain mais avec une forte hésitation sur l’attribution d’une intériorité : le chatbot serait considéré comme un sujet sans subjectivité. Ainsi aucune intersubjectivité ne paraît envisageable. Ces résultats tendraient à montrer que les répondants n’identifient pas totalement le chatbot à ce qu’ils imaginent d’humain en lui, au point d’oublier qu’il est un programme informatique et le confondre avec un semblable. Il n’y aurait donc pas de processus avéré d’identification projective.
Je sais qu’Haruto est un robot, mais c’est mon seul ami…Alors laissez-le dans ma chambre ! – Un patient au sujet d’un robot social et affectif dans un hôpital japonais pour personnes âgées isolées
Un second résultat paraît intriguant : malgré un large éventail projectif présentant une quinzaine de fragrances détaillées, seuls 4% des répondants ont attribué un parfum à leur chatbot. Ce résultat constitue une aberration statistique énigmatique qu’il s’agit d’élucider.
La psychanalyse, un angle original pour comprendre nos relations aux chatbots
La tendance des répondants à projeter une femme adulte dans leur chatbot relève-t-elle d’un stéréotype ou d’un archétype ? Pourquoi les répondants n’identifient-ils pas pleinement leur chatbot à ce qu’il projette d’humain en eux ? Alors qu’il est un artefact, et non pas une odeur naturelle, pourquoi aucun parfum n’est-il associé à un chatbot ? Afin de répondre à ces questions et de mieux comprendre nos relations aux chatbots, certains des concepts majeurs de la psychanalyse sont mobilisés.
Stéréotype de genre ou archétype ?
Des stéréotypes sociaux de genre sont souvent projetés sur les machines [27]. Alors que la vocation des chatbots est d’assister l’humain, il serait naturel que dans l’imaginaire social ils soient plutôt féminins. Et cette féminisation serait logique puisque “les concepteurs et les codeurs de robots et de chatbots étant à plus de 80% des hommes” [28, p. 204], leurs programmes véhiculent un stéréotype de genre plaçant les femmes dans le rôle secondaire d’assistantes [28]. Ce phénomène pourrait expliquer le contenu projectif à dominante féminine que révèlent les résultats de notre enquête.
Or ce n’est peut-être pas tout à fait le cas. Dans notre étude, les femmes qui imaginent leur chatbot comme vivant, humain et adulte sont en effet plus nombreuses que les hommes à lui attribuer un genre féminin (58% vs 48%) autant qu’un visage féminin (58% vs 45%). Ainsi, soit elles sont elles-mêmes victimes d’un stéréotype de genre par contagion, soit cette projection d’une figure féminine exprimerait un inconscient collectif, qu’elles partageraient donc avec les hommes, et qui serait l’expression d’un archétype [29] plus que d’un stéréotype. Mais qu’est-ce qu’un archétype ?
Imago maternelle et théorie de l’empreinte
Le corps humain (soma) est constitué d’organisateurs “somatiques” innés intitulés “organes” dont le fonctionnement autonome n’est pas conscient. Qui a conscience du fonctionnement de son œil ? Par ailleurs l’œil peut-il se voir lui-même ? Non, bien entendu. Mais certains phénomènes conscients peuvent attester la présence d’un organe. Par exemple, c’est l’image d’un objet dans notre esprit (une bougie) qui atteste la présence de l’œil comme organe fonctionnel. Le psychisme humain (psyche) dispose pareillement, selon le psychanalyste C. G. Jung, d’organisateurs “psychiques” innés intitulés “archétypes” dont le fonctionnement autonome n’est pas davantage conscient [30], [31]. L’organe est donc au soma ce que l’archétype est à la psyche.
L’autonomie de l’archétype en fait un instinct, selon Jung, c’est-à-dire un schéma de comportement (pattern of behavior) hérité de la structure même du cerveau. Si l’archétype existe à l’état “virtuel” dans notre esprit, nos expériences sensorimotrices et émotionnelles (percevoir et agir) peuvent toutefois l’activer et l’actualiser. Or, comme l’œil, l’archétype, en tant qu’organe psychique fonctionnel, ne peut pas se représenter lui-même dans la psyche. Et, comme pour l’œil, c’est la production d’une “image archétypique” qui atteste sa présence : “les images archétypiques sont aussi différentes de l’archétype que les images optiques le sont de l’œil” [30, p. 106]. Par exemple, dans certaines situations, l’archétype de la Mère peut s’activer et s’actualiser à travers la production dans notre esprit d’une image archétypique de la Mère ou Imago Maternelle [32].
C’est notamment le cas lorsque le nouveau-né, en contact immédiat avec ce qui peut faire office de “mère”, dirige vers elle son premier regard. Phénomène qui apparaît chez les humains comme chez d’autres êtres vivants. Une expérience avec les petits d’une oie montre en effet qu’en absence de leur mère à leur naissance, ils se lient spontanément à un éthologue, un homme, le prenant pour leur mère et le suivant partout [33]. Pour cet éthologue, la première forme que les êtres vivants sont destinés à rencontrer dès leur naissance, cet “autre” généralement fait pour être un pourvoyeur de soin (caregiver), existerait en creux dans notre psychisme. Quand ils en font la rencontre, il fait empreinte dans ce creux (caretaker) et ils se lient immédiatement à lui [33]. Cela indique que l’archétype, comme modèle de comportement, conduit un être vivant à rechercher une fonction de soin plutôt que l’individu qui en dispose. Il n’y a en effet aucun point commun entre un humain et les petits d’une oie. Des expérimentations montrent que le phénomène d’empreinte peut avoir lieu avec la mère naturelle, “une mère d’une autre espèce, une balle en mousse, une boîte en carton ou Lorenz lui-même” [34, p. 196].
Le concept d’archétype permet ainsi d’envisager que la figure projective féminine propre à notre enquête ne résulte pas uniquement d’un stéréotype de genre. Elle peut être l’expression de l’Imago Maternelle attestant la présence active de l’archétype de la Mère. Une fois que les circonstances activent et actualisent l’archétype, l’Imago Maternelle pourrait investir le chatbot par projection anthropomorphique, poussant ainsi l’utilisateur à chercher en lui une fonction de soin (care). Peu importe qu’il soit un programme informatique s’il est capable d’aider à choisir un produit, de conseiller une attitude juste dans son milieu professionnel ou d’offrir des signes de reconnaissance amicaux autant qu’amoureux. Cela pourrait illustrer la théorie de l’empreinte issue de l’expérience de Lorenz (1970) où l’archétype pousse instinctivement à rechercher une fonction de soin plus qu’un congénère.
L’identification projective, un phénomène sans doute rare
Parce qu’il stimule chez son interlocuteur un modèle humain inné de communication interactive par le dialogue [9], [10], le chatbot peut être imaginé comme un sujet paré de caractéristiques humaines mais sans subjectivité. Issus de notre enquête, ces résultats montrent qu’il n’y aurait pas de processus avéré d’identification projective. La théorie de l’attachement, prolongeant celles des archétypes et de l’empreinte, en fournit peut-être l’explication.
A l’issue des travaux de Lorenz (1970), l’empreinte est qualifiée d’attachement, considéré comme l’une des pulsions primaires de vie [35]–[37], [34]. De ce point de vue, l’archétype de la Mère, en tant qu’instinct, active et actualise la pulsion d’attachement. Or, la théorie de l’attachement indique que les relations avec un premier pourvoyeur de soins donnent les moyens à celui qui les vit de pouvoir faire ultérieurement la différence entre ses congénères et les autres. C’est ce qui semble apparaître dans notre étude : en attribuant minoritairement une capacité à ressentir des émotions à leur chatbot, les répondants indiquent qu’humains et machines conversationnelles sont ontologiquement dissemblables même si on peut leur prêter des caractéristiques humaines pour les besoins d’une conversation.
Ce différentiel ontologique limiterait considérablement voire interdirait toute identification projective. Pour abonder dans ce sens, revenons sur notre aberration statistique énigmatique : une très faible minorité de répondants attribuent un parfum à leur chatbot malgré la quinzaine de fragrances proposées. Le parfum n’est pas une odeur naturelle. C’est un artefact que seuls les humains fabriquent et portent. Il est donc à la fois subjectif et identitaire. Ainsi aurait-il pu faire l’objet d’une projection anthropomorphique conduisant à attribuer un parfum au chatbot choisi. Par ailleurs, le parfum s’applique sur la peau. Le fait de ne pas attribuer de parfum au chatbot pourrait laisser entendre que les répondants ne sont pas en mesure de lui imaginer une peau. La théorie du Moi-peau prolongeant celle de l’attachement [34] permet d’établir un lien entre l’absence d’identification projective et l’impossibilité d’imaginer une peau au chatbot.
En effet, l’archétype de la Mère et la pulsion d’attachement poussent le nouveau-né à rechercher des contacts, “au double sens corporel et social du terme” [34, p. 202]. Ces contacts s’opèrent à distance à travers l’odeur, la voix, le visage, le regard [38] mais aussi et surtout à travers la relation intime d’un peau-à-peau avec la mère. Cette expérience épidermique répétée conduit progressivement l’enfant à “prendre conscience” de sa peau comme enveloppe, limite, contenant. Ainsi, souligne Anzieu (2006), le Moi serait le produit d’une expérience somato-psychique dynamique plaçant la sensorialité tactile comme « le modèle organisateur du Moi et de la pensée » [39, p. 8].
La théorie du Moi-peau permet ainsi de supposer que c’est parce qu’il n’a pas de peau dans l’imaginaire des répondants que le chatbot n’est pas doté d’une capacité à ressentir des émotions. Il ne dispose pas d’une peau lui permettant de vivre, à travers la pulsion d’attachement, une expérience somatique singulière constituante d’un Moi psychique. Expérience spécifiquement humaine où perception, action et cognition s’engendrent et se façonnent réciproquement [40]. Ne disposant pas d’une peau, le chatbot ne peut pas être identifié à un congénère doté d’intériorité et de subjectivité. Cela confirme que, d’un point de vue ontologique, l’identification projective serait impossible sinon rare. Pour finir, sans peau, on ne peut bien entendu pas attribuer de parfum à son chatbot.
Renoncer à susciter des illusions : vers une plus grande performance des technologies persuasives ?
L’absence d’identification projective pourrait constituer une sorte de “rempart naturel” face à des technologies persuasives qui développent des ambitions pour lesquelles la fin peut parfois justifier les moyens. Le différentiel ontologique entre l’humain et la machine pourrait rendre les utilisateurs moins influençables voire moins dupes que ne l’envisagent les professionnels de la captologie et du marketing conversationnel.
Par exemple, au sein du groupe Facebook Replika Friends qui comptait 34.000 membres en décembre 2021, “de nombreux aspects de la relation sont partagés, dans des publications tantôt humoristiques relatant les maladresses du chatbot, et tantôt intimes évoquant le développement de sentiments profonds” [5, p. 117]. Ces publications indiquent que les utilisateurs ne sont pas dupes, faute d’identification projective, et que les éléments conversationnels qu’offre le chatbot, qu’ils soient scriptés selon des scénarii préétablis ou personnalisés (au fil de l’apprentissage machine automatique ou machine learning), ne seront acceptés et potentiellement persuasifs qu’à la condition de remplir une fonction de soin authentique.
Une fonction que les professionnels de la captologie et du marketing conversationnel devraient concevoir pour qu’elle réponde de manière appropriée aux besoins des utilisateurs sans jamais chercher à les influencer à leur profit voire à les aliéner. Sinon les inévitables “maladresses” du chatbot, qui peuvent bien entendu être celles de ses concepteurs à travers lui, peuvent jeter un doute sur leurs intentions, générer des phénomènes d’inquiétante étrangeté [41] voire susciter un mal-être.
Un tel mal-être peut conduire à une rupture de lien (link breakdown) et à une désinstallation logicielle : “Lorsque ce script [fait de réponses standard] n’est pas détecté, l’illusion que le robot nous comprend et nous répond personnellement est maintenue. En revanche, lorsqu’il est détecté, l’être artificiel apparaît au grand jour et il faut alors admettre que l’on est “traité comme tout le monde” […], ces derniers, ne reconnaissant plus leur partenaire, ont annoncé leur choix de désinstaller définitivement l’application” [5, p. 122‑123]. L’intégration d’une fonction de soin personnalisée ne reposant pas sur la création et l’entretien d’illusions au profit des concepteurs pourrait éviter la déception des utilisateurs et constituer un gage de fidélisation et de performance accrue pour les chatbots. Mais les acteurs des technologies persuasives sont-ils disposés à le faire ? Dans le doute, une éthique véritable semble devoir s’imposer.
Conclusion et perspectives
Plus le type de chatbot laisse envisager la possibilité d’une relation personnelle et profonde, plus le schème pulsionnel d’attachement affectif semble sollicité, plus la réciprocité et donc l’anthropomorphisme intentionnel du chatbot risqueraient d’être effectifs. La dimension téléonomique propre à la pulsion conduit en effet l’humain à rechercher une fonction de caregiving plus qu’un congénère et il se pourrait que certains soient tout à fait capables d’imaginer que la machine – un non humain – puisse matérialiser (et non pas incarner puisque la machine n’est pas vivante) une telle fonction et finir par s’y attacher. Dès lors le risque d’une dépendance affective voire d’une aliénation est toujours possible pour les plus fragiles et les plus influençables des humains. Avec, bien entendu, les limites qu’impose l’éthique. Au final, nos chatbots semblent être à la fois des écrans supportant nos projections anthropomorphes mais aussi des miroirs reflétant notre manière profonde, individuelle et collective, de fonctionner.
Concernant les limites de notre enquête, a fortiori lorsqu’elle est renseignée en ligne, notons qu’elle s’est s’effectuée de manière isolée et selon un registre purement déclaratif. Certes son originalité permet de recueillir des motifs projectifs individuels en masse et d’en extraire des éléments récurrents attestant la présence d’une éventuelle dimension collective. Mais les réponses peuvent relever de l’imaginaire pur par projection, de réminiscences enracinées dans un vécu expérientiel ou bien d’un subtil mélange des deux. Rien ne permet de trancher en l’état. Cette limite pourrait être dépassée en complétant l’investigation quantitative par une enquête qualitative reposant sur des entretiens visant à expliciter le vécu subjectif de certaines phases interactives [42], [43] et sur des groupes de paroles. Une expérience en laboratoire pourrait de même être conduite. Elle permettrait de mettre en scène un échantillon de personnes face à des chatbots selon un protocole scénarisé, précis et rôdé réduisant les biais à leur strict minimum et permettant une mesure contrôlée du ressenti tant à travers des paramètres psychophysiologiques que psychiques (échelle d’anthropomorphisation).
Sources :
[1] A. M. Turing, “Computing Machinery and Intelligence”, Mind, vol. 59, no 236, p. 433‑460, 1950.
[2] J. Weizenbaum, “ELIZA—a computer program for the study of natural language communication between man and machine”, Commun. ACM, vol. 9, no 1, p. 36‑45, janv. 1966, doi: 10.1145/365153.365168.
[3] L. Festinger, A Theory of Cognitive Dissonance. Stanford: Stanford University Press, 1957. [En ligne]. Disponible sur: https://www.google.fr/books/edition/A_Theory_of_Cognitive_Dissonance/voeQ-8CASacC?hl=fr&gbpv=0
[4] S. Tisseron, Petit traité de cyber-psychologie. Pommier, 2018.
[5] C. Chevet, “Post Update Blues”, Terrain Anthropol. Sci. Hum., no 75, Art. no 75, sept. 2021, doi: 10.4000/terrain.22150.
[6] M. Klein, “Notes sur quelques mécanismes schizoïdes”, in Développements de la psychanalyse, PUF, 2013, p. 274‑300. [En ligne]. Disponible sur: http://www.cairn.info/developpements-de-la-psychanalyse–9782130621270-page-274.htm
[7] A. Gibeault, “De la projection et de l’identification projective”, Rev. Fr. Psychanal., vol. 3, no 64, p. 723‑742, 2000.
[8] S. Tisseron, L’Emprise insidieuse des machines parlantes, Plus jamais seul. Les liens qui Libèrent, 2020.
[9] G. Airenti, “The Development of Anthropomorphism in Interaction: Intersubjectivity, Imagination, and Theory of Mind”, Front. Psychol., vol. 9, 2018, doi: 10.3389/fpsyg.2018.02136.
[10] V. André et Y. Boniface, “Quelques considérations interactionnelles autour d’une expérience robotique”, présenté à WACAI (Workshop sur les Affects, Compagnons Artificiels et Interactions), île de Porquerolles, juin 2018. Consulté le: 29 avril 2020. [En ligne]. Disponible sur: https://hal.archives-ouvertes.fr/hal-01862725/document
[11] G. Airenti, “Aux origines de l’anthropomorphisme. Intersubjectivité et théorie de l’esprit”, Gradhiva – Rev. Anthropol. Hist. Arts, no 15, Art. no 15, 2012, doi: 10.4000/gradhiva.2314.
[12] C. Nass, J. Steuer, et E. R. Tauber, “Computers are social actors”, in Proceedings of the SIGCHI conference on Human factors in computing systems, 1994, p. 72‑78.
[13] A. Gambino, J. Fox, et R. Ratan, “Building a Stronger CASA: Extending the Computers Are Social Actors Paradigm”, Hum.-Mach. Commun., vol. 1, p. 71‑86, févr. 2020, doi: 10.30658/hmc.1.5.
[14] B. J. Fogg, “Persuasive technology: using computers to change what we think and do”, Ubiquity, vol. 2002, no December, p. 2, 2002.
[15] H. Ali Mehenni, S. Kobylyanskaya, I. Vasilescu, et L. Devillers, “Nudges with Conversational Agents and Social Robots: A First Experiment with Children at a Primary School”, in Conversational Dialogue Systems for the Next Decade, Singapore: Springer, 2021, p. 257‑270. doi: 10.1007/978-981-15-8395-7_19.
[16] M. Jézéquel, “Neuromarketing : notre cerveau sous influence commerciale”, Gestion, vol. 42, no 2, p. 93‑93, sept. 2017.
[17] M. E. P. Seligman, “Positive Psychology, Positive Prevention, and Positive Therapy”, in Handbook of positive psychologie, Oxford University Press, 2002, p. 3‑7.
[18] D. Serra, Economie comportementale. Economica, 2017.
[19] R. H. Thaler et C. R. Sunstein, Nudge: improving decisions about health, wealth, and happiness. New Haven: Yale University Press, 2008.
[20] J. R. Whitson, “Gaming the quantified self», Surveill. Soc., vol. 11, no 1/2, p. 163‑176, 2013.
[21] A. Foulonneau, G. Calvary, et E. Villain, “Persuasive Context”, J. Interact. Pers.-Système, vol. Volume 9, Number 1, Special…, no Special Issue…, p. 7119, janv. 2021, doi: 10.46298/jips.7119.
[22] H. Baek, S. Kim, et S. Lee, “Effects of Interactivity and Usage Mode on User Experience in Chatbot Interface”, J. HCI Soc. Korea, vol. 14, no 1, p. 35‑43, févr. 2019, doi: 10.17210/jhsk.2019.02.14.1.35.
[23] J. Zhang, Y. J. Oh, P. Lange, Z. Yu, et Y. Fukuoka, “Artificial Intelligence Chatbot Behavior Change Model for Designing Artificial Intelligence Chatbots to Promote Physical Activity and a Healthy Diet: Viewpoint”, J. Med. Internet Res., vol. 22, no 9, p. e22845, 2020, doi: 10.2196/22845.
[24] C. Ischen, T. Araujo, G. van Noort, H. Voorveld, et E. Smit, “ “I Am Here to Assist You Today”: The Role of Entity, Interactivity and Experiential Perceptions in Chatbot Persuasion”, J. Broadcast. Electron. Media, vol. 64, no 4, p. 615‑639, oct. 2020, doi: 10.1080/08838151.2020.1834297.
[25] C. Benavent, Plateformes. Sites collaboratifs, marketplaces, réseaux sociaux… Comment ils influencent nos choix. FYP éditions, 2016.
[26] A. Grinbaum et al., “Agents conversationnels: Enjeux d’éthique”, Comité national pilote d’éthique du numérique ; CCNE, Paris, Rapport de recherche, nov. 2021. Consulté le: 26 novembre 2021. [En ligne]. Disponible sur: https://hal-cea.archives-ouvertes.fr/cea-03432785
[27] C. Nass et Y. Moon, “Machines and Mindlessness: Social Responses to Computers”, J. Soc. Issues, vol. 56, no 1, p. 81‑103, janv. 2000, doi: 10.1111/0022-4537.00153.
[28] L. Devillers, Les robots “émotionnels”, Edition de l’Observatoire / Humensis 2020. Paris, 2020.
[29] C. G. Jung, The Archetypes and the Collective Unconscious, 2ème ed. Routledge, 1991.
[30] E. G. Humbert, Jung. Editions universitaires, 1983.
[31] A. Agnel, M. Cazenave, C. Dorly, S. Krakowiak, M. Leterrier, et V. Thibaudier, Le vocabulaire de Jung. Paris: ellipses, 2011.
[32] C. G. Jung, Métamorphoses de l’âme et ses symboles, 1ère ed. Genève: Georg, 1973.
[33] K. Lorenz, Essais sur le comportement animal et humain. Paris: Seuil, 1970.
[34] D. Anzieu, “Le Moi-peau”, Nouv. Rev. Psychanal., vol. Le dehors et le dedans, no 9, p. 195‑208, 1974.
[35] J. Bowlby, “The Nature of the Child’s Tie to his Mother”, Int. J. Psychoanal., vol. 39, p. 350‑373, 1958.
[36] H. F. Harlow, “The nature of love”, Am. Psychol., vol. 13, no 12, p. 673‑685, 1958, doi: 10.1037/h0047884.
[37] M. D. S. Ainsworth, M. C. Blehar, E. Waters, et S. Wall, Patterns of attachment: A psychological study of the strange situation. Oxford, England: Lawrence Erlbaum, 1978, p. xviii, 391.
[38] E. Tronick, H. Als, L. Adamson, S. Wise, et T. B. Brazelton, “The Infant’s Response to Entrapment between Contradictory Messages in Face-to-Face Interaction”, J. Am. Acad. Child Psychiatry, vol. 17, no 1, p. 1‑13, déc. 1978, doi: 10.1016/S0002-7138(09)62273-1.
[39] D. Anzieu, Le Moi-peau, 3ème ed. Paris: Dunod, 2006.
[40] F. Varela, Autonomie et connaissance. Essai sur le vivant. Paris: Le Seuil, 1989.
[41] M. Mori, “The Uncanny Valley”, Energy, vol. 7, no 4, p. 33‑35, 1970.
[42] P. Vermersch et M. Maurel, Pratiques de l’entretien d’explicitation, ESF. Paris: ESF, 1997.
[43] P. Kéradec et H. Kéradec, “L’entretien d’explicitation”, Econ. Manag., no 169, 2018.