En poursuivant votre navigation sur ce site, sans modifier le paramétrage de vos cookies, vous acceptez l’utilisation de cookies nous permettant de réaliser des statistiques de visite.
En savoir plus

En ce moment

Podcast – Des interfaces de plus en plus intuitives : entretien croisé avec James Auger et Albert Moukheiber


L’enjeu se situe au niveau de l’éducation du grand public afin de susciter le débat autour de ces nouvelles technologies intuitives.


Biais cognitifs, postulats implicites et spécificités culturelles locales, effets d’amalgame, attention continue, répétition, effets de groupe, aversion au risque… La modélisation et l’intégration de nos comportements dans le design de nos interactions avec les machines de plus en plus connectées permettent désormais de créer des interfaces particulièrement intuitives. James Auger, designer et professeur associé au Madeira Institute of Interactive Technologies (M-ITI), et Albert Moukheiber, chercheur en neurosciences cognitives, psychologue clinicien et co-fondateur de l’association Chiasma pour la pensée critique, échangent sur les enjeux et les défis que sous-tendent des interactions homme-machine a priori intuitives, mais qui ne sont en réalité pas neutres.

Écouter le podcast

Design d’interfaces et biais cognitifs

Albert Moukheiber : Longtemps nous avons cru que nous étions des individus rationnels. Nous savons désormais que nous sommes aussi et surtout des êtres irrationnels. Or cela peut être prédictible, plus que par le passé, grâce notamment aux données dont nous disposons aujourd’hui.

James Auger : J’ai un point de vue de designer produit et je développe des produits qui questionnent justement nos comportements en matière d’applications et d’appareils « intuitifs » (les smartphones, les enceintes intelligentes comme Echo ou Google Home, par exemple). La question est de savoir comment nous interagissons avec des objets qui s’appuient sur une forme de prédiction de nos comportements.

Exploration et compréhension de nos biais cognitifs

J.A. : Prenons un exemple historique, celui d’Henry II d’Angleterre en conflit avec Thomas Beckett, l’archevêque de Cantorbéry. Sa célèbre phrase « N’y aura-t-il personne pour me débarrasser de ce prêtre turbulent ? » fut interprétée par quatre de ses chevaliers comme une incitation à l’assassinat de Beckett. Était-ce une bonne ou mauvaise interprétation de ses propos ? On ne le saura jamais. Il est intéressant de comparer cet événement du passé avec une histoire plus récente qui a eu lieu en 2017 dans le Minnesota aux États-Unis : un jeune homme avait accidentellement commandé une poupée au prix très élevé via son assistant vocal Alexa d’Amazon. En racontant cette mésaventure à la radio locale et en utilisant bien sûr le mot « Alexa », un présentateur a déclenché une flopée de commandes du jouet en question. Les assistants vocaux de nombreux auditeurs étant allumés lors de la diffusion de l’émission, ils ont procédé automatiquement à la commande de la poupée. Comme pour Henry II, mais dans un tout autre contexte évidemment, nous voilà confrontés à un problème d’interprétation.

A.M. : Ces exemples illustrent parfaitement la manière dont nous interprétons la réalité en fonction de nos priorités et de nos croyances. Mais il ne faut pas oublier que la plupart du temps, nos biais cognitifs ont aussi du bon. Ils sont le résultat de notre évolution depuis l’âge des cavernes et le fruit d’arbitrages pour notre survie. Mais aujourd’hui, les interactions entre individus, bien plus nombreuses que par le passé compte tenu de la mondialisation et des nouvelles technologies, complexifient considérablement les interprétations que nous pouvons en faire.

Les interfaces intuitives dans cinq à dix ans

J.A. : La récente affaire de Cambridge Analytica, qui a exploité les données de millions d’utilisateurs de Facebook sans leur accord, pose la question fondamentale de savoir qui contrôle ces données et dans quel but. En fait, les gens ne savent pas ce qu’il y a dans la boîte. La collecte, la gestion et l’exploitation de la data, tout cela reste un grand mystère. L’enjeu se situe donc au niveau de l’éducation et de la sensibilisation du grand public afin de susciter justement le débat autour de ces nouvelles technologies intuitives.

A.M. : La technologie n’apporte que des opportunités, mais sûrement pas des réponses morales. Le combat à mener ne se situe donc pas au niveau de la technologie, mais au niveau politique pour favoriser l’open data et un contrôle éclairé et indépendant de son utilisation. Il est impossible de nous débarrasser de nos biais cognitifs. L’intelligence artificielle, les nouvelles interfaces intuitives qui les utilisent doivent donc être maîtrisées et considérées comme des outils pouvant nous apporter des solutions positives à divers problèmes, que ce soit en termes de santé, de sécurité, de prévisions des catastrophes naturelles…

« Reclaim the means, stop obsessing with the ends »

J.A. : Cette phrase que j’utilise dans mon manifeste pour une redéfinition du design peut être résumée à travers un exemple donné par le philosophe Albert Borgmann. Il fait le parallèle entre l’âtre d’une maison, que l’on alimentait dans l’ancien temps en allant couper du bois que l’on stockait et gérait en fonction de ses besoins en chauffage, cuisine, etc., et les systèmes actuels de chauffage central où il suffit d’actionner un bouton pour se chauffer sans rien connaître des étapes nécessaires à leur fonctionnement. Cela interroge directement les dernières évolutions technologiques, par exemple en matière d’automation. Tout le travail que je réalise, à travers le développement d’artefacts notamment liés à l’électricité et l’énergie, questionne le processus de conception des produits et notre mode de consommation : en particulier notre façon de considérer les objets uniquement pour leurs fins et non plus en fonction des moyens qui les font exister.

A.M. : Là encore, tout est question d’éducation. Il existe certes toujours un fossé entre le système éducatif et l’évolution des technologies, mais déjà aujourd’hui, l’apprentissage des enjeux de tous ces nouveaux outils auprès des plus jeunes permet de mieux comprendre ce qui se passe derrière tels appareils, applications ou logiciels. Le problème n’est pas la technologie, mais bien sa compréhension et sa maîtrise.

Intelligence artificielle et irrationalité

A.M. : Au début des travaux sur l’intelligence artificielle, on essayait de concevoir des logiciels aussi rationnels que possible. Mais depuis quelque temps, on assiste à un mouvement qui essaie plutôt de coder nos propres biais cognitifs en intégrant une forme d’approximation. La question est : voulons-nous créer des machines qui nous ressemblent ou qui sont complètement différentes de nous ?

J.A. : Je choisis définitivement la seconde option. Pourquoi aurions-nous besoin de créer des robots humanisés ? La machine à laver, sorte de proto-robot en quelque sorte, n’a pas la forme d’un être humain allant laver son linge au bord de la rivière… Cette vision humanisée des robots est bonne sans doute pour la publicité ou pour attirer des investisseurs, mais la vraie question reste : pourquoi voulons-nous de ces machines dans notre vie ?

POUR EN SAVOIR PLUS sur la gestion de nos comportements, et particulièrement de nos biais cognitifs dans les interfaces d’hier et d’aujourd’hui, découvrez notre timeline résumant vingt ans de mécanismes de gestion de l’attention dans les interfaces numériques.


L’enjeu se situe au niveau de l’éducation du grand public afin de susciter le débat autour de ces nouvelles technologies intuitives.


Mots-clés :

, , , , , , , , , , ,