À la voix et à l’œil : le son est-il l’avenir du numérique ?

Avec la multiplication des objets intelligents et le développement des assistants numériques personnels, le futur intégrera davantage le son dans les interfaces homme-machine. L’enjeu ? Rendre toujours plus naturel l’usage des technologies. C’est ce qu’explique Antoine Châron, cofondateur de Sound To Sight, une agence de design sonore qui travaille sur les véhicules intelligents et les objets connectés.

“ Le design sonore est en train de prendre une place centrale dans les interfaces homme-machine. “

La vue est aujourd’hui le sens le plus mobilisé dans nos interactions avec les outils numériques. Mais avec la montée en puissance des objets connectés, la commande vocale et les sons prennent de plus en plus de place dans les interfaces homme-machine. Peut-on parler d’un changement de paradigme ?

Il devient de plus en plus naturel de parler avec des objets, mais beaucoup des sons que ceux-ci émettent restent accidentels, générés par défaut, similaires et médiocres, produits par des haut-parleurs bas de gamme. Mais les objets connectés nous forcent à innover, car ils n’ont souvent pas d’interface graphique : la seule façon de communiquer avec eux est d’aller dans son téléphone pour chercher l’information. Le travail des designers est donc de proposer des sons qui évitent d’avoir à dégainer son téléphone, avec une “ grammaire “ de sons pensés pour arriver juste au bon moment.

Une “ grammaire de sons “ ? Qu’entendez-vous par là ?

Ces émoticônes sonores, qu’on appelle aussi earcones , doivent être cohérentes entre elles, car, pour associer un son à un objet, on doit pouvoir l’identifier dans une famille sonore qui lui est propre. Elles doivent aussi être très imagées pour qu’on sache ce que l’objet veut signifier, et cohérentes dans le contexte où on l’entend. Dans une voiture intelligente, par exemple, si je choisis un son très long pour dire  arrêtez-vous , le conducteur ne va pas comprendre ‒ alors qu’un son sec et abrupt le fera réagir immédiatement. Autre exemple : avec Netatmo (une start-up spécialisée dans la maison connectée, NDLR), on s’est creusé la tête pour trouver un son qui annonce que quelqu’un est entré. Il fallait que la notification soit marquante, mais sans forcément alerter l’utilisateur, car le détecteur de présence ne sait pas si la personne est un ami ou un intrus. Nous avons donc choisi un son à connotation interrogative.

Quel est l’enjeu de ces “ earcones “ pour les objets connectés ?

Ne pas avoir besoin de regarder un écran est parfois un enjeu de sécurité. Dans le cas d’un assistant de conduite branché sur la voiture, le langage sonore est ce qui permet de garder les yeux sur la route. Or il reste beaucoup à faire dans ce domaine. On voit par exemple des véhicules très intelligents dotés d’un même son pour plusieurs cas d’usage, comme une détection d’obstacle dans l’angle mort et un véhicule qui freine brusquement à l’avant. Si vous conduisez de façon distraite, avec ce son générique, vous n’avez aucun moyen de savoir ce qui se passe, ce qui peut être dangereux. L’enjeu est donc d’associer un son pertinent à chaque fonction importante. Si c’est un ralentissement qui est demandé, le son sera plutôt descendant ; si c’est une notification générique, on aura un son pop-up , plutôt montant.

Pour les constructeurs, c’est aussi un enjeu d’identité de marque…

Oui. Ils sont demandeurs de sons non seulement efficaces, mais aussi compatibles avec leur univers de marque. En travaillant avec McLaren sur un véhicule pour le Salon de Genève, on s’est aperçu que la quasi-totalité des concurrents diffusent le même type de sons ‒ y compris dans les voitures haut de gamme. Or le cerveau fait la synthèse de tous les sens pour produire une impression, et si on a des sons trop basiques, on déprécie le produit. Notre enjeu est donc de proposer des sons à la fois ergonomiques, esthétiques, cohérents avec le véhicule et reconnaissables pour devenir une signature de marque.

Comment produisez-vous ces sons imagés ?

Des tests utilisateurs nous permettent de catégoriser et classer les sons pour les utiliser à bon escient. Au cours de cette phase d’analyse, on utilise beaucoup la synesthésie, c’est-à-dire des images pour décrire un son. Une fois qu’on a trouvé notre vocabulaire, on peut passer à la phase esthétique : par exemple, un son bref en deux temps pourra avoir le même effet, mais pas la même esthétique, si l’on entend plutôt ploum-ploum  ou tchak-tchak . Le travail du designer mélange ainsi des choses aussi variées que l’esthétique, l’image de marque, l’ergonomie, mais aussi la psychologie ou encore l’analyse fondamentale.

Quelles sont les technologies nouvelles derrière ces innovations ?

Par exemple, la Wave Field Synthesis (WFS), qui permet de créer des hologrammes sonores. C’est une technologie assez chère, donc encore peu utilisée en dehors de concerts de musique expérimentale. Nous l’avons testée avec un constructeur allemand sur un habitacle doté de sons spatialisés. Nous avons pu créer un mouvement des sons dans l’espace : vous êtes en train de conduire et vous regardez devant vous, il n’y a donc pas de raison que l’avertisseur d’angle mort vienne de votre tableau de bord. On a donc imaginé un son qui partait de l’avant de l’habitacle et se déplaçait vers la gauche ou la droite pour guider l’attention du conducteur.

De même, pour un avertisseur d’embouteillage, nous avons pu, grâce à cette technologie en trois dimensions, imaginer un son qui partait de très loin et se rapprochait du conducteur en s’écartant pour suggérer le ralentissement. Le son spatialisé est encore peu développé, mais la technologie WFS permet de créer des sons qui sont localisés par tous les usagers d’un habitacle au même endroit. Un processus d’annulation de phases et de délais entre plusieurs haut-parleurs offre cette sensation, qui est très intéressante dans l’automobile.

D’autres exemples ?

Il y en a beaucoup ! Parmi les technologies prometteuses : le pot vibrant, un haut-parleur qui n’a pas de membrane, que l’on colle derrière un objet et qui utilise la matière pour émettre le son. Avec Otis, nous avons imaginé une cabine sonore à l’ambiance immersive pour lutter contre la peur de l’ascenseur  : en intégrant des pots vibrants sur toutes les surfaces d’un ascenseur et en diffusant des sons avec beaucoup de réverbérations, on donne l’impression que l’espace est beaucoup plus grand.

Ce son spatialisé peut-il trouver sa place dans la maison connectée ?

Actuellement, c’est l’industrie du jeu vidéo qui exploite le plus ces technologies. Mais on le voit, il y a des usages prometteurs dans la vie de tous les jours : on peut imaginer dans l’avenir une signalétique spatialisée, ou une voix qui vous suit dans la maison. Dans le cadre d’un événement avec la SNCF, nous avons utilisé des antennes paramétriques, que l’on appelle aussi canons à son  : avec ces haut-parleurs ultradirectionnels, nous avons pu transmettre dans un endroit précis des informations qui n’étaient pas entendues en dehors du périmètre, pour proposer un guidage bilingue dans l’espace avec un marquage au sol propre à chaque langue. Mais cette technologie est encore volumineuse, un peu chère et la qualité audio reste assez médiocre.

Une expérience similaire est à chercher dans la technologie binaurale, qui offre une expérience personnelle de représentation 3D de l’espace sonore via un casque sur les oreilles. Pour le guidage des malvoyants par exemple, on peut imaginer un son qui se déplace en même temps que la personne, y compris dans la rue pour l’aider à identifier un flux de trafic ou un arrêt de bus. Les personnes handicapées et les seniors sont d’ailleurs les premiers à profiter de ces innovations autour du son. Pour favoriser leur indépendance, notre projet de fin d’études installait une interface homme-machine sonore avec un contrôle vocal dans leur cuisine. L’utilisateur pouvait dire  je cherche les assiettes  et le placard sonnait. Ce sont parfois des technologies qui existent depuis longtemps, mais qui peuvent vraiment prendre leur place dans tous les signaux sonores qu’on a besoin de transmettre aujourd’hui.

A lire aussi sur Hello Future

Le dispositif biosymbiotique mis au point par Phillip Gutruf et ses collaborateurs se recharge sans fil. Avec l’aimable autorisation de Max Farley et Tucker Stuart The biosymbiotic device developed by Phillip Gutruf and his collaborators charges wirelessly. Courtesy of Max Farley and Tucker Stuart

Fracture numérique : des objets connectés basés sur LoRa pour améliorer le suivi

Découvrir
GettyImages - odorat numérique - digital nose

IoT : après la vision, voici l’odorat numérique

Découvrir

Applications et wearables de santé : les impacts sur l’écosystème et les pratiques médicales

Découvrir

La course pour sécuriser les objets connectés

Découvrir