En ce moment

Progrès de l’analyse sémantique de la voix des clients


“Une approche généraliste et en lien étroit avec les travaux de recherche afin d’introduire de nouvelles fonctionnalités”


Sur le même sujet

Sans que beaucoup d’utilisateurs le réalisent, les technologies d’ingénierie linguistique font fonctionner de nombreuses applications au sein des moteurs de recherche, des chatbots, des forums, etc. Pour traiter le langage et la parole, elles combinent des domaines tels que la syntaxe ou la sémantique, laquelle constitue un champ de recherche en progrès continu pour offrir une compréhension toujours plus affinée du sens.

Le traitement automatique du langage naturel est un domaine de recherche pérenne pour Orange, qui mène des travaux depuis de nombreuses années sur ces sujets. L’application de ces travaux à la Relation Client s’est peu à peu structurée pour aboutir à des solutions industrialisées. Elles permettent notamment d’exploiter une source de données riche et complexe à appréhender : les retours et commentaires libres de clients en réponse à des questions ouvertes issus de sondages.

Un outil industrialisé et multi-usages…

Comment prendre en compte, passer en revue et analyser des milliers de verbatims qui, pour certains, peuvent être formulés de façons et avec des mots différents, mais avoir un sens identique au final ? Face à ce besoin, un outil ad hoc a été élaboré à partir de technologies de traitement automatique du langage naturel (TALN), à des fins de classification, d’extraction de mots-clés ou encore de text mining. Celui-ci a évolué jusqu’à devenir aujourd’hui un produit industriel, déployé et mis en œuvre pour des sondages menés par Orange, les commentaires dans les magasins d’applications et pour d’autres besoins ponctuels.
Là où la plupart des produits du marché sont ciblés sur des applications spécifiques, le programme SEMAfor d’Orange déploie des produits selon une approche généraliste et en lien étroit avec les travaux de recherche afin d’introduire de nouvelles fonctionnalités. Ce système dédié à la compréhension de la voix du client (et, ponctuellement, à celle des collaborateurs à l’occasion de sondages internes), aborde trois axes principaux : la classification/catégorisation automatique des verbatims, leur regroupement thématique, l’extraction d’informations clés. Sa mise en œuvre implique plusieurs types de traitement. S’agissant de catégorisation notamment, l’outil utilise des algorithmes de machine learning qui, à partir d’exemples annotés à la main, apprennent automatiquement à classer de nouveaux verbatims. En complément, pour une catégorisation plus fine et à la demande, des approches par règles conçues par des experts ou à la main des utilisateurs, permettent de construire des tableaux de bord affinés et sur mesure. 

… et une recherche qui continue de progresser : opinions et multilingue

Progressivement, de nouvelles briques, telles qu’EVA ou Simbow, sont conçues et implémentées pour étoffer et enrichir les capacités d’analyse dans le domaine et les travaux de recherche en analyse sémantique continuent à faire progresser le niveau de compréhension du langage.
Dernièrement, deux évolutions significatives ont été développées. Sur le plan de la classification des opinions au sein d’une phrase d’abord, Géraldine Damnati, Delphine Charlet, ingénieures de recherche, et Jean-Luc Platier, chef de projet Data & AI, expliquent : “La plupart des outils actuels proposent une analyse en sentiments polarisée, sans pouvoir en déterminer la source. Par exemple, dans le verbatim “technicien très compétent mais malgré mes appels délai d’intervention trop long”, un outil classique relèvera une opinion mitigée, sans plus de détails. Avec les produits du programme SEMAfor, nous pouvons aller plus finement dans la nature et la cible des opinions. A l’aide d’algorithmes fondés sur du Deep Learning, le système peut scanner la phrase, en extraire les opinions et identifier précisément les mots sur lesquelles elles portent : une opinion positive sur le technicien et une opinion négative sur le délai d’intervention.”

L’aspect multilingue est un autre terrain sur lequel le traitement du langage a considérablement progressé ces dernières années. Avec la mise au point de nouveaux modèles à base de réseaux de neurones, l’IA est désormais capable d’apprendre des représentations multi-langues. “L’un des premiers modèles de ce type à avoir été popularisé, en 2018, est le modèle BERT de Google. Jusqu’alors, si l’on voulait traiter une nouvelle langue, il fallait repartir de zéro ou bien réaliser une traduction des verbatims avant de lui appliquer le modèle existant. Les nouveaux modèles bénéficient quant à eux d’espaces de projection mathématiques multilingues, permettant de shunter cette phase et de gagner un temps considérable.” Et voilà comment une machine entraînée initialement en français pourra être employée pour offrir un premier niveau d’analyse  de textes en espagnol, polonais, etc. On peut également envisager de mutualiser les apprentissages en alimentant une même machine avec des données issues de plusieurs langues.

D’autres “écueils” à l’horizon

Derrière tous ces progrès se cachent toutefois des problématiques toujours ouvertes dans la compréhension du langage. “Une montée en gamme majeure a été opérée avec les modèles neuronaux de dernière génération sur plusieurs points. La polysémie est l’un d’entre eux : il est aujourd’hui possible de mieux prendre en compte le contexte d’utilisation d’un mot à plusieurs sens pour le caractériser. Mais certains écueils demeurent, comme le sens commun par exemple. Beaucoup de choses sont naturellement compréhensibles par l’homme du fait de connaissances implicites, mais que les machines ne possèdent pas.”

L’apprentissage ne fait que commencer…


“Une approche généraliste et en lien étroit avec les travaux de recherche afin d’introduire de nouvelles fonctionnalités”


Sur le même sujet

Mots-clés :

, , ,