Le besoin
La solution
Ils peuvent vous aider

Le besoin

Mettre en place des outils de contrôle de conformité

Le domaine des assurances est un secteur très réglementé. Chaque vente se doit donc de respecter les conditions préalablement définies par la loi. Pour cela, il existe plusieurs organismes de contrôle en charge de la protection des consommateurs, des données à caractère personnel ou encore du respect des bonnes pratiques commerciales.

La Commission Nationale de l’Informatique et des Libertés (CNIL) est par exemple chargée de veiller à la protection des données personnelles. En 2019, elle s’associe à la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), l’autorité chargée de la protection des consommateurs, afin de renforcer leur coopération et adapter leurs mesures aux nouveaux enjeux numériques.

L’Autorité de Contrôle Prudentiel de et Résolution (ACPR) supervise quant à elle plus spécifiquement les domaines de la banque et de l’assurance. Elle publie régulièrement des recommandations qui favorisent la protection du consommateur. Celles-ci sont assez techniques et spécifiques, ce qui illustre bien la complexité pour ces acteurs de veiller à la conformité des ventes et de la relation client par rapport au contexte réglementaire.

Par ailleurs, au-delà des contraintes liées à la réglementation, le secteur de l’assurance privilégie souvent le téléphone comme moyen de contact afin de concrétiser des ventes, ce qui crée un grand volume de données à analyser afin d’en vérifier la conformité. Ces appels sont enregistrés et les réécouter un à un demande un temps considérable. De plus, la qualité de contrôle est amoindrie si plusieurs personnes annotent ces données, chacune à leur manière.

Ainsi, j’ai besoin d’une machine qui applique des règles avec une vision rétroactive et de manière homogène et rigoureuse, avec un suivi dans le temps afin de pouvoir étudier l’évolution des données récoltées.

Comment puis-je faire pour mettre en place une telle solution automatisée et facile à utiliser au quotidien ?

La solution

Un outil d'analyse de retranscription audio intégré dans un dashboard

Pour répondre à ce besoin, il faut une solution qui puisse répondre à plusieurs enjeux fonctionnels :

  • gérer de gros volumes de données en traitant plusieurs milliers d’heures d’appels par jour,
  • détecter parmi toutes ces conversations les passages qui concernent l’évocation des droits du consommateur,
  • détecter le potentiel mécontentement du client lors de ces échanges,
  • disposer d’un outil rapide et efficace, mais aussi facile d’utilisation.

Reconnaissance vocale et transcription automatique

De manière générale, il est plus facile de travailler sur des données textuelles mais retranscrire tous les appels manuellement demanderait un travail colossal, inenvisageable à l’échelle de milliers de conversations téléphoniques. La première étape consiste donc à transformer ces données en texte écrit afin d’en faciliter l’analyse.

Le Speech-to-text est une technologie de reconnaissance vocale qui permet justement de transformer un contenu audio (appels téléphoniques, par exemple) en texte écrit, et ce, de manière automatisée. Cette technologie appartient au domaine du traitement automatique des langues (TAL).

Dans un premier temps, le système de reconnaissance vocale découpe l’enregistrement de l’appel en courts échantillons qui sont associés à des phonèmes ou à des unités de prononciation. Le modèle est ensuite entraîné sur des corpus (textes ou mots isolés) afin de pouvoir détecter les mots ou phrases prononcés dans les échantillons avec le plus de précision possible. Il est important d’avoir une transcription de qualité sinon la capacité d’indexation est diminuée et les performances seront réduites.

Dans le secteur des assurances, il existe des noms de produits spécifiques et, si l’un d’eux n’est pas présent dans le corpus utilisé pour l’entraînement, il va y avoir une erreur systématique car il ne sera pas détecté et donc retranscrit correctement.

Ainsi, il est important d’intégrer du vocabulaire métier : ce qui est mal orthographié peut alors être corrigé afin d’être mieux détecté par la suite. L’ajout de ce vocabulaire doit pouvoir se faire sans relancer une phase d’ingénierie afin de gagner en efficacité.

L’indexation des données permettra ensuite à l’utilisateur d’effectuer une recherche de termes qui se trouvent dans les transcriptions.

Détection de la frustration

Une fois ces données transcrites et facilement exploitables, il est possible de vérifier que les droits du consommateur (par exemple le droit de rétraction et le délai en vigueur) ont bien été stipulés verbalement à l’interlocuteur avant de conclure une vente. Au-delà de la recherche de termes ou d’expressions spécifiques qui pourraient témoigner des bonnes pratiques appliquées ou non par le commercial, il peut aussi être pertinent de s’intéresser à ce qui se dégage de ces conversations téléphoniques et notamment au ressenti du client lors de ces appels.

En effet, dans le cadre d’une vente, le processus doit être fluide et il ne doit pas y avoir d’irritants liés à la vente du produit, au prix ou encore aux garanties. Pour garantir le succès du discours de vente, il est important de prioriser et quantifier ces irritants, et ce, avec un suivi dans le temps afin de pouvoir constater leur évolution.

L’analyse de sentiment va permettre de détecter la frustration ou le mécontentement des clients en analysant le ton de la voix ainsi que les termes employés. Un changement d’intonation et de rythme dans le débit de paroles va permettre de mettre en lumière un potentiel problème lors de l’échange entre le commercial et le client. En effet, cela peut révéler les sentiments ou l’humeur du client.

Pour mettre en place ce type de détection émotionnelle, il faut donc entrainer un modèle d’intelligence artificielle capable de labelliser automatiquement le sentiment du client, non pas de manière globale sur la totalité de l’appel, mais plutôt à chaque fois qu’il prend la parole, afin d’observer si ce sentiment évolue au fil de l’échange et se conclut de manière positive au moment de raccrocher. Cela permet ainsi d’analyser précisément chaque tronçon de conversation où la frustration est détectée afin d’en détecter les irritants et de pouvoir, par la suite, les pondérer.

L’analyse de sentiment appliquée à la fois aux enregistrements vocaux et à leurs transcriptions à l’écrit permet donc d’aller au-delà d’une simple analyse textuelle en prenant aussi en compte le ton employé par chacun des interlocuteurs lors de l’échange.

Réactivité

Le contexte réglementaire décrit précédemment impose également une certaine proactivité. L'automatisation de la détection de non conformité associée à la capacité à notifier en temps réel les responsables (qualité, manager…) permet ainsi d’agir auprès des agents (formation, coaching…) sans attendre des écoutes humaines ou pire : le contrôle d’une autorité.

Visualisation des données

Toutes les données collectées - que ce soit les conversations téléphoniques ou bien leurs transcriptions écrites - ainsi que les traitements appliqués à chacune d’elles forment un tout assez complexe à appréhender pour quelqu’un qui ne maitrise pas l’analyse de données. L’objectif est donc d’obtenir une vision concrète des données sans avoir besoin d’être statisticien.

Pour cela, des outils de visualisation de données peuvent permettre d’en faciliter la compréhension. Les données et les métriques peuvent être intégrées dans un dashboard ergonomique afin de rendre l’ensemble du processus plus facile à appréhender et visualiser.

Points d'attention

L’une des problématiques souvent rattachées au traitement automatique des langues est la souveraineté des données : il faut essayer de faire en sorte que les données ne sortent pas du pays, en utilisant un outil français si l’utilisateur est français, par exemple.

De manière générale, il faut rester en adéquation avec le contexte réglementaire européen, en faisant notamment attention à ce que les données que l’on souhaite exploiter soient bien en accord avec la protection des données décrite dans le Règlement Général sur la Protection des Données (RGPD).

Pour finir, les résultats obtenus dépendront en grande partie de la qualité de la retranscription des contenus vocaux, autrement dit, de la solution Speech-to-text. Avec l’avènement du machine learning, cette technologie a fait de grands progrès ces dernières années mais reste néanmoins dépendante de la qualité des données utilisées.

Par Angeline Lacassagne
Linguiste informaticienne