Contrôler la conformité du discours de vente dans le domaine de l'assurance

|

|

Le besoin
La solution
Ils peuvent vous aider

Le besoin

Mettre en place des outils de contrôle de conformité

Le domaine des assurances est un secteur très réglementé. Chaque vente se doit donc de respecter les conditions préalablement définies par la loi. Pour cela, il existe plusieurs organismes de contrôle en charge de la protection des consommateurs, des données à caractère personnel ou encore du respect des bonnes pratiques commerciales.

La Commission Nationale de l’Informatique et des Libertés (CNIL) est par exemple chargée de veiller à la protection des données personnelles. En 2019, elle s’associe à la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), l’autorité chargée de la protection des consommateurs, afin de renforcer leur coopération et adapter leurs mesures aux nouveaux enjeux numériques. Leur nouveau protocole a pour objectifs de :

  • mieux sensibiliser les consommateurs aux risques encourus lors de la communication de leurs données personnelles et diffuser les bonnes pratiques,
  • faciliter l’échange d’informations relatives au non-respect du droit de la consommation de la protection des données personnelles des consommateurs,
  • réaliser des contrôles communs et mutualiser leurs outils d’enquête,
  • porter conjointement des propositions d’actions au niveau européen.

L’Autorité de Contrôle Prudentiel de et Résolution (ACPR) supervise quant à elle plus spécifiquement les domaines de la banque et de l’assurance. Elle publie régulièrement des recommandations qui favorisent la protection du consommateur. Celles-ci sont assez techniques et spécifiques, ce qui illustre bien la complexité pour ces acteurs de veiller à la conformité des ventes et de la relation client par rapport au contexte réglementaire.

Par ailleurs, au-delà des contraintes liées à la réglementation, le secteur de l’assurance privilégie souvent le téléphone comme moyen de contact afin de concrétiser des ventes, ce qui crée un grand volume de données à analyser afin d’en vérifier la conformité. Ces appels sont enregistrés et les réécouter un à un demande un temps considérable, sans parler de la vision biaisée de ceux qui contrôlent ces données. De plus, la qualité de contrôle est amoindrie si plusieurs personnes annotent ces données, chacune à leur manière.

Ainsi, j’ai besoin d’une machine qui applique des règles avec une vision rétroactive et de manière homogène et rigoureuse, avec un suivi dans le temps afin de pouvoir étudier l’évolution des données récoltées.

Comment puis-je faire pour mettre en place une telle solution automatisée et facile à utiliser au quotidien ?

La solution

Un outil d'analyse de retranscription audio intégré dans un dashboard

Pour répondre à ce besoin, il faut une solution qui puisse répondre à plusieurs enjeux fonctionnels :

  • gérer de gros volumes données en traitant plusieurs milliers d’heures d’appels par jour,
  • détecter parmi toutes ces conversations les passages qui concernent l’évocation des droits du consommateur,
  • détecter le potentiel mécontentement du client lors de ces échanges,
  • disposer d’un outil rapide et efficace, mais aussi facile d’utilisation.

Reconnaissance vocale et transcription automatique

De manière générale, il est plus facile de travailler sur des données textuelles mais retranscrire tous les appels manuellement demanderait un travail colossal, inenvisageable à l’échelle de milliers de conversations téléphoniques. La première étape consiste donc à transformer ces données en texte écrit afin d’en faciliter l’analyse.

Le Speech-to-text est une technologie de reconnaissance vocale qui permet justement de transformer un contenu audio (appels téléphoniques, par exemple) en texte écrit, et ce, de manière automatisée. Cette technologie appartient au domaine du traitement automatique des langues (TAL).

Dans un premier temps, le système de reconnaissance vocale découpe l’enregistrement de l’appel en courts échantillons qui sont associés à des phonèmes ou à des unités de prononciation. Le modèle est ensuite entrainé sur des corpus (textes ou mots isolés) afin de pouvoir détecter les mots ou phrases prononcés dans les échantillons avec le plus de précision possible. Il est important d’avoir une transcription de qualité sinon la capacité d’indexation est diminuée et les performances seront réduites.

Dans le secteur des assurances, il existe des noms de produits spécifiques et, si l’un d’eux n’est pas présent dans le corpus utilisé pour l’entraînement, il va y avoir une erreur systématique car il ne sera pas détecté et donc retranscrit correctement.

Ainsi, il est important d’y intégrer du vocabulaire métier : ce qui est mal orthographié peut alors être corrigé afin d’être mieux détecté par la suite. L’ajout de ce vocabulaire doit pouvoir se faire sans relancer une phase d’ingénierie afin de gagner en efficacité.

L’indexation des données permettra ensuite à l’utilisateur d’effectuer une recherche de termes qui se trouvent dans les transcriptions.

Détection de la frustration

Une fois ces données transcrites et facilement exploitables, il est possible de vérifier que les droits du consommateur (par exemple le droit de rétraction et le délai en vigueur) ont bien été stipulés verbalement à l’interlocuteur avant de conclure une vente. Au-delà de la recherche de termes ou d’expressions spécifiques qui pourraient témoigner des bonnes pratiques appliquées ou non par le commercial, il peut aussi être pertinent de s’intéresser à ce qui se dégage de ces conversations téléphoniques et notamment au ressenti du client lors de ces appels.

En effet, dans le cadre d’une vente, le processus doit être fluide et il ne doit pas y avoir d’irritants liés à la vente du produit, au prix ou encore aux garanties. Pour garantir le succès du discours de vente, il est important de prioriser et quantifier ces irritants, et ce, avec un suivi dans le temps afin de pouvoir constater leur évolution.

L’analyse de sentiment va permettre de détecter la frustration ou le mécontentement des clients en analysant le ton de la voix ainsi que les termes employés. Un changement d’intonation et de rythme dans le débit de paroles va permettre de mettre en lumière un potentiel problème lors de l’échange entre le commercial et le client. En effet, un changement d’intonation peut facilement révéler les sentiments ou l’humeur du client.

Pour mettre en place ce type de détection émotionnelle, il faut donc entrainer un modèle d’intelligence artificielle capable de labelliser automatiquement le sentiment du client, non pas de manière globale sur la totalité de l’appel, mais plutôt à chaque fois qu’il prend la parole, afin d’observer si ce sentiment évolue au fil de l’échange et se conclut de manière positive au moment de raccrocher. Cela permet ainsi d’analyser précisément chaque tronçon de conversation où la frustration est détectée afin d’en détecter les irritants et de pouvoir, par la suite, les pondérer.

L’analyse de sentiment appliquée à la fois aux enregistrements vocaux et à leurs transcriptions à l’écrit permet donc d’aller au-delà d’une simple analyse textuelle en prenant aussi en compte le ton employé par chacun des interlocuteurs lors de l’échange.

Visualisation des données

Toutes les données collectées - que ce soit les conversations téléphoniques ou bien leurs transcriptions écrites - ainsi que les traitements appliqués à chacune d’elles forment un tout assez complexe à appréhender pour quelqu’un qui ne maitrise pas l’analyse de données. L’objectif est donc d’obtenir une vision concrète des données sans avoir besoin d’être statisticien.

Pour cela, des outils de visualisation de données peuvent permettre d’en faciliter la compréhension. Les données et les métriques peuvent être intégrées dans un dashboard ergonomique afin de rendre l’ensemble du processus plus facile à appréhender et visualiser.

Points d'attention

L’une des problématiques souvent rattachées au traitement automatique des langues est la souveraineté des données : il faut essayer de faire en sorte que les données ne sortent pas du pays, en utilisant un outil français si l’utilisateur est français, par exemple.

De manière générale, il faut rester en adéquation avec le contexte réglementaire européen, en faisant notamment attention à ce que les données que l’on souhaite exploiter soient bien en accord avec la protection des données décrite dans le Règlement Général sur la Protection des Données (RGPD).

Pour finir, les résultats obtenus dépendront en grande partie de la qualité de la retranscription des contenus vocaux, autrement dit, de la solution Speech-to-text. Avec l’avènement du machine learning, cette technologie a fait de grands progrès ces dernières années mais reste néanmoins dépendante de la qualité du corpus d’entrainement et du vocabulaire métier associé.

Par Angeline Lacassagne
Linguiste informaticienne

Ils peuvent vous aider

Demande de mise en relation concernant l'étude de cas Contrôler la conformité du discours de vente dans le domaine de l’assurance
Veuillez recopier le texte ci-dessous afin de pouvoir envoyer votre message. Attention aux majuscules !
 
Lingua Custodia est une Fintech leader du Traitement Automatique des Langues (TAL) pour la Finance basée en France et au Luxembourg. Elle a développé son expertise avec une offre pointue de traduction automatique spécialisée par type de document financier. La société propose aujourd'hui également des services de transcription automatique, des services d'analyse linguistique de document et des services d'extraction de données via sa plateforme en ligne ou par API. Ses clients sont des institutions financières et les départements financiers de grandes sociétés et ETI.
 
Callity est né en 2018 du constat que les solutions de Quality Monitoring et de Speech Analytics traditionnelles étaient dépassées. Qui peut dire aujourd’hui qu’il exploite pleinement l’ensemble de ses interactions clients ? Personne ! Chez Callity nous oeuvrons pour changer cela via une plateforme SaaS moderne, utilisant pleinement les possibilités offertes par l'intelligence artificielle, qui permette aux marques d'exploiter 100% des conversations clients et les transformer en stratégies d'acquisition, de fidélisation et de formation efficaces.
 
Synapse est expert en Intelligence Artificielle appliquée au texte. Notre raison d'être est d'accompagner nos clients dans la transmission de leurs connaissances. En ce sens, Synapse intervient tout au niveau de 3 leviers : - Créer de la connaissance, à travers un outil d'aide à l'écriture qui permet d'écrire l'esprit libre : Cordial. - Structurer de la connaissance, à travers des outils d'analyse sémantique. - Partager de la connaissance, à travers un chatbot capable de se connecter à la documentation d'une entreprise et de générer automatiquement sa base de connaissances.
 
Semantiweb apporte un décodage marketing des contenus conversationnels spontanés des internautes. Cette expertise donne une valeur stratégique aux annonceurs, permet de créer une intimité clients, détecte les tendances de consommation et traduit les insights des marchés en les rendant opérationnels pour l’entreprise, la marque et le produit.
 
Kairntech développe une plateforme d'IA visant à démocratiser et accélérer le développement d'applications basées sur le TAL au sein de l’entreprise. L’objectif est de pouvoir créer rapidement et sans programmation des robots permettant d’analyser automatiquement de grandes quantités de texte avec une très grande précision, faisant économiser du temps et des efforts. Nous aidons les professionnels de l’information et les analystes (auditeurs, analystes marketing, chercheurs scientifiques, enquêteurs…) à bâtir des applications pour gagner en efficacité tout en prenant de meilleures décisions.
 
Datapolitics met la donnée au service de l'action publique. La data est partout, volumineuse, et peu structurée : son utilisation dépasse rapidement le cadre du fichier Excel. Avec Datapolitics, passez la vitesse supérieure en bénéficiant des multiples possibilités offertes par la datascience. Propulsez vos contenus au meilleur niveau grâce à nos algorithmes et nos intelligences artificielles. Nous collectons aujourd'hui les prises de position des gouvernants ou de ceux qui aspirent à le devenir et produisons des analyses automatiques au travers de la plateforme Hedwige.
 
QWAM développe des solutions logicielles d'intelligence artificielle appliquée au traitement du langage naturel. Nos solutions combinent les approches sémantiques, big data, machine learning et deep learning. QWAM intervient pour répondre aux besoins d'exploitation avancée des données textuelles existantes au sein des entreprises et organisations ou bien disponibles sur le web.
 
Automatisation de la relation client via des interfaces conversationnelles et des chatbots. Clustaar permet aux marques d'aider leurs clients en répondant automatiquement à des demandes d'informations ou de support.
 
L'APIL, association à but non lucratif, rassemble l'expertise des personnes et des industriels du traitement automatique des langues. Elle a pour ambition de promouvoir le traitement automatique des langues auprès des utilisateurs, qu'ils soient industriels ou grand public. Nous animons un réseau d'expertise en collaboration avec les acteurs spécialisés du domaine : forum JeunesTalents en collaboration avec l'ATALA, les rencontres entre membres industriels, ou l'accompagnement de projets collaboratifs innovants en partenariat international.

Vous fournissez de telles solutions et vous souhaitez faire partie de nos partenaires, contactez-nous.

Les technologies à mettre en oeuvre

Reconnaissance automatique de la parole
La recon­nais­sance auto­ma­tique de la parole (Auto­ma­tic Speech Recog­ni­tion ou ASR en anglais) consiste à trans­for­mer la parole humaine en un texte, en recon­nais­sant les...
Analyse sémantique
Signifiant, signifié, de quoi parle-t-on ? Au tout début du XXème siècle, Louis Fer­di­nand de Saus­sure, dans ses Cours de lin­guis­tique Géné­rale, explo­rait la dif­fé­rence entre...
Extraction d'information, de quoi s'agit-il ?
L’extraction d’information, à quoi ça sert ? L’ex­trac­tion d’in­for­ma­tion consiste à iden­ti­fier, dans des textes en langue natu­relle, des infor­ma­tions types : noms de per­sonnes ou de...
Un ordinateur peut-il analyser les émotions ?
Le lan­gage humain est com­plexe. Apprendre à un ordi­na­teur ou à une machine com­ment ana­ly­ser les nuances, que ce soit au niveau gram­ma­ti­cal ou cultu­rel,...

Ces études de cas peuvent aussi vous intéresser

Diminuer considérablement le nombre d'emails à traiter par l'humain

Je suis dirigeant d’une société immobilière dont l’activité principale est la gestion syndicale de nombreux lots de copropriétés. Chaque jour, la boîte mail de ma société doit faire face à l’afflux de centaines d'emails : de la simple prise d’information à la demande d’intervention urgente. Comment puis-je automatiser le traitement d’un grand volume d'emails pour gagner en temps et en efficacité ?

Aller au-delà de la veille technologique pour obtenir des informations stratégiques

Je suis dirigeant d’une entreprise informatique et mes équipes effectuent une veille technologique régulière afin de me tenir au courant de l’évolution de notre secteur d’activités, de la concurrence et des avancées technologiques potentielles. Cependant, je souhaiterais que mes équipes aillent au-delà de la veille et puissent me prévenir de ce qui va se passer autour de moi, dans mon activité, afin de m’aider à définir ma stratégie d'entreprise à court et moyen terme. Comment puis-je faire ?

Comment gérer les avis négatifs et minimiser l'impact des cas de crise sur les réseaux sociaux

Je suis responsable réseaux sociaux pour une marque de cosmétiques et je souhaite pouvoir mesurer la satisfaction de nos clients sur les réseaux sociaux afin de prendre en compte ces retours pour mieux communiquer autour de mon entreprise, ainsi que réagir au plus vite lors de potentiels cas de crise.