Pharmacovigilance multilingue

|

|

Le besoin
La solution
Ils peuvent vous aider

Le besoin

Repérer et quantifier les effets des traitements ainsi que leur contexte d'apparition

Je rencontre en pharmacovigilance la difficulté commune à toutes les études quanti-qualitatives :

  • soit on travaille sur des questionnaires prédéfinis pour faciliter le dépouillement et s'assurer d'un traitement objectif des données, ce qui limite les sources mais condamne la découverte d'informations inattendues,
  • soit on inclut des sources en texte libre avec toutes les difficultés d'analyse qu'elles induisent, incluant la légitimité scientifique des résultats.

Les sources en texte libre peuvent inclure des observations consignées dans le cadre d'essais cliniques, des  comptes-rendus d'établissements de santé ou de médecins de ville, des signalements spontanés de patients transmis par des professionnels de santé ou des industriels.

De plus, je souhaite pouvoir analyser des sources collectées dans plusieurs pays et dans des langues diverses : autant je vois les possibilités d'analyse de questionnaires multilingues fermés, autant je m'interroge sur les possibilités de consolider des résultats obtenus sur des réponses libres ou des contributions spontanées dans des langues différentes.

J'ai entendu parler des avancées technologiques en analyse de données textuelles, mais je ne sais pas dans quelle mesure ces outils peuvent réellement répondre aux besoins et aux exigences de la pharmacovigilance.

 

La solution

Automatiser l'identification, le classement et la quantification des effets des traitements ainsi que leur contexte d'apparition

L'annotation automatique pour extraire et classer les effets des traitements et leurs contextes d'apparition

Le premier objectif d'une veille pharmacologique automatisée est de repérer et classer, dans du texte libre, des séquences (phrases ou portions de phrase) correspondant :

  • aux effets constatés d'un traitement (positifs comme indésirables),
  • mais aussi aux contextes d'apparition de ces effets, qu'il importe de croiser avec la première information.

A partir d'une analyse linguistique des sources et de bases de connaissance spécialisées intégrées au système, il s'agit d'identifier ces séquences textuelles sous leurs expressions les plus diverses dans les formulations des auteurs, qui peuvent être aussi bien des professionnels de santé que des patients, avec un vocabulaire et une phraséologie très différents.

L'extraction des séquences d'intérêt et leur classification selon une typologie prédéfinie sont réalisés dans une même opération : elle consiste à reconnaître des patterns associés à chaque catégorie que l'on souhaite distinguer parmi les effets des traitements et les contextes d'apparition.

L'automatisation des traitements offre une neutralité et donc une équité d'analyse pour l'ensemble des sources traitées. Si des biais peuvent subsister, ils sont les mêmes que dans la construction d'un questionnaire.

La solution peut recourir selon des proportions variables :

  • A des technologies reposant sur des règles logiques déclarées par des experts humains
  • A un apprentissage automatique plus ou moins guidé par des experts humains (machine learning, deep learning)

La coopération des deux approches, fructueuse, s'impose assez largement. L'apprentissage automatisé permet de gagner un temps précieux pour initialiser le système. En outre, il apporte un regard neutre permettant de faire émerger sans a priori des phénomènes totalement inattendus et riches d'enseignements.

L'analyse quantitative des données textuelles extraites

Une fois extraites et classées, les données textuelles peuvent faire l'objet d'analyses quantitatives au même titre que les données structurées extraites d'un questionnaire fermé.

Un des grands intérêts de la solution est de permettre la comparaison et la consolidation d'analyses effectuées sur des réponses à des questionnaires fermés et des questionnaires ouverts, voire des contributions totalement libres.

De même que pour les réponses à des questionnaires fermés, les analyses peuvent inclure une dimension chronologique et donner lieu à une surveillance de tendances fortes, de signaux faibles, de ruptures, de crises.

La prise en charge de l'analyse de sources multilingues

L'annotation des sources peut être réalisée dans autant de langues que nécessaire, mais qu'en est-il de la consolidation des résultats obtenus dans différentes langues ?

Le besoin d'analyse multilingue, s'il existe, est structurant pour la solution à construire. Les analyseurs sont totalement distincts pour chaque langue. En revanche, pour pouvoir effectuer aussi bien des analyses dans chaque langue que des consolidations multilingues, il est nécessaire de construire et maintenir une classification unique (classification-pivot), appliquée à chacune des langues de travail.

La gestion des connaissances intégrées à la solution

Comme nous l'avons vu plus haut, l'extraction et le classement automatique de séquences correspondant aux effets des traitements ou à leur contexte d'apparition exige de la solution qu'elle "embarque" des connaissances linguistiques spécialisées, aussi bien pour analyser le texte que pour établir une classification selon la typologie que l'on souhaite observer, quantifier, surveiller.

La solution doit permettre de construire, maintenir, faire évoluer la base de connaissance nécessaire, en respectant les éventuelles exigences multilingues du projet :

  • Les règles linguistiques de reconnaissance des séquences d'intérêt
  • La classification des phénomènes à observer

Points d'attention

La construction de la base de connaissances utilisée par le système automatisé de pharmacovigilance exige des expertises à la fois pharmacologiques et linguistiques. Une étroite coopération de ces compétences doit être envisagée dans la conduite du projet de mise en œuvre.

Par Christine Reynaud
Chef de projet contenus numériques

Ils peuvent vous aider

Demande de mise en relation concernant l'étude de cas Pharmacovigilance multilingue
Veuillez recopier le texte ci-dessous afin de pouvoir envoyer votre message. Attention aux majuscules !
 
Synapse est expert en Intelligence Artificielle appliquée au texte. Notre raison d'être est d'accompagner nos clients dans la transmission de leurs connaissances. En ce sens, Synapse intervient tout au niveau de 3 leviers : - Créer de la connaissance, à travers un outil d'aide à l'écriture qui permet d'écrire l'esprit libre : Cordial. - Structurer de la connaissance, à travers des outils d'analyse sémantique. - Partager de la connaissance, à travers un chatbot capable de se connecter à la documentation d'une entreprise et de générer automatiquement sa base de connaissances.
 
Yseop’s Augmented Analyst platform brings natural language generation and other advanced technologies together to offer automation fit for regulated industries.
 
Semantiweb apporte un décodage marketing des contenus conversationnels spontanés des internautes. Cette expertise donne une valeur stratégique aux annonceurs, permet de créer une intimité clients, détecte les tendances de consommation et traduit les insights des marchés en les rendant opérationnels pour l’entreprise, la marque et le produit.
 
Lingua Custodia est une Fintech leader du Traitement Automatique des Langues (TAL) pour la Finance basée en France et au Luxembourg. Elle a développé son expertise avec une offre pointue de traduction automatique spécialisée par type de document financier. La société propose aujourd'hui également des services de transcription automatique, des services d'analyse linguistique de document et des services d'extraction de données via sa plateforme en ligne ou par API. Ses clients sont des institutions financières et les départements financiers de grandes sociétés et ETI.
 
QWAM développe des solutions logicielles d'intelligence artificielle appliquée au traitement du langage naturel. Nos solutions combinent les approches sémantiques, big data, machine learning et deep learning. QWAM intervient pour répondre aux besoins d'exploitation avancée des données textuelles existantes au sein des entreprises et organisations ou bien disponibles sur le web.
 
Agir chaque jour dans votre intérêt, et celui de la société.
 
Kairntech développe une plateforme d'IA visant à démocratiser et accélérer le développement d'applications basées sur le TAL au sein de l’entreprise. L’objectif est de pouvoir créer rapidement et sans programmation des robots permettant d’analyser automatiquement de grandes quantités de texte avec une très grande précision, faisant économiser du temps et des efforts. Nous aidons les professionnels de l’information et les analystes (auditeurs, analystes marketing, chercheurs scientifiques, enquêteurs…) à bâtir des applications pour gagner en efficacité tout en prenant de meilleures décisions.
 
Datapolitics met la donnée au service de l'action publique. La data est partout, volumineuse, et peu structurée : son utilisation dépasse rapidement le cadre du fichier Excel. Avec Datapolitics, passez la vitesse supérieure en bénéficiant des multiples possibilités offertes par la datascience. Propulsez vos contenus au meilleur niveau grâce à nos algorithmes et nos intelligences artificielles. Nous collectons aujourd'hui les prises de position des gouvernants ou de ceux qui aspirent à le devenir et produisons des analyses automatiques au travers de la plateforme Hedwige.
 
Callity est né en 2018 du constat que les solutions de Quality Monitoring et de Speech Analytics traditionnelles étaient dépassées. Qui peut dire aujourd’hui qu’il exploite pleinement l’ensemble de ses interactions clients ? Personne ! Chez Callity nous oeuvrons pour changer cela via une plateforme SaaS moderne, utilisant pleinement les possibilités offertes par l'intelligence artificielle, qui permette aux marques d'exploiter 100% des conversations clients et les transformer en stratégies d'acquisition, de fidélisation et de formation efficaces.
 
Leader des technologies d'investigation et services pour la sécurité globale.
 
Emvista fait gagner du temps à ses clients en repensant le Traitement Automatique du Langage Naturel, la discipline de l’intelligence artificielle consacrée à la compréhension de texte. Ses équipes de chercheurs et d’ingénieurs conçoivent des produits pour aider les humains à faire face à l’afflux d’informations et à les transformer en valeur.
 
Automatisation de la relation client via des interfaces conversationnelles et des chatbots. Clustaar permet aux marques d'aider leurs clients en répondant automatiquement à des demandes d'informations ou de support.
 
L'APIL, association à but non lucratif, rassemble l'expertise des personnes et des industriels du traitement automatique des langues. Elle a pour ambition de promouvoir le traitement automatique des langues auprès des utilisateurs, qu'ils soient industriels ou grand public. Nous animons un réseau d'expertise en collaboration avec les acteurs spécialisés du domaine : forum JeunesTalents en collaboration avec l'ATALA, les rencontres entre membres industriels, ou l'accompagnement de projets collaboratifs innovants en partenariat international.

Vous fournissez de telles solutions et vous souhaitez faire partie de nos partenaires, contactez-nous.

Les technologies à mettre en oeuvre

Qu'est-ce qu'un crawler ?
Un craw­ler, ou scra­per, est un outil qui per­met d’ob­te­nir le conte­nu (géné­ra­le­ment tex­tuel) d’une page web afin d’ap­pli­quer des trai­te­ments d’analyse. On se place...
Comment comparer des documents ?
Comparaison de documents, de quoi parle-t-on ? De nom­breuses appli­ca­tions néces­sitent de pou­voir com­pa­rer des docu­ments entre eux, par exemple pour cor­ri­ger un docu­ment, détec­ter du...
Le résumé automatique, comment ça marche ?
Qu’est-ce qu’un résumé de texte automatique ? Le résu­mé auto­ma­tique consiste à ana­ly­ser un ou plu­sieurs docu­ments et pro­duire un nou­veau docu­ment plus court qui per­met...
Taxinomies : classer des termes et des concepts en NLP
La taxi­no­mie est un modèle de repré­sen­ta­tion du lan­gage très utile en trai­te­ment auto­ma­tique des langues. Elle per­met de clas­ser et hié­rar­chi­ser des concepts. Les...
Analyse sémantique
Signifiant, signifié, de quoi parle-t-on ? Au tout début du XXème siècle, Louis Fer­di­nand de Saus­sure, dans ses Cours de lin­guis­tique Géné­rale, explo­rait la dif­fé­rence entre...
Catégorisation de documents
Pourquoi catégoriser des documents ? L’ac­tion de regrou­per les objets en classes est au moins aus­si ancienne que le lan­gage lui-même, et, d’une cer­taine façon, en...
Qu'est-ce que le clustering ?
Le Clus­te­ring s’ap­plique à un ensemble de docu­ments (un « cor­pus ») et consiste à regrou­per les docu­ments qui se res­semblent. On forme ain­si des sous-ensembles, ou...
Qu'est-ce que la fouille de texte ?
Fouille de texte ou text mining? Le trai­te­ment auto­ma­tique des langues est une étape préa­lable au trai­te­ment infor­ma­tique dans de nom­breuses appli­ca­tions. On consi­dère que...
Extraction d'information, de quoi s'agit-il ?
L’extraction d’information, à quoi ça sert ? L’ex­trac­tion d’in­for­ma­tion consiste à iden­ti­fier, dans des textes en langue natu­relle, des infor­ma­tions types : noms de per­sonnes ou de...
Comment un ordinateur peut-il aider à traduire ?
De quand date la traduction automatique ? Les pre­mières solu­tions de tra­duc­tion auto­ma­tique et de tra­duc­tion assis­tée par ordi­na­teur sont appa­rues dès le milieu du XXème...
Sur quels principes fonctionne un module de recherche textuelle ?
Moteur de recherche grand public, moteur de recherche professionnel, quelles différences ? Les moteurs de recherche du Web sont deve­nus des outils du quo­ti­dien, et ces...
Qu'est-ce qu'une ontologie ?
Une onto­lo­gie est un mode de repré­sen­ta­tion for­melle des connais­sances défi­ni dans le cadre du Web Séman­tique. Vous trou­ve­rez plus d’in­for­ma­tion dans notre fiche Qu’est-ce...

Ces études de cas peuvent aussi vous intéresser

Mettre en place une veille scientifique multilingue

Je suis responsable produits/R&D dans le domaine pharmaceutique, et je souhaite mettre en place une veille multilingue.

Tendances selfcare et modernisation du support client

Je suis directeur du support client chez un fournisseur de télévision par satellite. J’ai pour objectif de mettre en place plus de selfcare et automatiser mon support pour que mes clients trouvent plus rapidement les informations qu’ils recherchent. En parallèle, je dois faire baisser les coûts du support client. Alors, comment faire ?

Comment recommander du contenu qui sera le plus à même d’intéresser le lecteur suite à l’article qu’il vient de consulter ?

Je suis directeur webmarketing pour un éditeur d'informations d'actualité en ligne et je souhaite utiliser un système de recommandation d’articles efficace pour diminuer le taux de rebond des visiteurs du site et les fidéliser.