Optimiser le travail de modération de mes médias sociaux

|

|

Le besoin
La solution
Ils peuvent vous aider

Le besoin

Modérer mes médias sociaux : peut-on alléger et fiabiliser la tâche ?

L'ouverture de nos blogs ou de nos pages sur les réseaux sociaux aux commentaires du public est une opportunité mais aussi un défi. Régulièrement, les contributions des internautes apportent leur lot de propos illicites ou simplement non conformes à notre charte. La modération des commentaires par les équipes de ma publication en ligne est essentielle, mais constitue une responsabilité légale ainsi qu'une charge coûteuse, pour un résultat incertain.

Modérer les commentaires sur mes médias en ligne : une responsabilité légale et un impératif d'image

Modérer les réseaux sociaux, une obligation légale

Supprimer les propos haineux, diffamatoires, discriminatoires est une obligation légale remontant à 1881 et renforcée par plusieurs lois récentes contre la haine en ligne, le cyberharcèlement et les raids numériques.

Un impératif de qualité

Modérer les contributions simplement discourtoises ou inopportunes (spamming) est une nécessité pour maintenir la qualité attendue par mon audience, l'image de ma publication et son attractivité pour les annonceurs.

La modération des commentaires sur les réseaux sociaux : une charge excessive pour la viabilité financière des publications

Assurer la modération constante de mes médias sociaux doit répondre à une double contrainte : le volume de contributions quotidiennes à examiner et la nécessité de réagir rapidement pour prévenir le risque de crises graves.

De fait, les contributions des lecteurs ne s'arrêtent pas aux heures légales de travail ; la modération suppose une mobilisation constante des ressources.

L'IA multilingue permet-elle d'automatiser ou au moins d'assister la modération ? Voire de la fiabiliser ?

La solution

L'intelligence artificielle pour aider les modérateurs à maintenir la conformité légale et garantir le niveau de qualité

Les technologies du traitement automatique du langage pour analyser en continu les contributions et les commentaires

Concevoir et développer l'algorithme les règles de modération

Les modérateurs assurent le contrôle des commentaires et des avis en se fondant à la fois sur des textes juridiques, sur la charte de modération interne, ainsi que sur leur connaissance du domaine traité, qui est leur valeur ajoutée. Une grande majorité des commentaires non conformes est identifiable sur des critères simples ; le repérage de ces messages consomme sans grande valeur ajoutée un temps important des modérateurs. Intégrer ces critères dans des algorithmes d'analyse permet au modérateur de concentrer son effort sur les cas plus subtils.

Selon les besoins propres à la publication, on peut prévoir d'intégrer à l'algorithme une classification des contraventions à la charte de contribution, afin d'orienter utilement le traitement de modération, par exemple :

  • Risque légal :
    • propos discriminatoires ;
    • incitation à la haine, à la violence, harcèlement en ligne ;
    • diffamation ;
    • propagation de fake news.
  • Risque qualité :
    • grossièreté ;
    • "trolling", propos discourtois ;
    • spamming, arnaques.

Comme tout système fondé sur une base de connaissances, une solution d'aide à la modération nécessite une fonction de création, de maintenance et d'enrichissement de la base de connaissances, afin de suivre les évolutions des sujets sensibles et d'introduire une amélioration continue de la détection automatique des propos contrevenant à la charte de publication.

L' apprentissage peut être effectué de trois manières :

  • apprentissage par règles : des linguistes, en collaboration avec les modérateurs, décrivent explicitement les règles de vocabulaire ou de syntaxe permettant d'identifier les commentaires douteux ou à proscrire,
  • apprentissage par l'exemple : des commentaires identifiés comme acceptables, douteux ou à proscrire sont fournis comme exemples à des algorithmes d'apprentissage automatique, dans un corpus déjà annoté et validé.
  • approche hybride entre ces deux méthodes.

Analyser automatiquement tous les contenus

Après une phase d'apprentissage initial, la solution peut être intégrée dans un processus complet de modération, dont la première étape consiste à analyser automatiquement le texte des contributions pour détecter les propos non conformes à la charte de la publication.

Les commentaires relevant d'une libre expression du grand public, l'analyse automatique doit être capable d'interpréter du texte peu académique, incluant des fautes de frappe, de grammaire, une syntaxe défaillante, l'emploi d'émoticônes.

L'analyse peut prévoir une étape préalable de normalisation de texte afin que l'algorithme opère sur un contenu redressé.

Étiqueter les propos indésirables ou douteux

Grâce à l'analyse linguistique, la solution d'aide à modération détecte des expressions susceptibles de contrevenir à la charte des contributions, sur la base de connaissances embarquées par le système : il peut s'agir de règles linguistiques, d'approches fondées sur l'apprentissage, ou encore d'une coopération des deux méthodes.

Outre la simple détection de possibles violations de la charte de contribution, la solution peut prévoir de qualifier leur nature selon une classification établie au préalable, par exemple : propos haineux, appel à la violence, discrimination, grossièretés, spamming. Là encore, la qualification peut procéder par règles linguistiques, par une approche plus statistiques (algorithmes de clustering) ou par une coopération de ces deux méthodes.

Le système peut aussi restituer en sortie de ses traitements un score de fiabilité de la détection de propos non conformes. Ce score permet au modérateur de se concentrer sur les cas plus délicats à interpréter, voire de mettre en place des automatismes (rejet automatique au dessus d'un certain score, validation automatique en deçà d'un autre). Ces stratégies automatiques, si elles sont mises en œuvre, doivent être périodiquement ré-évaluées.

A l'issue de l'étiquetage, les modérateurs sont alertés de toutes les possibles entorses à la charte de contribution détectées dans les commentaires. Ils peuvent alors les passer en revue rapidement pour décider de leur acceptabilité et prendre les mesures nécessaires le cas échéant.

Dans le cas d'une modération a posteriori, l'aide apportée par la détection automatisée peut venir ajouter son flux d'alertes aux signalements laissés par des internautes de propos qu'ils jugent choquants. Le croisement des deux sources apporte au modérateur un renforcement quant au caractère irrecevable de certains commentaires.

Maintenir et enrichir les connaissances nécessaires au repérage des propos indésirables

La maintenance et l'amélioration continue de la reconnaissance de contributions à modérer est d'autant plus nécessaire que les auteurs des propos ciblés mettent souvent en place des stratégies d'évitement lexical de la modération. Ou simplement parce que le vocabulaire des propos haineux, fortement lié aux phénomènes sociologiques, évolue vite et intègre rapidement des néologismes, des anglicismes ou un argot identitaire.

Lorsque la reconnaissance automatique d'expressions non conformes s'appuie sur une approche par règles linguistiques, un module de gestion de ces règles permet leur mise à jour et leur amélioration continue.

Lorsque la solution d'aide à la modération s'appuie sur une approche par apprentissage pour la reconnaissance des propos contraires à la charte de publication, il peut être très intéressant d'utiliser la décision finale du modérateur pour perfectionner l'apprentissage, dans un cycle d'amélioration continue. La maintenance de la solution s'en trouvera grandement facilitée.

 

Points d'attention

Pour repérer efficacement les commentaires nécessitant un examen des modérateurs, il est essentiel de décrire de manière complète les critères de modération en fonction de la charte de l'entreprise.

On l'a vu plus haut, la première étape de mise en œuvre réside dans l'acquisition par la solution automatisée des connaissances nécessaires à la détection de propos non-conformes. Avant de les implémenter, les règles de modération doivent être explicites et partagées par l'organisation.

Pour le succès du projet, cette étape essentielle doit être conduite avec soin. Elle requiert une étroite collaboration des responsables internes de la modération et des experts linguistes afin d'assurer la bonne prise en compte de la charte de modération.

Par Christine Reynaud
Chef de projet contenus numériques