La modération en ligne pour les marques : enjeux, risques et solutions

Face à la multiplication des contenus en ligne, comment les marques peuvent-elles effectuer une modération efficace ? Décryptage d’Hervé Rigault, CEO de Netino By Webhelp.

moderation-en-ligne-netino
Certaines marques ont désormais recours à la modération automatique basée sur l'Intelligence Artificielle. © TeraVector - stock.adobe.com

Nous avons interrogé Hervé Rigault, CEO de Netino By Webhelp, une agence spécialisée dans la « social user experience » et experte de la modération de contenus sur les réseaux sociaux et sur le web. Il nous explique pourquoi la modération en ligne est primordiale pour les marques et quelles solutions peuvent être mises en place pour modérer plus efficacement les contenus.

Quels canaux sont concernés par la modération des contenus ?

Il est légitime de mettre en place une stratégie de modération sur tout espace comportant des CGU (Contenus Générés par les Utilisateurs).

On pense toujours en première intention aux plateformes social media sur lesquelles nous intervenons naturellement et qui « trustent » le plus gros des volumes de contributions : Facebook, Youtube, Instagram, Tiktok, Twitch, LinkedIn… mais d’autres espaces sont concernés sur la toile :

Mettre en place un dispositif de modération est tout aussi indispensable sur des espaces tels qu’un site web d’actualité, un site de rencontres, une marketplace, des tchats, des rubriques d’avis…

Quant à Twitter, si la modération dans le sens « suppression des contenus toxiques » n’est pas encore possible (à part pour les modérateurs de Twitter eux-mêmes), il est fréquemment demandé par les marques de constituer un dispositif de veille/alerting afin de détecter les amorces de bad buzz mais aussi les menaces inquiétantes adressées contre leurs infrastructures ou leur personnel.

Concrètement, comment se passe la modération de contenus pour des marques « exposées » ? La modération se fait a priori ou une fois le contenu posté et détecté ?

De façon générale, sur les réseaux sociaux, la modération se fait par défaut « a posteriori », c’est-à-dire après publication du contenu. Cela est lié à l’architecture même de ces réseaux et ce n’est pas paramétrable par les marques. Celles-ci n’ont donc pas le choix, même si leur activité est sensible, elles doivent composer avec cette absence de filet « immédiat ».

Depuis la fin du premier semestre 2021, Facebook offre la possibilité aux fan pages de suspendre la fonction « commenter » sous leurs publications. Les use cases de cette fonctionnalité restent malgré tout rare : l’ADN d’un réseau social est la participation, il est donc généralement très mal accueilli de retirer la parole à sa communauté. En revanche sur les espaces propriétaires de la marque, celles-ci ont plus de latitude pour définir si les contenus seront postés « a posteriori » ou « a priori ». Il est donc possible de s’accorder cette sécurité supplémentaire en s’assurant que tout contenu en ligne a été préalablement revu et validé et par un opérateur humain et/ou une IA.

Dans les deux cas, la réactivité de l’action de modération est un indicateur au cœur des SLA (Service Level Agreement) :

  • En mode « a posteriori » : il convient d’intervenir le plus rapidement possible afin de s’assurer que le contenu en ligne n’est pas toxique
  • En « a priori » : il est aussi indispensable de faire preuve de diligence dans le traitement des items : une faible réactivité briderait la fluidité des conversations, voire serait irritant pour le client qui paye un abonnement pour avoir la possibilité de poster son contenu (typiquement sur un site d’actualité ou un site de rencontres).

En général, un délai de traitement considéré comme satisfaisant par la plupart des marques est de 20 minutes après publication. Cela peut être en-dessous pour certaines marques avec un fort enjeu de « premiumisation » et qui souhaitent une réactivité de quelques minutes.

Pourquoi la modération de contenus en ligne est-elle primordiale pour les marques ?

Les enjeux pour une marque sont multiples.

En premier lieu, évidemment, la problématique de la brand safety. Que pensera un internaute d’un média dont les publications Facebook sont jonchées de propos injurieux, discriminatoires ou appelant au meurtre et qui demeurent en ligne manifestement sur de longues durées ? Il y aura nécessairement une association entre la marque et ces propos.

En second lieu, l’effet délétère qu’ont les commentaires toxiques sur l’engagement de la communauté. A-t-on envie de participer à un débat d’actualité où tout avis divergeant vaut une bordée d’injures de la part de trolls ? La modération n’a donc pas pour seul effet de dépublier les contenus toxiques ; elle contribue à un cercle vertueux où les commentaires constructifs génèrent plus de participation de qualité.

On peut également évoquer les problématiques de responsabilité légale : sur les sites des marques, la responsabilité de celles-ci peut-être engagée en cas de publication de contenus illégaux (textes diffamatoires ou appelant à la violence, vidéos à caractère pédopornographique etc…)

Enfin, sur les sites de rencontre, face à la recrudescence des arnaques sentimentales, le contrôle des photos et annonces se doit de ne pas être une simple brique annexe mais bien une promesse pour ses clients que ses espaces sont libres de toute arnaque.

Netino By Webhelp propose de plus en plus de modération automatique. Comment cela fonctionne ?

À partir des années 2010, les marques en général et les médias en particulier ont dû faire face à une explosion de leur volumétrie de contributions sur leurs plateformes social media.

Dès lors,  des questions se posent pour les marques :

  • Comment gérer un nombre de contenus qui, parfois, double tous les deux ans, avec une enveloppe budgétaire qui demeure peu ou prou identique ?
  • Comment faire face à des pics soudains qui nécessiteraient de tripler le dimensionnement de l’équipe de modération en moins d’une demi-journée ?

D’autant que si certains évènements d’actualité génèrent des pics ponctuels (attentats, faits divers,…), d’autres entraînent des augmentations structurelles durables du volume. En vrac, au cours de la décennie écoulée : mariage pour tous, sujet #metoo et bien sûr la crise du Covid…

La modération automatique via IA (Intelligence Artificielle) a donc été un axe de développement important pour Netino by Webhelp depuis 2015. Concrètement, notre solution d’IA est mixte, elle repose à la fois sur des graphs sémantiques, sur du machine learning et sur des méthodes de NLP (Natural Language Processing). Une équipe humaine complète ce dispositif en réalisant un contrôle qualité quotidien sur un échantillon de contenus traités afin de s’assurer de la pertinence des verdicts de l’IA et en l’enrichissant au fil de l’eau.

Nos algorithmes apprennent donc à imiter un verdict de modération émis par un humain en se basant sur des millions de commentaires traités et annotés par nos équipes.

Il n’est pas rare que nous proposions des solutions hybrides à 70% de modération automatique complétée par 30% de modération humaine. Nous proposons également une solution « 100% automatique » avec un taux de détection des contenus toxiques à 93%.

Un chiffre éloquent : en 2021, Netino by Webhelp a identifié et rejeté via IA plus de 11 millions de contenus toxiques (injurieux, discriminatoires, spam, etc) sur les plateformes de ses clients. La réactivité est donc optimale et le contenu détecté comme toxique peut disparaître en quelques secondes.

Découvrir les services de modération de Netino By Webhelp

La modération permet aussi de collecter des données et d’analyser le sentiment des consommateurs. Quels indicateurs sont révélateurs ?

On est ici à la croisée entre plusieurs métiers, dont le Social Listening, qui sont distincts bien que connexes. Il est effectivement possible de profiter de l’action de modération pour catégoriser (c’est-à-dire la typologie et sujet abordé par l’internaute) et tonaliser (c’est-à-dire établir si le sentiment est positif, négatif ou neutre) les contenus afin d’avoir de la visibilité sur la coloration des participations.

Sur la partie Médias, nous fournissons également à nos clients un top des publications ayant généré le plus de commentaires, mais aussi celles ayant généré le plus de contenus rejetés… Cela est à la fois intéressant pour eux mais aussi pour nous afin de pouvoir renforcer la vigilance de l’équipe de modération autour de certaines thématiques.

Pour l’anecdote, on serait surpris de voir à quel point les contenus « insolites » (fait divers absurde par exemple) sont régulièrement propulsés en tête des publications les plus performantes de grands médias généralistes.

Quel est votre regard sur la façon dont les plateformes (Facebook, Google, Twitter…) gèrent la modération de contenu ?

Il est délicat de juger l’efficacité de celle-ci au regard de l’immensité du défi que cela représente : sur Facebook, comment réguler l’activité de 2,8 milliards d’utilisateurs mensuels en une pléthore de langues, avec des variations culturelles et juridiques importantes d’un pays à l’autre ?

Dernièrement en France, Twitter a été assigné en justice pour dévoiler les moyens mis en œuvre pour la modération des contenus. Cela témoigne d’une tendance de fond que nous constatons au quotidien : un désir croissant de la part des internautes d’évoluer sur des espaces sains, sereins et sécurisés.

Comment modérer vos contenus avec Netino By Webhelp

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.