Les grandes tendances et évolutions de la modération en 2024
Panorama des enjeux à venir autour de la modération avec Netino.
Chaque année, nous menons une grande enquête sur les tendances qui animeront l’année 2024. Nous poursuivons notre dossier en nous penchant sur le sujet de la modération. Pour décrypter les enjeux de ce secteur, nous avons la chance de pouvoir profiter de l’analyse d’Hervé Rigault, CEO de Netino by Concentrix+Webhelp. Au programme, une analyse complète sur les évolutions législatives, les principaux espaces à modérer, l’importance de l’IA ou encore les grands défis à venir pour s’adapter aux comportements toxiques en ligne.
Où en sommes-nous en termes de législation et d’obligations des marques en matière de modération des contenus ?
Nous sommes toujours dans une situation d’entre-deux. Le très attendu Digital Services Act (DSA) est déjà en vigueur depuis le mois d’août pour les 17 VLOP (Very Large Operating Platforms Offering Platform) et les 2 VLOSES (Very Large Operating Search Engines) dont Facebook, Instagram, TikTok, Google Search, YouTube et Amazon Store. La loi sera généralisée et s’appliquera à toutes les plateformes à compter du 17 février 2024.
Si la majorité des VLOP ont depuis longtemps une approche professionnalisée de la modération, notamment grâce à un important recours à l’externalisation, ce n’est pas forcément le cas de toutes les petites et moyennes plateformes. Pour certaines de ces dernières, il peut encore y avoir beaucoup d’incertitudes quant aux méthodologies et aux outils qui doivent être utilisés pour s’y conformer. Les professionnels du secteur Trust & Safety sont déjà en train d’effectuer et devront intensifier leur travail d’accompagnement et de conseil de leurs clients.
Quoi qu’il en soit, les premiers rapports de transparence rendus publics par les VLOP sont particulièrement intéressants.
Quelle est la nature des contenus à modérer et quels seront les principaux espaces à modérer en 2024 ?
La mention de modération cloisonne généralement le concept aux grandes plateformes sociales mais, concrètement, la modération n’a jamais été aussi omniprésente et essentielle dans le quotidien d’un internaute.
Le contenu nécessitant une modération est très large : surveillance de la vente d’articles sur les places de marché et les sites d’annonces pour débusquer les escroqueries et les contrefaçons, vérification des profils sur les sites et applications de rencontres pour détecter les faux comptes et les comportements inappropriés, modération des avis clients, filtrage des commentaires toxiques sur les sites de médias d’information, intervention de l’intérieur de l’environnement de jeux en ligne pour sanctionner les comportements abusifs… Il est difficile de trouver un espace ou une industrie qui échappe à cet impératif réglementaire.
Pourquoi est-il essentiel pour les marques d’être très attentives à la modération des contenus problématiques ?
Les marques ont compris que la modération est un élément essentiel de l’expérience utilisateur. Si les études et sondages semblent montrer qu’il n’y a pas forcément d’association mentale entre la marque et les commentaires toxiques postés sur leurs espaces, il n’en demeure pas moins que, selon Businesswire, 70% des internautes considèrent qu’il est du devoir de la marque de protéger sa communauté.
La toxicité dans les espaces communautaires d’une marque ne dégrade pas seulement l’expérience utilisateur, elle peut même générer du désabonnement car elle alimente le sentiment d’insécurité en ligne.
Les comportements des utilisateurs changent-ils ? Sont-ils plus ou moins problématiques qu’ils ne l’étaient au début du Web 2.0 ?
Plus que le contenu, c’est la forme et l’échelle qui ont changé. Le harcèlement sur Internet n’a pas été inauguré par les réseaux sociaux, mais en détournant ces plateformes de leur usage initial, le harcèlement en ligne a été rendu plus facile, plus coordonné et plus massif.
Le rapport de transparence d’Instagram révèle qu’au cours des 9 premiers mois de 2023, la modération de Meta est intervenue sur 21,8 millions de contenus liés au harcèlement en ligne. Même si cela ne représente que 0,2 % de l’ensemble des contenus postés sur Instagram sur la même période, le chiffre reste glaçant, surtout si l’on imagine les conséquences potentielles si ces contenus n’avaient pas été efficacement modérés et donc laissés en ligne.
Le partage de contenus dépeignant son mal-être, sa dépression et parfois même son automutilation est également un phénomène qui a pris de l’ampleur et n’a rien d’anodin pour l’auteur de ce contenu ni pour son public. Certains observateurs évoquent même un risque potentiel d’effet Werther (un cas de suicide par émulation après la révélation d’un suicide, même fictif, via les médias).
Là aussi, les grandes plateformes semblent vouloir montrer leur mobilisation sur ces sujets : sur Facebook et Instagram réunis, Meta est intervenu sur 32,6 millions de posts contenant des contenus suicidaires dans le monde pour la seule année 2023.
On peut aussi parler des fake news : les contenus tels que les faux tracts, les photomontages et les rumeurs diverses ont toujours existé, mais leur ampleur, leur qualité et leur impact sont aujourd’hui à un niveau sans précédent grâce à la fois au mégaphone mondial des réseaux sociaux et au contexte de méfiance envers les médias traditionnels.
On parle beaucoup de l’IA, cela aura-t-il également un impact sur la modération des contenus en ligne ?
La question ne se pose plus vraiment, car le changement de paradigme a déjà eu lieu. À de rares exceptions près, les plateformes modèrent une grande majorité de leurs contenus grâce à un maillage d’intelligence artificielle et de règles automatisées.
La réalité est que le volume nécessite l’utilisation de l’IA. Pour TikTok, le rapport de transparence nous apprend qu’au premier semestre 2023, 119 millions de vidéos ont été automatiquement rejetés par l’IA. On ne peut qu’imaginer le nombre de modérateurs supplémentaires qui auraient été nécessaires sans cette assistance technologique. Si l’on interprète le chiffre également mentionné dans le rapport sur le nombre de vidéos restaurées après coup (13 millions), cela signifie que l’IA avait raison dans plus de 89% des cas.
L’IA est également un moteur dans les politiques de bien-être des équipes de modération. En filtrant au préalable les contenus les plus dérangeants, il est possible d’éviter d’exposer inutilement les employés à des formes de toxicité pouvant avoir des répercussions importantes sur la santé mentale et physique.
Cependant, le DSA a partagé l’importance d’une présence humaine dans un système de modération : pour fournir un traitement réactif et spécifique des contenus signalés par la communauté, pour gérer le mécanisme d’appel dans le cas où un utilisateur sanctionné conteste un verdict, etc. Sans oublier qu’il est également essentiel d’avoir une présence humaine pour gérer les processus de double modération, de contrôle de la qualité et d’amélioration des modèles spécifiques à chaque plateforme.
On s’oriente donc vers une montée en gamme du métier de modérateur, plutôt que vers un remplacement pur et simple.
Pourquoi est-il important pour les marques d’externaliser leur modération auprès d’un acteur comme Concentrix+Webhelp, notamment dans des environnements complexes ?
Si nous devions résumer les raisons qui pousseraient les marques et les plateformes à externaliser leurs activités de modération, nous pourrions identifier trois grands domaines : l’expertise commerciale, le support technologique et l’évolutivité.
L’externalisation, c’est bénéficier d’un accompagnement et de conseils sur les bonnes pratiques sectorielles, sur les moyens d’arrêter et de gérer les nouvelles formes de toxicité, et sur les évolutions régulières du cadre juridique. De la même manière, le BPO peut devenir un fournisseur d’outils disponibles en rayon (comme c’est le cas avec l’outil Moderatus de Concentrix+Webhelp) ce qui évite au client des investissements coûteux et chronophages dans le développement d’un système de gestion de contenu qu’il faudra ensuite maintenir à jour via une organisation spécifique et plusieurs corps de métiers.
Les principaux acteurs du secteur sont également en mesure de proposer des hubs multilingues pour éviter la multiplication des centres de production dans le monde entier, et ce, sans sacrifier la qualité du traitement.
Enfin, avoir la capacité de traiter des millions de contenus par mois, 24 heures sur 24, 7 jours sur 7, avec des fluctuations de volume parfois importantes, nécessite une logistique, une organisation et une résilience difficiles à gérer avec vos seules ressources internes.
Et pour les entreprises qui ne sont pas des acteurs mondiaux, c’est bénéficier de tous les investissements réalisés par les plus grands acteurs avec leurs partenaires externes, gagnant ainsi des années d’apprentissage, des meilleures technologies, et bénéficiant d’économies d’échelle déjà réalisées. Cela apporte beaucoup de sécurité, de fiabilité et d’économies en somme, mais le but ultime est d’éviter une crise liée à une défaillance de la modération, une crise qui peut être fatale pour certains acteurs.
Quels seront, selon vous, les grands défis liés à la modération dans les mois et années à venir ?
La généralisation du DSA à partir de février 2024 est certainement l’un des changements majeurs à survenir ces dernières années en matière de modération. Les enjeux de conformité sont importants et les sanctions en cas de manquement sont dissuasives (jusqu’à 6% du chiffre d’affaires mondial).
Mais les plateformes ne doivent pas voir dans cette décision une contrainte juridique supplémentaire, mais plutôt une opportunité de renforcer la qualité de leurs services, d’offrir une expérience encore meilleure et d’établir plus de proximité avec leurs utilisateurs.
La détection des fake news, sous toutes leurs formes possibles (textes, photos, vidéos, audio, graphiques et statistiques), sera certainement un enjeu majeur pour les réseaux sociaux dans les années à venir. Sachant que ces contenus sont de plus en plus produits grâce à l’IA générative, il est probable que la contre-mesure se situera également du côté de l’utilisation de l’IA. Il existe déjà différents dispositifs en place (analyse NLP, graphiques de contexte social, etc.) mais rien n’est infaillible à ce jour.
Un exemple inverse assez révélateur : on se souvient de cette image de CRS en rangs serrés devant le Conseil d’État, signée par un photographe de Reuters. Bien que réelle, cette photo a semé la confusion parmi les observateurs qui y ont vu une création artificielle et même certains outils de détection d’images truquées ont été pris par elle.
Prenez la parole dans le dossier Tendances 2026
Associez votre expertise à l'un des contenus phares de BDM !
Je participe