Modération : pourquoi sommes-nous toujours exposés aux contenus violents sur les réseaux sociaux ?

L’attentat de Christchurch, en Nouvelle-Zélande, est une énième tragédie diffusée et relayée sur les réseaux sociaux. Un Facebook Live a en effet été diffusé pendant plus de 17 minutes avant d’être coupé. De nombreuses copies du live ont ensuite été visionnées, que ce soit sur Facebook ou Twitter. Facebook a supprimé plus d’1,5 millions de copies de la vidéo et 300 000 d’entre elles sont passées par les mailles de la modération et ont effectivement été publiées. Les contenus sont encore largement visibles sur Facebook, Twitter ou les autres plateformes. Quelle est la responsabilité de ces plateformes dans cette diffusion ?

netino

Comment ont réagi les internautes ?

Pour creuser le sujet, à froid, les équipes de Netino By Webhelp (société spécialisée dans la modération des commentaires) ont passé en revue des dizaines d’articles et des centaines de commentaires évoquant ce sujet épineux. Spécialiste de la modération, Netino dresse une synthèse des avis fréquemment exprimés :

Premier constat, les commentaires les plus nombreux sont – heureusement – des commentaires de compassion :

« Je viens de lire la plupart des commentaires et enfin je reprends espoir , très peu de coms haineux et beaucoup de compassion envers les personnes assassinées. Le jour de la fin du monde on sera tous aux premières loges , musulmans , chrétiens et toutes les autres croyances, tous unis devant la fin. »

Très vite, on tombe pourtant sur ce type de commentaires :

« Recherche lien pour visionner la vidéo COMPLÈTE de l’attaque « terroriste » »

  » Voilà la vidéo de l’attaque terroriste (suivi d’un lien). »

« Tu peux encore la trouver sur yandex avec rutube. J ai un pote qui m’a montre la 2eme vidéo . Dur,dur.la vidéo est encore visible dans les pays democratique comme l amerique, la russie etc,,, »

Ce qui ne manque pas de créer de premières tensions :

« super aller mater des gens se faire flinguer ….. faut consulter a ce stade »

Comme souvent après l’émotion, vient le temps de la polémique, et les premières critiques s’adressent aux grandes plateformes…

« Parce que fb comme tous les reseaux sociaux sont de la merde. Réactivité zero »

«  Et quand est-ce que Facebook arrête ses vidéos live ???? »

«  Parce que les réseaux sociaux publics sont tout simplement la pire plaie de la société. »

« Ouai et des que l’on voit un seins ou une bite la photo est direct bloquée par contre une vidéo d’un massacre en live…… »

Ce dernier argument est très souvent revenu, et montre que la différence de modération d’une vidéo par rapport à une photo est mal comprise. Certains ont tout de même essayer d’apporter leur écot aux débats :

 « Aucun robot ne pourra jamais empêcher ce genre de live. Comment différencier une vraie tuerie d’un type qui ferait un live pour commenter un film dans lequel il y aurait des coups de feu ? Impossible »

« Les signalements à Facebook sont fastidieux et parfois franchement inutiles. Vous pouvez signaler ce genre de vidéos, des images d’horreurs, d’accidents, et aussi, entre autres, les publicités douteuses, les arnaques, leur réponse « ne sort pas du cadre de la déontologie facebook etc. »

Il y a donc un grand décalage entre la posture, très factuelle des GAFA d’un côté (expliquant les actions menées pour bloquer la vidéo), et les réactions incrédules d’une grande majorité d’internautes de l’autre.

Qu’a vraiment fait Facebook ?

La mise en ligne de la vidéo sur Facebook s’explique par deux facteurs majeurs. Le premier d’entre-eux est que l’IA Facebook est entraînée à détecter certains types de contenus. Elle excelle par exemple pour détecter la nudité, ou les actes suicidaires et violents. Dès qu’un contenu est identifiée, il est transmis à un modérateur humain. Dans le cas de la tuerie de Christchurch, l’IA n’a pas identifié l’attentat comme étant un contenu à modérer. La raison est assez simple : les contenus pourraient être des contenus de films ou de jeux vidéo, et Facebook pourrait faire remonter trop de faux positifs.

Autre levier de modération qui n’a pas fonctionné : les signalements des utilisateurs. Personne n’a signalé la vidéo pendant sa diffusion, les vidéos en direct signalées sont pourtant examinées très rapidement. Cette procédure permet aux modérateurs de faire appel aux secours très rapidement, notamment en cas de suicide. La vidéo de la tuerie n’étant pas signalée comme suicidaire, elle n’a pas été examinée de façon prioritaire. Comme le rappelle Numerama, malgré les ratés récurrents, Facebook dispose d’une énorme force de modération de près de 15 000 employés.

L’œil de l’expert avec Netino by Webhelp

Comme le précise Cyril Bladier, professeur, auteur et spécialiste du digital, ce n’est pas la première fois que le grand public est soumis à ce type d’images :

Des dérives et des exactions sur les réseaux sociaux, ce n’est malheureusement pas la première fois et probablement pas la dernière. En France, une jeune fille s’est suicidée en direct sur Facebook Live en se jetant sous le RER. En 2017, à Cleveland, des meurtres ont été diffusés en Live sur Facebook. La même année, en 2017, Le Figaro titrait déjà « l’inquiétante prolifération de crimes diffusés en direct sur Facebook ». La réalité rejoint donc peu à peu la fiction et les séries policières, avec des exactions filmées et diffusées en direct sur Internet.

Concernant les événements en Nouvelle Zélande, la Première ministre déplore la difficulté à faire retirer de telles vidéos des différentes plateformes.

A titre personnel, pour se protéger d’être exposé à de telles images (ou de savoir ses enfants y être exposés) ce n’est pas très compliqué (encore faut-il savoir le faire). Il faut notamment empêcher l’autoplay (les vidéos qui se lancent automatiquement) et bloquer certains contenus ou types de contenus dans ses paramètres de réglages. C’est un minimum, mais certainement pas une garantie à 100%.

Le problème ne vient pas de là. Le problème vient de ceux qui veulent diffuser ces images (l’arsenal judiciaire est complexe à mettre en œuvre) et de ceux qui veulent les voir.

Du côté des réseaux sociaux, à lire les déclarations à la suite de ces événements, ils manqueraient d’une réelle volonté de bloquer ces images. Le problème technique est peu mis en avant.

On peut être tenté d’en demander plus à ces plateformes, en termes de contrôle. La solution a l’air simple. Elle ne l’est pas ! Où met-on la limite ? Comment des sociétés hyper puissantes et qui échappent à de nombreuses réglementations pourraient décider de ce qui est bon et de ce qui ne l’est pas ? Peut-on vraiment laisser une poignée de personnes (les dirigeants de Google / Youtube, de Facebook / Instagram et de Twitter) décider de ce que nous devons ou non voir ?

Aucune solution ne semble émerger et il y a fort à craindre que, hélas, aucune mesure efficace ne puisse garantir que l’on ne reverra « plus jamais cela… »

Cet article a été rédigé dans le cadre d’un partenariat avec Netino by Webhelp

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Les meilleurs outils pour les professionnels du web