Facebook en dit plus sur ses process de modération et de censure
C’est un débat presque aussi vieux que l’apparition des plateformes sociales. Comment fonctionne la modération ? Sur quels critères ? Qui s’en occupe, ou doit s’en occuper ? Entre liberté d’expression, respect de la loi et encadrement des débordements possibles, la problématique est complexe pour les plateformes concernées. Facebook lève le voile sur ses pratiques internes en publiant les directives utilisées par les équipes pour faire appliquer les « Standards de la communauté« , règles de bonne conduite réparties en 6 grandes familles. Le réseau social en profite pour annoncer la possibilité de faire appel d’une éventuelle censure sur les contenus individuels.
Application de la politique en matière de modération
Facebook explique que les standards de la communauté sont élaborés par une équipe dédiée aux politiques de contenu, composée de nombreux experts dans différents champs : terrorisme, incitation à la haine, protection de l’enfance… Des tiers sont également sollicités pour enrichir le débat et les points de vue. Les standards de la communauté sont donc non figés, ils évoluent avec le temps même si les fondamentaux restent en place.
Ces standards de la communauté mis en place, il convient de trouver les publications qui y contreviennent. Pour cela, Facebook s’appuie sur deux forces principales. D’une part, l’intelligence artificielle qui fait remonter certains contenus (messages, images…) potentiellement problématiques. D’autre part, les signalements des membres de Facebook donnent également de la matière à étudier. 7 500 personnes travaillent dans 40 langues différentes pour traiter ces remontées. S’il peut arriver que des interprétations personnelles jouent sur certaines modérations, l’objectif est que les standards de la communauté et les règles soient suffisamment clairs pour ne pas laisser de doute aux personnes en charge de l’éventuelle modération ou censure.
> Des exemples de standards expliqués
L’arrivée d’un recours éventuel
Il vous est probablement déjà arrivé d’avoir un ami qui a été victime de la suppression d’un post sans comprendre pourquoi. Si cela se reproduit, il pourra bientôt faire appel de cette décision auprès de Facebook. Les manquements aux règles seront signalés aux contrevenants, qui pourront alors effectuer une demande de révision, qui aura lieu dans les 24 heures qui suivent. Si une erreur d’interprétation a eu lieu, alors votre post sera de retour sur le réseau social. Cette procédure sera dans un premier temps proposée pour ce qui concerne la nudité ou l’activité sexuelle et l’incitation à la haine et à la violence.
Autre nouveauté, la communauté sera mise à contribution. En mai, Facebook lancera les Forums Facebook, évènements publics organisés notamment en France (mais aussi aux États-Unis, en Allemagne, en Inde…) pour recueillir les avis de chacun et faire évoluer les standards de la communauté.
On peut remarquer l’effort de clarté fait par Facebook, qui tente de jouer la transparence sur ses règles de modération et d’inclure plus grandement ses membres dans ce processus. Dans le fond, on notera tout de même assez peu de changements par rapport aux pratiques actuelles, si ce n’est un effort de communication assez logique dans le climat actuel. Le début d’une politique plus générale de transparence ?
J’ai fait des recours sur des images refusées, pourtant très sages, il y a deux poids deux mesures chez facebook