Décryptage : tous les enjeux de la modération dans le metaverse

Comment envisager la modération dans le metaverse ? Décryptage des différentes problématiques et des solutions à mettre en place avec Hervé Rigault, CEO de Netino by Webhelp.

metaverse-netino-moderation
Décryptage des enjeux de la modération dans le metaverse.

Le metaverse est un sujet chaud de ces derniers mois. Nous avons voulu en savoir plus sur les problématiques et enjeux liés à la modération. D’après Meta, une modération inefficace sur leur monde virtuel risquerait de tuer le projet. C’est donc un enjeu fort du développement de ces nouveaux espaces.

Nous avons interrogé Hervé Rigault, le CEO de Netino by Webhelp afin qu’il nous partage sa vision sur ce sujet. Le dirigeant porte notamment la nouvelle offre de Netino qui propose aux marques des stratégies de modération et de community management sur le web3. Un échange passionnant aux frontières entre débat technologique, politique, et sociétal.

En savoir plus sur Netino

Il est difficile de concevoir ce qu’est la modération dans le metaverse, pouvez-vous nous expliquer en quoi ça consiste ?

De façon générale c’est la lutte contre les comportements répréhensibles dans les espaces créés par les plateformes de metaverse. Contrairement aux réseaux sociaux traditionnels, le metaverse a vocation à créer une expérience hyper immersive, qui fait appel au maximum de sens (même si cela reste une expérience digitale).

Globalement, il faut être capable de prévoir et d’empêcher tous les comportements toxiques et « déviants » entre utilisateurs de ces espaces. J’utilise le terme « déviant » avec des pincettes parce que cela veut aussi dire qu’il faut définir une norme, et quels comportements s’en écartent.

Quelles sont les difficultés de modération intrinsèques à ces espaces virtuels ?

Les interactions ont lieu en live, donc c’est une contrainte forte à gérer. Pour gérer le temps réel, il faut mettre en place des fonctionnalités d’autoprotection pour les utilisateurs. Il est évidemment impossible de surveiller humainement chaque personne. Il existe déjà plusieurs fonctionnalités de modération pour les utilisateurs de plateformes : muting pour rendre silencieux un utilisateur, safety bubbles pour empêcher d’autres utilisateurs de pénétrer son espace, possibilité d’alerter la communauté…

Certaines plateformes penchent vers cette stratégie d’auto-régulation, où c’est la communauté qui prend des sanctions contre les utilisateurs : blocage pendant quelques jours, bannissement…  De notre côté, nous avons par exemple fait le choix sur The Sandbox de créer des communautés d’ambassadeurs qui vont accueillir les nouveaux entrants, leur expliquer les règles et comment fonctionne cet espace. C’est un fonctionnement que nous appliquons aussi pour les marques qui ont des espaces sur le metaverse et avec qui nous travaillons.

Nous aidons donc les utilisateurs à fois à découvrir ce nouvel espace et à maximiser la qualité de leur expérience, mais nos ambassadeurs sont aussi là pour gérer les comportements répréhensibles.

Quelles sont les formes de harcèlement auxquelles sont exposés les utilisateurs et utilisatrices sur ces plateformes ?

Dans ces espaces, les formes de harcèlement sont multiples et vont bien au-delà du harcèlement « écrit » et peuvent ressembler à du harcèlement « physique ». N’importe qui peut expérimenter la façon dont on vit la violence quand on reçoit un message agressif de harcèlement. C’est violent, et pourtant ça ne reste que des caractères sur une page. Si l’utilisateur porte un casque de réalité virtuelle et qu’il sent quelqu’un approcher, rentrer dans son espace intime ou personnel, l’agression devient quasiment physique. Les casques de réalité virtuelle peuvent créer des traumatismes assez proches de ce qu’on peut vivre dans « la vraie vie ».

Il ne faudrait pas que ce soit un espace de non-droit qui serve d’exutoire à des gens qui se sentent de moins en moins libres dans la vie normale, et où ils pourraient s’affranchir de toute contrainte et de toute morale.

Ce serait mortifère et dangereux. Un des premiers besoins humains, c’est la sécurité. Donc quand on crée un monde comme le metaverse, il faut s’occuper de ses habitants, et considérer que l’avatar est une extension des « vrais » êtres humains.

Ce sujet est très sociétal, parce qu’il est en lien avec le consentement. Il ne faut pas que les utilisateurs ou utilisatrices ressentent et vivent des expériences non souhaitées. Le metaverse c’est fabuleux quand c’est vécu comme une expérience, mais les utilisateurs et utilisatrices doivent avoir la main sur cette expérience, et ne pas se faire imposer des comportements qu’ils considèrent comme toxiques.

En savoir plus sur Netino

La modération dans le metaverse est donc un sujet « technique », humain, mais surtout politique ?

Il faut rappeler que ces espaces sont des espaces créés par des entreprises privées, ils sont donc régis par leurs propres règles, et leurs visions de la liberté d’expression, et de ses limites. Je pense que nous devrions avoir une approche politique de ce sujet, et réfléchir au metaverse comme l’organisation d’une cité, d’un espace commun. C’est un enjeu fort : quand des plateformes créent des mondes, il faut inventer les règles de ces mondes.

C’est un sujet qui doit aussi être pensé avec les États, les institutions nationales et transnationales, parce que les acteurs du metaverse sont des acteurs globaux. Laisser à des entreprises privées, dont nous faisons partie, la responsabilité de dicter les lois dans des espaces qui sont de moins en moins virtuels, ça pose un vrai problème politique.

Selon moi, il faut très vite que les pouvoirs publics agissent au niveau européen, ou au moins au national. Le législateur a mis quasiment 20 ans pour réguler a minima le web2, et à statuer sur sa modération. Attention donc, à ne pas mettre 10 ou 15 ans pour s’occuper du web3 comme nous l’avons fait pour le web2.
Si sur chaque plateforme, sur chaque monde, il y a des lois différentes, ceux qui veulent avoir des comportements déviants iront sur une plateforme plus permissive. Certaines plateformes seront volontairement moins regardantes pour attirer un large public.

J’ai toujours considéré que Netino, par son activité de modération, avait une vraie mission politique dans le sens premier du terme. Mais nous devons faire attention à ne pas être que des sous-traitants qui doivent faire ce que ce qu’une entité privée transnationale décorrélée des lois locales pourrait nous demander de faire. Un vaste sujet donc, et beaucoup plus profonde que de la simple « modération » !

Est-ce que, comme sur les réseaux sociaux, cette modération est amenée à être de plus en plus gérée par l’IA ?

La loi Avia contre les contenus haineux sur Internet exige que les plateformes puissent modérer les contenus illégaux ou haineux en 24 heures. Cette obligation de gérer si rapidement des millions de contenus a nécessité l’automatisation de la modération. Aujourd’hui 90 à 95% de la modération sur réseaux se fait de façon automatique chez Netino.

Sur le metaverse il y a énormément de travail et de développement sur de la modération automatique. Les plateformes travaillent notamment avec des studios de cinéma, pour reproduire avec des acteurs des comportements agressifs, et pouvoir entrainer l’IA à les reconnaître. C’est donc un sujet en cours.

Avant nous nous adaptions aux règles de la plateforme, ou de la marque avec qui nous travaillions, mais avec l’émergence du metaverse, je pense que c’est l’utilisateur final qui devra décider ce qu’il accepte, et ce à quoi il veut être exposé. Il faut que l’utilisateur puisse avoir accès à une liste de comportements qu’il accepte ou non. Je crois beaucoup à cette approche, qui me semble la seule efficace dans un contexte d’interactions en live.

Vous travaillez beaucoup sur The Sandbox. C’est une expertise et une façon de travailler duplicable à d’autres plateformes ?

Ce que nous proposons est bien plus complet que de la modération. Nous permettons en effet de faire du community management et l’engagement. Nous revenons un peu aux débuts du community management, avec une volonté d’humaniser ces espaces. Nous avons donc une centaine de « vrais » collaborateurs, qui mettent des casques de réalité virtuelle pour explorer les différents espaces et engager les utilisateurs.

Nous avons actuellement une centaine de personnes qui travaillent sur l’espace The Sandbox, et c’est évidemment duplicable pour d’autres espaces. Au-delà des plateformes, c’est aussi un vrai besoin pour les marques. Elles veulent créer des espaces, mais ne savent pas nécessairement comment engager des communautés social media « classiques » dans le web3. Nous les aidons donc dans cette transition entre les deux mondes.

En savoir plus sur Netino

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.