Meta publie de nombreux audits sur le DSA : que contiennent-ils ?
Meta montre patte blanche en publiant plusieurs rapports relatifs à sa mise en conformité avec le DSA. On fait le point !
Ce jeudi 28 novembre 2024, dans un communiqué diffusé au sein de sa newsroom, Meta a annoncé la publication de plusieurs rapports visant à prouver sa conformité à la loi européenne sur les services numériques (DSA), incluant « un rapport d’audit indépendant ». Pour ce faire, Meta a constitué une équipe de plus de 40 personnes afin de produire la documentation nécessaire à la réalisation des audits. Une façon pour la firme de jouer la carte de la transparence et de répondre aux accusations dont elle est régulièrement la cible.
Meta se dit conforme au DSA
Au total, 16 types de rapports ont été publiés, pour la plupart déclinés sur plusieurs périodes, pour Facebook et Instagram. La majorité concerne l’Union européenne dans son ensemble, mais certains se focalisent sur des pays hors UE concernant des sujets ou réglementations spécifiques, dont la Corée du Sud, l’Inde, la Turquie, le Brésil et la Norvège.
Dans son blog post, Meta indique que plus de 90 % des mesures prises par la firme pour se conformer aux exigences de l’UE étaient conformes et que les 10 % restants nécessitaient « certains ajustement ». Par ailleurs, la firme rappelle qu’aucun auditeur n’a émis de conclusion défavorable concernant les dispositifs mis en place.
Les résultats de l’audit indépendant, combinés aux rapports de mise en œuvre qui l’accompagnent, montrent que le Meta a mis en place des mesures dans tous les domaines couverts par l’audit. […] Cela témoigne de notre investissement continu dans la sûreté et la sécurité, et du travail entrepris par des milliers d’employés de Meta pour répondre aux exigences du DSA, explique Meta.
5 points d’alertes pointés par le rapport indépendant
Le rapport indépendant a été mené par le célèbre cabinet d’audit Ernst & Young LLP (EY). S’il révèle que la majorité des obligations ont été respectées, il note toutefois 5 points d’alerte, dont la plupart relève d’un manque de transparence des documents fournis par Meta :
- Bibliothèque de publicité : Meta n’a pas indiqué les raisons du retrait de certaines publicités dans sa bibliothèque publicitaire, ce qui limite la transparence des actions entreprises pour garantir la conformité aux règles publicitaires.
- Facebook Dating : jusqu’en février 2024, l’option permettant de désactiver le profilage pour les recommandations de contenu n’était pas disponible sur Facebook Dating. Cette lacune a entraîné une non-conformité partielle aux exigences du DSA en matière de respect de la vie privée et de contrôle par les utilisateurs.
- Rapport de transparence sur la modération de contenu : Meta n’a pas suffisamment détaillé les types de violations ou les méthodes de détection (automatisées ou humaines) dans ses rapports. De plus, l’absence d’indicateurs sur l’efficacité et le taux d’erreur des outils réduit la transparence pour les utilisateurs et les régulateurs.
- Suspensions pour contenu illégal : les rapports publiés par Meta ne distinguent pas les suspensions pour contenu illégal de celles basées sur les règles internes de Meta. Cela rend difficile de vérifier si l’entreprise respecte ses obligations légales ou applique uniquement ses propres politiques.
- Restrictions de monétisation : Meta ne fournit pas d’information sur la manière dont elle applique les restrictions de monétisation pour les contenus ou comptes en infraction. Cette omission empêche de comprendre comment l’entreprise limite les abus commerciaux.
Meta explique que les deux premiers points d’alerte, concernant la bibliothèque de publicité et Facebook Dating, ont déjà été traités. Pour les trois autres, l’entreprise promet de « travailler sur des solutions pour répondre à ces constatations ».
Un focus sur les élections législatives de 2024
Un des nombreux rapports proposés revient spécifiquement sur les élections législatives de 2024 en France. Il révèle que les mesures suivantes ont été adoptées :
- Modération du contenu : Meta a supprimé les contenus portant sur l’ingérence, la fraude, la violence électorale et la désinformation.
- Gestion des risques : des processus spécifiques, tirés de « l’expérience de plus de 200 élections mondiales », ont été mis en place pour identifier et atténuer les menaces potentielles.
- Collaboration externe : Meta a collaboré avec les autorités françaises, la société civile et des experts pour coordonner les efforts de protection du processus électoral.
- Engagement civique : des outils ont été développés pour « rappeler aux citoyens le jour du vote et les rediriger vers des sources nationales faisant autorité sur la manière de voter et le lieu où le faire », est-il écrit dans le rapport.
- Lutte contre la désinformation : grâce à l’intelligence artificielle et au fact-checking, Meta indique avoir renforcé la détection des ingérences et des informations trompeuses.
- Publicité politique transparente : des règles ont été appliquées pour encadrer les publicités politiques, avec des archives accessibles au public.
- Usage responsable de l’IA générative : Meta dit avoir pris des précautions pour s’assurer que ces technologies ne servent pas à manipuler l’opinion publique ou à diffuser des fausses informations.
DSA : Meta régulièrement ciblée par l’UE
Ce rapport est une manière pour Meta de témoigner de sa bonne foi dans la mise en place de mesures pour se conformer au DSA et d’apaiser les tensions avec l’Union européenne. En effet, à deux reprises, la maison mère de Facebook et Instagram a été ciblée par la Commission européenne.
La première fois, en mai 2024, lorsque la Commission a ouvert une procédure formelle pour évaluer si les systèmes de Meta respectaient les obligations du DSA concernant la protection des mineurs et la prévention des comportements addictifs, tout en s’interrogeant sur les mécanismes de vérification de l’âge.
La seconde fois, en août 2024, quand Meta a été sollicitée pour expliquer ses décisions concernant la fermeture de l’outil CrowdTangle, essentiel pour la transparence des données publiques, et pour clarifier ses efforts de conformité, notamment dans le contexte de la surveillance des élections et des discours civiques.
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris