X défie la justice française : jusqu’où peut aller l’État face aux géants du numérique ?

Les plateformes numériques, comme X ou Telegram, sont de plus en plus enclines à défier la justice européenne. Face à cette résistance, quels sont les leviers dont disposent les autorités pour contraindre ces géants à se plier au droit ?

X Europe Justice
L'Europe peut-elle faire plier X ? © Koshiro K - stock.adobe.com

Ces dernières années, l’Union européenne a cherché à reprendre la main face aux grandes plateformes numériques. Pour ce faire, elle a mis en place deux textes majeurs : le DSA (Digital Services Act) et le DMA (Digital Markets Act), devenus des outils juridiques essentiels. Mais sur le terrain, faire appliquer la loi reste un défi. Les autorités doivent composer avec des entreprises étrangères, au pouvoir considérable et parfois peu coopératives. Dernier exemple en date : X, qui a refusé catégoriquement de transmettre son algorithme à la justice française.

Quels sont, concrètement, les moyens d’action de la justice française face aux géants du numérique ? Jusqu’où peut-elle aller pour faire respecter la loi ? Pour répondre à ces questions, BDM a interrogé Maître Alan Walter, du cabinet Walter Billet Avocats, ainsi que Maître Yann-Maël Larher, du cabinet YML Avocat.

Refus d’obtempérer : quand X défie la justice française

Rarement une plateforme numérique ne s’était montrée aussi virulente vis-à-vis d’un régulateur. S’il n’existe plus de doute quant au virage opéré par X, désormais pleinement au service des idées d’extrême droite, le ton adopté dans le communiqué publié ce 21 juillet, qui répond à l’enquête pénale relative aux possibles ingérences politiques du réseau social et à ses pratiques en matière de ciblage publicitaire, marque une escalade inédite dans la confrontation entre la plateforme et les institutions françaises.

Le message ne manque pas de citer nommément le député Renaissance Éric Bothorel, à l’initiative de l’enquête, ainsi que trois experts associés au dossier. Pire encore, la plateforme refuse explicitement de se plier aux réquisitions judiciaires, notamment à la demande d’accès à son algorithme de recommandation, qu’elle juge injustifiée et « motivée par des considérations politiques ».

X reste dans l’ignorance des allégations précises qui sont portées contre la plateforme. Toutefois, sur la base de ce que nous savons aujourd’hui, X estime que cette enquête repose sur une application détournée du droit français, afin de servir un agenda politique, et, finalement, de restreindre la liberté d’expression, peut-on lire dans le communiqué.

Dans son souhait de disqualification de la justice française, X peut compter sur le soutien de Pavel Durov, fondateur de la messagerie Telegram. Dans une publication sur X, le milliardaire de 40 ans écrit : « À ce stade, n’importe quelle entreprise technologique peut être qualifiée de « bande criminelle » en France. Dix ans d’efforts pour attirer les investissements technologiques sont anéantis par quelques bureaucrates qui font avancer leur carrière et leurs intérêts politiques, au détriment des Français. » Une prise de position peu surprenante : en août 2024, Pavel Durov avait lui-même été interpellé à son arrivée en France, dans le cadre d’une enquête antiterroriste, après avoir refusé de coopérer avec les autorités judiciaires.

Plus inquiétant, le Bureau of Democracy, Human Rights, and Labor, qui dépend du département d’État des États-Unis, y est allé de son post – toujours sur X – avec à peine moins de véhémence.

Dans le cadre d’une enquête criminelle, un procureur français militant demande des informations sur l’algorithme propriétaire de X et a classé X comme « groupe criminel organisé ». Les gouvernements démocratiques devraient permettre à toutes les voix de s’exprimer, et non museler les discours qui leur déplaisent. Les États-Unis défendront la liberté d’expression de tous les Américains contre les actes de censure étrangère, fulmine l’institution.

Ce refus de coopérer pourrait ouvrir une brèche que les autres plateformes, jusqu’ici relativement prudentes, seraient tentées d’exploiter. Pour la France, le défi sera d’agir fermement sans alimenter de crise diplomatique. Mais dispose-t-elle des marges de manœuvre nécessaires ?

Face aux plateformes, l’Europe veut durcir le ton

À partir de 2020, l’Union européenne a amorcé un tournant dans sa stratégie de régulation des grandes plateformes numériques. Face à leur poids croissant dans le débat public, l’économie et la circulation de l’information, Bruxelles a voulu combler un vide juridique. Le DSA et le DMA, tous deux votés en 2022, ont permis de répondre aux différents objectifs fixés : imposer des obligations de transparence, de modération et de coopération aux plateformes, notamment les plus influentes, désignées comme « très grandes plateformes en ligne ».

En France, le rôle de « coordinateur des services numériques », tel que défini par le DSA, a été confié à l’Arcom, successeur du CSA. « L’Arcom dispose de pouvoirs que l’on pourrait rapprocher de ceux de la Cnil », explique Maître Alan Walter, avocat spécialisé en droit du numérique. L’autorité peut notamment signaler les manquements des plateformes à la Commission européenne – « cette dernière pouvant prononcer des sanctions financières » – ou au Comité européen des services numériques, qui supervise l’application du règlement dans l’ensemble des États membres.

Parmi les exigences du DSA, la question algorithmique fait l’objet d’une attention particulière. Maître Yann-Maël Larher rappelle : « Depuis la mise en œuvre du DSA le 17 février 2024, les plateformes ont, au niveau européen, l’obligation d’expliquer le fonctionnement des algorithmes qu’elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs. » C’est donc ce qui a été demandé à X.

Les très grandes plateformes et moteurs de recherche en ligne doivent en outre fournir à la Commission ou au coordinateur des services numériques compétent, sur demande motivée, un accès aux données nécessaires pour vérifier leur conformité avec le DSA, précise Maître Larher.

Par ailleurs, des dispositifs juridiques nationaux peuvent continuer à s’appliquer en parallèle du DSA, en fonction de la nature des faits reprochés aux plateformes. Dans le cas de X, la justice française mobilise également la législation relative aux atteintes aux systèmes de traitement automatisé de données (articles 323-1 à 323-8 du Code pénal, issus de la loi du 24 juillet 2015). Cette législation nationale, de nature pénale, permet de sanctionner certaines infractions techniques, telles que l’entrave au fonctionnement d’un système ou le refus de coopérer avec une décision judiciaire.

DSA : ce qui freine vraiment l’application des règles en Europe

Malgré les avancées législatives portées par le DSA, le DMA et le RGPD, et la volonté affichée de mieux encadrer les grandes plateformes, l’Europe se heurte, dans la mise en œuvre concrète de ces régulations, à plusieurs obstacles. Ces derniers sont aussi bien d’ordre institutionnel que juridique.

Un pouvoir disproportionné accordé à l’Irlande

Pour Yann-Maël Larher, la structure même de la gouvernance européenne constitue un des principaux défis : « L’efficacité concrète des investigations dépend du bon vouloir de l’État membre de référence de la plateforme, ce qui peut créer des frictions ou des ralentissements dans les enquêtes […] L’autorité compétente principale est celle de l’État membre où la plateforme a son siège social en Europe. » Ce mécanisme, hérité du RGPD et reconduit dans le DSA, place une responsabilité disproportionnée sur les épaules d’un nombre restreint d’États membres, au premier rang desquels l’Irlande, privilégiée par les plateformes pour des raisons fiscales.

Or, ce pays est régulièrement pointé du doigt pour sa lenteur à instruire les dossiers, ses prises de position jugées trop favorables aux géants du numérique, et sa proximité économique avec ces entreprises, qui y concentrent sièges sociaux et investissements massifs. Les dysfonctionnements de la DPC, le régulateur irlandais, ont été soulignés dès 2021 dans un rapport du Parlement irlandais, qui recommandait alors une « utilisation plus importante de ses pouvoirs de sanction », dans le cadre de manquements au RGPD.

Les États membres de l’Union européenne, l’Allemagne en tête, se montrent également critiques vis-à-vis de l’organisme. Helen Dixon, ancienne présidente de la DPC, a notamment qualifié les réunions avec les autres régulateurs des données de l’UE de « particulièrement désagréables ».

La question du secret industriel

Pour contourner le devoir de transparence imposé par le DSA, les plateformes opposent régulièrement la question du secret industriel pour limiter la transmission d’informations sensibles. Cette tension complique la tâche des autorités, notamment lorsqu’il s’agit d’accéder aux algorithmes ou aux systèmes de modération, car ces éléments sont jugés centraux pour l’activité économique des entreprises.

Selon Yann-Maël Larher, l’affaire Schufa (CJUE, 7 décembre 2023, aff. C-634/21) constitue à ce titre un précédent important. L’avocat souligne : « une décision automatisée fondée sur un score algorithmique doit pouvoir être contestée, ce qui implique un droit d’accès minimal à la logique de fonctionnement de l’algorithme ». Dans cette affaire, une agence de crédit allemande produisait un score transmis aux banques, qui influençait l’octroi d’un crédit. La Cour a estimé que ce score, bien qu’établi par un tiers, « relevait bien de l’article 22 du RGPD si ce score guidait de façon déterminante la décision prise à l’égard de la personne concernée », rappelle Yann-Maël Larher.

Ce jugement rappelle ainsi qu’un traitement algorithmique ayant une influence décisive sur une décision individuelle ne peut se soustraire à l’exigence de transparence, même au nom du secret industriel.

Les plateformes se cachent derrière la liberté d’expression

Le secret industriel n’est pourtant pas la ligne de défense adoptée par X. Dans son communiqué, le réseau social de microblogging accuse la justice française de chercher à « restreindre la liberté d’expression ». Un argument également mobilisé par Mark Zuckerberg, qui affirmait en janvier dernier que « l’Europe adopte un nombre croissant de lois qui institutionnalisent la censure et rendent difficile toute innovation ».

Si Yann-Maël Larher confirme que « ce n’est pas la première fois qu’une plateforme refuse de se soumettre à la justice française en invoquant la liberté d’expression », l’avocat rappelle que ce principe ne saurait, à lui seul, faire obstacle à une réquisition judiciaire fondée.

Lorsqu’une plateforme refuse de fournir des informations à la justice en invoquant la liberté d’expression, cette position n’est recevable que si la demande de la justice n’est pas justifiée, nécessaire et proportionnée. Sinon, la plateforme s’expose à des sanctions, car la liberté d’expression doit être conciliée avec d’autres droits et objectifs légitimes, notamment la recherche de la vérité, la protection de la vie privée, l’ordre public et la prévention des infractions.

Plateformes numériques : jusqu’où la justice peut-elle aller ?

En cas de non-coopération persistante, la Commission européenne dispose d’un levier financier conséquent. « La Commission n’hésite pas à sanctionner les GAFAM en matière de concurrence. Elle pourrait donc infliger une lourde amende à X, puis la renouveler si l’entreprise continuait de résister », explique Maître Alan Walter. Les sanctions peuvent théoriquement atteindre « jusqu’à 6 % du chiffre d’affaires mondial » de la plateforme. Quant à une interdiction d’opérer, également prévue par le DSA, elle demeure une option, mais reste « hautement improbable », selon l’avocat.

En parallèle, une autre voie existe : celle de la mise en cause des dirigeants. Pour Yann-Maël Larher, l’affaire Durov a posé un cadre : « Sur le plan du droit pénal, la responsabilité d’un dirigeant peut être engagée lorsque celui-ci a, par action ou par abstention, facilité ou laissé perdurer des comportements délictueux via les services qu’il contrôle. » Encore faut-il démontrer que l’intéressé avait connaissance des faits et s’est abstenu d’y remédier. Dans le cas de Telegram, c’est « le caractère récurrent et massif des usages illicites de la plateforme, conjugué à une absence alléguée de coopération suffisante avec les autorités judiciaires », qui avait justifié l’interpellation de son fondateur.

Le refus de X de coopérer avec la justice française met en lumière un conflit entre les États européens, qui entendent réguler démocratiquement l’espace numérique, et des plateformes dont l’influence dépasse désormais le cadre national. Cette tension révèle un clivage idéologique plus profond : une tradition européenne attachée à la souveraineté démocratique et à l’encadrement public s’oppose à une vision libertarienne du numérique, revendiquée par nombre de dirigeants de ces entreprises et désormais pleinement en phase avec les orientations de l’exécutif étasunien.

Picture of Alan Walter

Alan Walter, Avocat chez Walter Billet Avocats

Avocat au Barreau de Paris depuis 2006, Alan Walter a exercé son activité au sein de plusieurs cabinets spécialisés en nouvelles technologies, comme Alain Bensoussan Avocats et Kahn & Associés, avant de cofonder son propre cabinet en 2015. Il intervient également à Télécom Paris et l’université Paris-Nanterre.

Picture of Yann-Maël Larher

Yann-Maël Larher, Avocat en droit du travail et du numérique

Yann-Maël Larher est avocat au Barreau de Paris, docteur en Droit, spécialisé en droit du travail, droit du numérique et cybersécurité. Il conseille entreprises et collectivités sur l’impact des technologies sur le travail. Il est également membre du Conseil d’Administration de l’Association Française des Docteurs en Droit (AFDD).

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Visuel enquête Visuel enquête

Community managers : découvrez les résultats de notre enquête 2025

Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !

Je m'inscris

Les meilleurs outils pour les professionnels du web