À l’heure où, pour beaucoup, les réseaux sociaux sont une source d’information et un outil de militantisme, leur modération apparaît comme un frein.

D’autant plus que, le 7 janvier 2025, Mark Zuckerberg, dirigeant du groupe Meta (Instagram, Facebook, WhatsApp, Threads), annonçait dans une story Instagram "se débarrasser des fact-checkers pour les remplacer par des notes de la communauté, similaires à X".

L'Américain a également déclaré que les règles de modération allaient être "simplifiées" dans le but de "lever certaines restrictions sur des sujets tels que l’immigration et le genre, qui ne sont plus dans les discours dominants".

Un changement des plus inquiétants, car depuis 2021, certains mots sont sujets à une censure. "Viol" est ainsi remplacé par "V!ol" ou "Vi0l", "sexuel" par "seggsuel", et "violences sexistes et sexuelles" par "VSS".

Facebook déjà saisi en justice en 2021

Mais ce phénomène ne touche pas seulement les militants. Les médias présents sur Instagram, TikTok ou YouTube, comme Brut, Hugo Décrypte, Konbini et Le Parisien ont également recours à des "stratégies de contournement" pour éviter la censure et le "shadowban" (bannissement caché, en français).

En décembre 2023, Télérama rapportait que les comptes Instagram et X de quatorze militantes féministes avaient été suspendus en janvier 2021 après qu’elles avaient publié le message suivant : "Comment faire pour que les hommes arrêtent de violer ?". Ces dernières avaient alors assigné Facebook (qui, comme Instagram, appartient au groupe Meta) en justice, le 9 mars 2021, souhaitant obtenir des explications quant à la censure dont elles étaient victimes.

Selon des informations recueillies par l’Agence France-Presse et relayées par Le Parisien, Camille Lextray, l’une des plaignantes, déclarait : "On s’est rendu compte qu’Instagram allait cacher certains comptes, pratiquant ce qu’on appelle du 'shadow ban', mais sans jamais l’assumer ni en donner les règles." En réponse, Instagram avait expliqué que ses "règles sont conçues pour assurer la sécurité de la communauté tout en lui permettant de s’exprimer aussi librement que possible".

Des nouvelles réglementations qui participent à la désinformation 

Loin d’être endigué, le phénomène semble aujourd’hui s’accroître. Pour mieux comprendre ses implications et ses conséquences, Shani Benoualid, cofondatrice de l’association #jesuislà, qui lutte contre la haine, la désinformation et encourage le civisme en ligne, nous apporte son éclairage.

Marie Claire : Avec les récents changements de politique de modération sur Meta, quel est le risque concernant les contenus qui évoquent les viols, les violences faites aux femmes, les discriminations des minorités… ?

Shani Benoualid : Avant ces changements, les réseaux sociaux commençaient à peine à défricher le terrain et à établir des rapports de transparence concernant la modération des réseaux sociaux. Avec les annonces récentes de Mark Zuckerberg, une volonté d’alignement sur le modèle adopté par Elon Musk avec X (anciennement Twitter) apparaît clairement.

Les associations s’accordent unanimement à dire que les problématiques de haine en ligne, tout comme la désinformation, se sont considérablement amplifiées depuis la mise en place des nouvelles réglementations sur X. Par exemple, le système de "Community Notes" a remplacé un véritable travail de fact-checking effectué auparavant par des journalistes.

Ce sont précisément des mesures similaires que Mark Zuckerberg envisage d’instaurer. Ces annonces ont immédiatement été perçues comme une hostilité manifeste à l’égard de l’Europe. Cette dernière tente, de son côté, d’imposer un cadre réglementaire clair avec le Digital Services Act (DSA).

Nous étions déjà dans une situation complexe, mais ces annonces la rendent encore plus préoccupante. Il existe un sentiment d’impunité croissant chez les propagateurs de haine, un sentiment qui était déjà fort, mais qui s’intensifie à mesure que les propriétaires de ces plateformes envoient le message implicite que tout peut être dit, sous couvert de "liberté d’expression".

Pour que cette liberté soit effectivement respectée, il est impératif de s'assurer que les femmes, les minorités et d’autres groupes vulnérables puissent s’exprimer en ligne en toute sécurité. Les premières victimes de ces cyberviolences, en particulier les violences sexuelles en ligne, sont les femmes. Les femmes sont majoritairement touchées, mais cela n’exclut pas d’autres groupes, comme les minorités.

Une modération aux nombreuses zones d'ombre 

Pourquoi le mot "viol" a-t-il été supprimé ou censuré sur certains réseaux sociaux ? Est-ce une volonté des utilisateurs ? 

Depuis plusieurs années déjà, certains termes à forte signification, tels que "viol", mais pas uniquement, se retrouvent modérés, voire censurés, dans les contenus où ils apparaissent. Cela illustre une problématique majeure : la modération sur les plateformes ne semble pas reposer sur des critères cohérents et réfléchis.

La problématique de la haine en ligne s’est, malheureusement, solidement implantée sur les réseaux sociaux depuis plusieurs années. En France, nous avons, d’une certaine manière, pris les devants dans la lutte contre ce phénomène, bien que cela puisse paraître paradoxal au vu de l’ampleur globale de la situation. Depuis 2020, cinq lois ont été adoptées sur le sujet. Nous avons également contribué à l’élaboration d’une réglementation européenne. Cependant, bien que cette dernière soit censée être en application depuis peu, les résultats concrets tardent à se manifester.

Cela illustre une problématique majeure : la modération sur les plateformes ne semble pas reposer sur des critères cohérents et réfléchis.

Par ailleurs, alors même que nous demandons davantage de transparence et tentons de mieux comprendre les mécanismes de modération sur les réseaux sociaux, qui entraine la censure de ses mots, nous faisons face à de nombreuses zones d’ombre.

Pendant des années, il a été difficile d’obtenir des chiffres concrets sur les effectifs des modérateurs. Aujourd’hui encore, nous ignorons qui ils sont, où ils travaillent, dans quelles conditions, et quelle formation ils reçoivent. Ces lacunes soulèvent évidemment des interrogations, notamment sur leur capacité à gérer des enjeux aussi sensibles que la lutte contre la haine dirigée envers les minorités ou encore le sexisme. 

Quelles sont les politiques des réseaux sociaux concernant les contenus liés à la violence sexuelle ? Et comment justifient-ils cette invisibilisation ? 

L’enjeu central demeure celui de la liberté d’expression. Il est crucial de garantir que seuls les contenus illicites, ceux qui relèvent de la haine en ligne, soient retirés, et non des contenus de manière aléatoire, comme c’est souvent le cas aujourd’hui.

En l’absence d’un contrôle réel et rigoureux, les décisions de modération sont laissées aux plateformes. Cela engendre donc des résultats imprévisibles. À titre d’exemple, nous avons signalé avec mon association #jesuislà des contenus manifestement illicites, clairement contraires à la loi, mais qui nous ont été renvoyés avec un message affirmant :  "Ce contenu ne viole pas les standards de la communauté".

Concernant les termes sensibles tels que "viol", il apparaît que les systèmes de modération ne sont pas suffisamment performants. Dans les cas liés aux cyberviolences sexistes et sexuelles, la modération, bien qu'aléatoire, semble parfois plus punitive dès que certains mots apparaissent. À l’origine, ces systèmes visaient avant tout à cibler les contenus haineux, mais ceux qui luttent contre ces problématiques ont dû s’adapter à cette modération approximative.  

Des pratiques qui participent à l'invisibilisation des violences 

Quel impact l'invisibilisation de ces mots peut-elle avoir sur les victimes de viol et sur la sensibilisation de ce sujet ? Comment cette censure affecte-t-elle les campagnes de prévention et les discussions publiques sur les violences sexuelles ?

Ce sujet soulève de nombreuses interrogations, notamment concernant l’autocensure et l’invisibilisation des violences. L’utilisation de substituts, comme des émojis, pour remplacer des termes tels que "viol" atténue inévitablement la gravité associée à ces mots. Symboliquement, le mot "viol" porte une charge forte et exprime pleinement la gravité de l’acte. Mais dès lors qu’on se sent contraint d’utiliser des moyens détournés pour en parler, comme des émojis ou des expressions codées, cette gravité se dilue et contribue également à invisibiliser les violences elles-mêmes.

L’utilisation de substituts, comme des émojis, pour remplacer des termes tels que "viol" atténue inévitablement la gravité associée à ces mots.

Cette dynamique dépasse la simple question des substituts lexicaux. Prenons la pratique du shadowban : bien que le concept ne soit pas explicitement admis par ces plateformes, des preuves montrent que la visibilité de certains comptes ou contenus jugés "problématiques" est parfois limitée, sans que l’utilisateur concerné ne soit averti. Cela se manifeste par une baisse de visibilité, une diminution de l’engagement sur les publications ou une stagnation, voire un déclin, dans la croissance des communautés.

Les militant.es, ainsi que les femmes prenant la parole sur des sujets sensibles tels que les violences sexuelles, sont souvent les premières victimes. Ces comptes se retrouvent invisibilisés, leur visibilité "rétrogradée", et leur parole, de fait, moins audible. Cela complique considérablement la sensibilisation à ces thématiques sur les réseaux sociaux, où l’on ressent un réel abandon des efforts pour garantir un espace sain d’expression. 

Sur le long terme, quelles pourraient être les conséquences de la suppression de termes précis, comme "viol", sur la manière dont les réseaux sociaux gèrent les sujets sensibles ?

Il y a une véritable montée en puissance des stratégies de contournement, et leur impact sur le terrain est devenu particulièrement visible au fil des années. Là où, auparavant, les messages ouvertement racistes, antisémites ou sexistes étaient facilement identifiables, on constate aujourd’hui une évolution notable. Ces contenus illicites existent toujours, bien sûr, mais ils se transforment et se cachent derrière des formes plus subtiles : des termes codés, des références culturelles comme des allusions à des mangas ou des livres, qui rendent leur détection beaucoup plus complexe.

Cette évolution pose un double problème. D’une part, les systèmes de modération peinent à suivre le rythme : ils devraient non seulement être mis à jour régulièrement, mais fonctionner en temps réel, de manière continue, pour rester efficaces face à ces codes en constante évolution. D’autre part, cela complique considérablement l’application de la justice. Quand une menace explicite comme "Je vais te violer" est proférée, elle tombe immédiatement sous le coup de la loi. Mais lorsqu’une stratégie de contournement est utilisée, la menace devient plus difficile à qualifier juridiquement.

L’impact de ces pratiques va au-delà de la seule invisibilisation des discours des militant.es : elles fragilisent également la liberté d’expression.

Ces stratégies, qui gagnent du terrain, sont massivement adoptées par les propagateurs de haine, et cela force également les militants à s’adapter en retour. Ce phénomène crée un véritable effet domino : les propagateurs de haine imposent leur rythme et leurs codes, et les défenseurs des droits doivent constamment réagir, au lieu d’imposer des règles claires et de garantir un espace d’expression sécurisé.

L’impact de ces pratiques va au-delà de la seule invisibilisation des discours des militant.es : elles fragilisent également la liberté d’expression. Si nous ne mettons pas en œuvre des stratégies efficaces et concrètes pour lutter contre la propagation des contenus illicites, nous risquons de porter atteinte à cette liberté. D’un côté, des communautés entières sont réduites au silence, et de l’autre, des discours totalement valides – qui ne devraient en aucun cas être concernés par la modération – deviennent impossibles à tenir dans l’espace public.