Accueil

Société Big Brother
Facebook plonge dans l'arbitraire en autorisant les menaces de mort contre les soldats russes
Facebook a officiellement autorisé les appels au meurtre de Vladimir Poutine (Photo d'illustration).
Nikolas Kokovlis / NurPhoto / NurPhoto via AFP

Facebook plonge dans l'arbitraire en autorisant les menaces de mort contre les soldats russes

Modération à deux vitesses

Par

Publié le

À la suite de l'invasion russe de l'Ukraine, Facebook et Instagram viennent de modifier leur politique de modération en autorisant les menaces de mort contre l'armée russe. « On observe une forme de balkanisation du langage qui est très frappante », juge le chercheur Olivier Ertzscheid.

Le groupe Meta, qui comprend Facebook et Instagram, a décidé de modifier sa politique de modération pour faire preuve « d'indulgence » envers les menaces de mort proférées contre des soldats et les dirigeants russes, en pleine guerre en Ukraine. Les appels au meurtre contre des soldats ukrainiens sont en principe toujours interdits. Marianne fait le point sur cette décision stupéfiante.

Qu’a décidé Facebook ?

« À la suite de l'invasion russe de l'Ukraine, nous avons temporairement autorisé des formes d'expression politique qui violeraient normalement nos règles, comme des discours violents tels que "mort aux envahisseurs russes" », a déclaré un porte-parole de Meta, le nouveau nom du groupe Facebook, confirmant une enquête de l’agence de presse Reuters. En clair, la politique de modération sur Facebook et Instagram change dans certains pays, pour autoriser des appels à la violence contre des soldats russes et des dirigeants comme Vladimir Poutine ou le président biélorusse Alexandre Loukachenko. « Nous continuons de ne pas autoriser des appels crédibles à la violence contre des civils russes », a précisé Meta.

A LIRE AUSSI : "Je m’interroge beaucoup sur l’impact des algorithmes de Facebook sur nos élections à nous"

Au contraire, les « éloges » du « régiment Azov » un groupe paramilitaire ukrainien d'inspiration néonazie seront autorisés. Une « petite exception » selon le porte-parole de Meta qui sera permise si ces « éloges » sont « strictement dans le contexte de la défense de l’Ukraine, ou dans son rôle au sein de la Garde nationale ukrainienne ». Selon Reuters, qui a eu accès à des mails internes à Meta, les pays concernés sont l’Ukraine, Arménie, l'Azerbaïdjan, l'Estonie, la Géorgie, la Hongrie, la Lettonie, la Lituanie, la Pologne, la Roumanie, la Slovaquie et la Russie, où Facebook et Instagram ont toutefois été censurés la semaine dernière.

Est-ce que c’est nouveau ?

En juin 2021, Facebook avait déjà laissé passer des messages d’opposants iraniens appelant à la mort de l’ayatollah Ali Khameini, a rappelé l’AFP. « Une enquête du Guardian en 2021 avait déjà révélé des documents internes à Facebook prouvant que des consignes étaient données aux modérateurs pour autoriser les appels aux meurtres d’un certain nombre de personnalités publiques », explique le chercheur Olivier Ertzscheid, qui enseigne à l'université de Nantes, interrogé par Marianne.

« Un statut que Facebook définissait par rapport à un certain nombre d’abonnés sur les réseaux ou si la personne était apparue à plusieurs reprises dans des articles de presse. Les menaces de mort pouvaient passer à condition qu’elles aient une dimension figurative. On voit toutes les limites de ce genre d’exercice qui impliquent une grande marge d'interprétation », poursuit Olivier Ertzscheid.

A LIRE AUSSI : Après le Covid, les réseaux de "réinformation" antivax s'emparent de la guerre en Ukraine

Par ailleurs, une étude publiée ce jeudi 10 mars par la Licra et l’ONG allemande HateAid a une nouvelle fois pointé les lacunes criantes de Facebook en matière de modération de la haine en ligne. 70 % des messages de haines postés sur le réseau social ne seraient pas supprimés par Facebook, alors même qu’ils ont été signalés par des utilisateurs et qu’ils constituent des infractions à la loi. Signe que la modération des contenus haineux par le géant américain est non seulement arbitraire mais aussi impotente.

Qu'est-ce que ça change ?

Dès lors Meta fait-il de la modération ou clairement de la censure ? « Factuellement, ce sont toujours des questions de modération. Mais si l’on adopte une lecture un peu naïve de la situation, on a une entreprise américaine qui autorise à appeler à la mort du président russe. Cela entretient une logique d’affrontement binaire », poursuit Olivier Ertzscheid.

A LIRE AUSSI : Conflit ukrainien : "Vladimir Poutine a perdu la guerre de l’image"

Selon ce chercheur, « on observe une forme de balkanisation du langage qui est très frappante. Au même titre qu’il y a des enjeux de contrôle des hydrocarbures en Ukraine, il y a une grosse problématique de contrôle de la langue qui est opérée dans ce cas par des opérateurs privés, qui se présentent comme des médias mais refusent d'en assumer la responsabilité ».

Quels sont les risques ?

Un glissement des appels au meurtre vers les populations civiles russes ne peut être exclu, compte des failles béantes de la modération par Facebook. Au-delà, la décision de Facebook pourrait aussi mettre en danger les émetteurs de ces menaces. « Ce genre de décisions prises en temps de guerre risquent de laisser des traces ensuite. Cette décision de Facebook c’est une manière de dire aux gens : lâchez-vous. Mais si demain la Russie prend le contrôle total de l’Ukraine, cela peut potentiellement les mettre en danger. Le Parlement russe a adopté une loi punissant jusqu’à 15 ans de prison la diffusion de propos dénigrant l’armée. On peut se demander ce qui sera fait de tous ces discours qui vont rester en ligne une fois que le conflit sera terminé », relève Olivier Ertzscheid.

A LIRE AUSSI : Facebook et Mark Zuckerberg : un outil surpuissant entre les mains d'un homme-enfant

« Cela relève d’une forme d’impréparation, d’une négligence qui est devenue caractéristique de Facebook. Ils laissent faire comme ils l’ont fait avec les Rohingya en Birmanie par exemple », poursuit le chercheur. En décembre 2021, des réfugiés rohingya, une minorité ethnique musulmane, qui ont fui ce que l’ONU qualifie de « génocide » en Birmanie, ont entamé une procédure judiciaire contre Meta, jugeant ses algorithmes responsables d’avoir favorisé la désinformation et les idéologies racistes, qui se sont traduites par des actes violents.

Votre abonnement nous engage

En vous abonnant, vous soutenez le projet de la rédaction de Marianne : un journalisme libre, ni partisan, ni pactisant, toujours engagé ; un journalisme à la fois critique et force de proposition.

Natacha Polony, directrice de la rédaction de Marianne