Logo de TwitterLa CCDH, organisation engagée dans la lutte contre la haine en ligne, a entrepris d'évaluer les mécanismes de modération mis en place par le réseau social dirigé par Elon Musk. - Photography JOEL SAGET / AFP©

Découvrez les constats alarmants de la CCDH signalant l’inaction de la plateforme X dirigée par Elon Musk en matière de modération de contenus. L’étude souligne la tolérance envers les messages violents et met en lumière l’absence de mesures restrictives à l’égard des comptes responsables.

Une étude dénonce X et son mauvais système de modération de contenus 

L’inaction flagrante de la plateforme X (anciennement Twitter) en matière de modération de contenus est révélée dans une étude choquante menée par le Center for Countering Digital Hate (CCDH).  La recherche a porté sur 200 messages violant les règles de la plateforme en matière de promotion de la haine, notamment après les attaques du Hamas contre Israël en octobre dernier. Malgré les signalements effectués le 31 octobre 2023, 98% des publications signalées étaient toujours accessibles une semaine plus tard, le 7 novembre 2023. Cela illustre l’inaction de X en matière de modération de contenus sur sa plateforme. 

L »inaction flagrante de la plateforme face à la publication de messages violents dénoncée

Les messages haineux qui y ont été publiés ont cumulé plus de 24 millions de vues. Ils véhiculent des discours violents à l’encontre des musulmans, des Palestiniens et de la communauté juive. Certains de ces posts comparent les musulmans à des « rats malodorants » ou assimilent les Palestiniens à des « animaux », tandis que d’autres adoptent un ton antisémite en niant l’Holocauste ou en glorifiant le nazisme. Malgré leur contenu offensant, ces messages demeurent accessibles sur la plateforme, certains étant même accompagnés de la mention « Visibilité limitée : ce poste est susceptible d’enfreindre les règles du réseau social relatives aux conduites haineuses ».

La demande de suspension des comptes à l’origine des tweets n’a pas été prise en compte

L’inertie de la plateforme d’Elon Musk s’étend également aux comptes responsables de ces tweets. En effet, les efforts de signalement effectués par la CCDH le 31 octobre 2023 n’ont conduit qu’à la suspension d’un seul compte, soulignant ainsi la nécessité urgente pour X d’améliorer ses pratiques de modération de contenus. Sur les 101 comptes à l’origine des 200 messages signalés, seulement un a été suspendu, et deux ont été temporairement « verrouillés ». Notons que 43 comptes sont certifiés, bénéficiant ainsi d’une meilleure exposition grâce à l’algorithme de la plateforme, augmentant la visibilité de leur contenu problématique. Cette situation souligne l’urgence de revoir les pratiques de modération de contenus sur X pour endiguer la propagation de messages haineux.

Elon Musk, le PDG du réseau social, ne tient pas son engagement selon la CCDH

Malgré les déclarations antérieures d’Elon Musk affirmant son engagement à lutter contre les discours haineux sur Twitter, désormais X, l’étude approfondie du Center for Countering Digital Hate (CCDH) met en évidence l’échec patent de cette prétendue stratégie. Imran Ahmed, PDG et fondateur du CCDH, souligne que X a délibérément négligé ses responsabilités en matière de modération de contenus et de sécurité, compromettant ainsi la promesse de lutte contre les discours haineux. Le récent contentieux entre Elon Musk et le CCDH, où ce dernier a été attaqué en justice pour prétendue diffusion de fausses informations, souligne le désaccord persistant sur la performance de X en matière de modération de contenus.

 Avec ETX/DailyUp