Photo d'illustration créée le 8 janvier 2025 à Bruxelles montrant le logo de Meta et un écran sur lequel on peut lire "fact checking" et "community notes" ( AFP / Nicolas TUCAT )
Le projet de Meta de supprimer son programme de fact-checking aux Etats-Unis fait craindre aux experts de la désinformation que des plateformes comme Facebook et Instagram soient inondées par les infox, à l'instar du réseau social X d'Elon Musk.
Le patron du géant de la tech Mark Zuckerberg a annoncé mardi, à quelques jours de l'investiture de Donald Trump, que le recours à des spécialistes externes du fact-checking pour lutter contre les fausses nouvelles sur ses réseaux sociaux serait remplacé par un système de notes confié à tous les utilisateurs.
La lutte contre la désinformation est depuis longtemps un sujet clivant du débat politique aux Etats-Unis. Les conservateurs l'accusent d'être un outil de restriction de la liberté d'expression et de censure des discours de droite, ce que les experts réfutent.
C'est justement au nom de la "liberté d'expression" que Mark Zuckerberg a justifié le tournant de Meta, tout en concédant : "nous allons épingler moins de mauvais contenus".
- "échec" -
"L'abandon de la vérification formelle des faits au profit d'outils participatifs comme +Community Notes+ (sur le réseau social X) a été un échec par le passé", explique à l'AFP Nora Benavidez, experte au sein de l'organisation Free Press.
X "a essayé et ne peut pas résister au volume de fausses informations et de contenus violents", a-t-elle ajouté.
Après avoir racheté Twitter en 2022, rebaptisé X, Elon Musk a supprimé les équipes chargées de lutter contre la désinformation et a introduit les "Community Notes", ou notes de contexte, un outil participatif, dont chaque utilisateur peut s'emparer.
Pour des chercheurs, l'affaiblissement des garde-fous et la réintégration de comptes autrefois interdits ont transformé la plateforme en refuge pour les propagateurs d'infox.
Des études ont montré que les notes de contexte peuvent contribuer à répandre de fausses informations, par exemple sur les vaccins. Mais des chercheurs soulignent aussi que la méthode est plus efficace pour les sujets qui font l'objet d'un large consensus.
"Bien que la recherche soutienne l'idée que la vérification des faits par la foule peut être efficace lorsqu'elle est effectuée correctement, il est important de comprendre qu'elle est destinée à compléter la vérification des faits par des professionnels, et non à la remplacer", déclare Gordon Pennycook, de l'université Cornell.
"Dans un écosystème où la désinformation a une grande influence, une vérification des faits participative ne fera que refléter les croyances erronées de la majorité", ajoute-t-il.
"Les utilisateurs des notes de contexte sont souvent motivés par des raisons partisanes et ont tendance à privilégier leurs adversaires politiques", ajoute Alexios Mantzarlis, directeur de la "Security, Trust, and Safety Initiative" à Cornell Tech.
Une étude publiée en septembre dernier dans la revue Nature Human Behavior a montré que les avertissements issus de fact-checkers professionnels réduisent la croyance dans les fausses informations et leur partage, même chez les personnes "les plus méfiantes" à l'égard de la lutte contre la désinformation.
- premier pas -
Certains craignent que la décision prise par Marc Zuckerberg ne soit qu'un premier pas.
"S'il adhère totalement à la stratégie de Musk, la prochaine étape consistera à réduire encore le nombre des modérateurs de contenu, y compris ceux qui suppriment les contenus violents et les discours haineux", met en garde Rosa Curling, co-directrice exécutive de Foxglove, une société d'activisme légal basée au Royaume-Uni, qui a soutenu une action en justice contre Meta au Kenya.
Meta a également annoncé qu'elle allait transférer ses équipes chargées de modérer les contenus de la Californie, un État libéral, vers le Texas plus conservateur.
L'AFP travaille actuellement dans 26 langues avec le programme de vérification des faits de Facebook, notamment aux États-Unis et dans l'Union européenne.
Meta a également annoncé des changements dans ses politiques de modération, une démarche qui fait craindre un recul pour la lutte contre les discours de haine ou de harcèlement des minorités.
La dernière version des règles de la communauté de Meta indique que ses plateformes autorisent les allégations de "maladie mentale ou d'anormalité" lorsqu'elles sont fondées sur le genre ou l'orientation sexuelle.
L'abandon de politiques de lutte contre les discours haineux conformes aux normes de l'industrie de la tech fait des plateformes de Meta des "lieux dangereux", a réagi Sarah Kate Ellis, présidente de l'association de défense des droits GLAAD.
Sans ces politiques, "Meta donne le feu vert à des personnes pour cibler les personnes LGBTQ, les femmes, les immigrés et d'autres groupes marginalisés avec violence, virulence et des récits déshumanisants ", a-t-elle ajouté.
9 commentaires
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer