Sécurité du compte Facebook

« Facebook Files », le nouveau scandale de Facebook pour avoir manipulé son algorithme

Le réseau social créé par Mark Zuckerberg fait face un nouveau scandale, surnommé « Facebook Files », en référence aux fichiers internes qui sont devenus connus et qui révèlent, à travers des fuites de certains de ses employés, les règles de fonctionnement internes pour le traitement des contenus préjudiciables et comment, à de nombreuses reprises, on n’a pas fait assez pour l’arrêter.

Facebook accumule les problèmes avec sa politique de modération des contenus et de diffusion de certains contenus

Cet été, le Wall Street Journal a révélé que Facebook permettait à des millions d’utilisateurs d’éviter la modération de contenu, en particulier des utilisateurs privilégiés tels que des artistes, des politiciens et des célébrités, dont le contenu et les commentaires ne subissaient pas le même examen que les autres utilisateurs en termes de messages, de vidéos et de déclarations. qu’ils ont rendu public, en sautant un protocole interne appelé XCheck.

Maintenant, on sait que Facebook le savait et l’a autorisé avec trahison, puisque les rapports internes révélés montrent que le réseau social était pleinement conscient de la nocivité de permettre la publication de certains contenus et, malgré cela, n’a rien fait pour l’arrêter dès lors que ladite publication améliore l’impact et l’audience du réseau social.

Et tout cela malgré le fait que la situation avait déjà été dénoncée par la presse, qui lors de diverses auditions devant le Congrès américain de Facebook (dont Zuckerberg lui-même) avait promis de remédier à la situation). La documentation montre que certaines de ces poches de contenus préjudiciables étaient bien identifiées, mais non contenues ou modérées, un exemple étant le génocide des Rohingyas.

Un rapport interne a également été récemment révélé qui montre que Facebook, en tant que société propriétaire, était au courant que Instagram est toxique pour les ados surtout, mais aussi pour un nombre important d’utilisateurs d’autres âges.

Selon l’enquête du New York Times, sur Facebook ils auraient atteint modifier l’algorithme responsable de l’affichage des nouvelles sur le mur pour afficher un contenu qui ne nuit pas au réseau social lui-même en ce qui concerne les actualités sur ces questions. En parallèle, il a été observé comment Facebook a évolué dans sa politique de publication de contenus sur les murs des utilisateurs, renforçant ce qu’on appelle la « chambre d’écho », un retour de contenus qui amplifie l’écho de ce que l’utilisateur préfère lire. et écoutez, transformant votre environnement sur le réseau social en une bulle qui peut vous isoler et vous radicaliser.

L’un des derniers cas où Facebook a tenté d’utiliser sa capacité à modifier le contenu affiché plus fréquemment à des fins positives a été de promouvoir la vaccination contre le COVID-19mais le mouvement a mal tourné lorsque les mécanismes mêmes du réseau social ont été utilisés par les sympathisants du mouvement anti-vaccin et les négationnistes afin qu’ils puissent étendre leurs messages.

Les rapports divulgués montreraient que Zuckerberg lui-même aurait refusé de corriger cette situation car cela aurait réduit l’interaction entre les utilisateurs de Facebook. Tout cela aurait été signalé à leurs supérieurs par divers travailleurs, constatant que la réponse aurait été minime, voire inexistante.