Les 7 mensonges du documentaire « The Social Dilemma », selon Facebook
Netflix a publié il y a quelques semaines le documentaire « The Social Dilemma », qui explique comment les réseaux sociaux font fonctionner leurs algorithmes pour créer des besoins des utilisateurs qui les amènent à passer plus de temps en ligne à utiliser leurs produits et services, ce qui signifie plus de revenus économiques. C’est l’essentiel résumé d’une cassette de plus d’une heure dans laquelle d’anciens employés de Facebook, Google, Pinterest, Twitter… dévoilent des secrets sur la façon de travailler dans ces entreprises et défendent une nécessaire « humanisation » des processus dans un environnement certainement déshumanisé selon le documentaire.
Facebook assure que l’utilisateur n’est pas le produit, puisque les annonceurs ne connaissent jamais leur identité et n’ont accès qu’aux données sociodémographiques
La plupart des entreprises citées dans le film ne se sont pas positionnées par rapport à ce qui se dit dans « The Social Dilemma », un film créé par Netflix, une entreprise qui justement utilise aussi un algorithme pour recommander des films et des séries. Cependant, Facebook, peut-être parce qu’il est l’une des entreprises dont l’image passe le moins bien sur la bande, s’est démarqué des autres et a publié ce week-end un manifeste -curieusement, un mois après la première du film- dans lequel il explique sept raisons pour lesquelles « The Social Dilemma » ne dit pas la vérité.
Selon Facebook, « The Social Dilemma » offre une « vue déformée du fonctionnement des réseaux sociaux ». Si vous avez vu le film – si vous ne l’avez pas encore fait, vous devriez peut-être – vous serez intéressé de savoir que ce sont les sept mensonges sur la bande, toujours selon Facebook :
1. « Facebook construit ses produits pour créer de la valeur, pas pour créer une dépendance »: Facebook prend ainsi ses distances avec l’affirmation selon laquelle les réseaux sociaux développent de nouvelles fonctionnalités et outils pensant avant tout à « engager et fidéliser » les utilisateurs.
L’entreprise donne comme exemple qu’en 2018 elle a changé l’algorithme qui ordonne les actualités dans le fil des utilisateurs pour donner plus de poids à leurs relations familiales et sociales qu’aux vidéos virales, par exemple. Il fait également valoir qu’il travaille en collaboration avec des experts en santé mentale et des psychologues pour comprendre l’impact de ses services sur les utilisateurs et promouvoir un plus grand « bien-être numérique » en développant des outils spécifiques qui améliorent la vie des utilisateurs.
2. »Vous n’êtes pas le produit. Facebook gagne de l’argent grâce à la publicité et c’est pourquoi c’est gratuit. »: Facebook précise que son modèle économique est la publicité, mais qu’à aucun moment les annonceurs ne savent qui est l’utilisateur. Ils peuvent obtenir des informations démographiques et des intérêts qu’ils ont, mais en aucun cas ils ne peuvent identifier une personne spécifique, donc, selon Facebook, « vous n’êtes pas le produit », comme le défend le documentaire.
3.» L’algorithme n’est pas mauvais. Il garde le contenu sur le réseau social utile et pertinent»: Facebook assure n’utiliser des algorithmes que pour « améliorer l’expérience utilisateur » et souligne qu’il existe de nombreuses autres entreprises qui le font aussi (et mentionne expressément Uber, Amazon ou encore Netflix, auteur du documentaire), prenant ses distances avec la théorie de cela, il y aurait un complot pour utiliser les algorithmes au profit de l’entreprise.
4. « Nous avons apporté des améliorations pour assurer la sécurité des données »: Facebook assure qu’au cours de la dernière année, il a considérablement amélioré la manière dont les données sont traitées sur la plate-forme (il évite de faire toute référence aux scandales de sécurité subis dans le passé) et souligne que, malgré le fait que le documentaire Il a explicitement dit qu’il permet à des sociétés tierces d’envoyer et d’accéder à des informations sensibles sur les utilisateurs, telles que leurs antécédents médicaux, ce n’est pas le cas.
5. « Nous prenons les mesures nécessaires pour améliorer la polarisation des contenus »: Facebook assure que la polarisation et le populisme existaient déjà sur les plateformes en ligne avant même que Facebook n’existe, et que la plupart des contenus consommés sur le réseau social n’ont rien à voir avec des intérêts politiques.
6. « Facebook a investi pour garantir l’impartialité des processus électoraux »: Dans ce cas, Facebook reconnaît expressément avoir commis des erreurs en 2016, c’est pourquoi, au cours des quatre dernières années, il s’est efforcé d’empêcher les personnes ayant des intérêts cachés d’interférer dans les élections qui se tiennent démocratiquement partout dans le monde.
7. « Nous luttons contre la désinformation »: Facebook dit travailler dur pour empêcher la propagation de fausses nouvelles sur le réseau social, ainsi que les discours de haine.
Dans certains de ces cas, affirmer que l’on se bat précisément contre ce que le documentaire indique que font les réseaux sociaux, ne serait rien de plus qu’être d’accord avec la bande. Une autre chose est que des travaux sont en cours pour réduire l’impact ou changer la situation.
