Les modérateurs de Facebook dénoncent le peu de soutien qu’ils reçoivent
Facebook dispose d’un groupe d’environ 15 000 personnes dédiées à la modération du contenu qui est publié chaque jour sur le réseau social. Mais malgré le fait que l’entreprise fondée par Mark Zuckerberg ait assuré à plusieurs reprises disposer des conditions adéquates pour mener à bien leur travail de manière saine, ceux qui sont en charge de cette tâche affirment le contraire.
Les modérateurs de contenu Facebook contrôlent le respect des règles de publication du réseau social
Chaque jour, un modérateur de Facebook passe en revue environ 2 000 contenus, dont beaucoup incluent souvent des commentaires violents ou offensants, des discours de haine, des images illustrant le suicide, des mutilations animales ou de la pédopornographie. L’expérience qui peut être traumatisante en raison d’une exposition excessive à cette face cachée du réseau social qui finit par signaler des contenus abusifs, nuisibles ou même illégaux.
Malgré les promesses répétées du réseau social concernant la amélioration des conditions du modérateurqui passent une grande partie de leur journée de travail à revoir ce type de contenu, les conditions n’ont pas changé au fil des ans, selon certains de ceux qui sont quotidiennement confrontés à ce recueil des aspects les plus sombres et les plus nocifs de Facebook.
L’un de ces modérateurs de contenu, Josh Sklar, qui en 2018 travaillait -sous-traité par Accenture- en plus de Facebook pour Instagram, affirme dans une interview publiée par le bnc qui font face à des journées qui incluent six heures pour réviser ce type de contenu, avec peu de pauses (dans certains cas seulement dix minutes), ce qui les termine affectant psychologiquement. Il souligne que lorsqu’ils sont embauchés pour ce travail, on leur fait signer un document dans lequel ils déclarent avoir été avisés que leur travail peut générer un syndrome de stress post-traumatique.
L’un des effets les plus courants est le désensibilisation à la violence en raison d’une exposition excessive à celui-ci, compte tenu de la grande quantité de contenu de ce type qu’ils doivent envisager. Sklar affirme que « je ne veux pas rester insensible à la souffrance humaine », rappelant que l’algorithme de Facebook qui attribue des contenus aux modérateurs peut les obliger à visionner de manière répétée le même contenu, qui lorsqu’il devient viral est répliqué et publié par plusieurs utilisateurs.
Cette situation ne s’est pas améliorée malgré les plaintes des modérateurs de contenu eux-mêmes et les déclarations de Facebook. Pour aggraver la position du réseau social à cet égard, Sklar explique avoir détecté un échec dans la politique de publication d’images de mutilations animales qui est resté en suspens pendant des mois malgré avoir averti ses supérieurs.
Dérivé de ces conditions, en mai de l’année dernière 2020, Facebook a été condamné à payer un grand groupe de ses modérateurs de contenu un total de 52 millions de dollars pour compenser les troubles mentaux qu’ils avaient développé grâce à leur travail, en s’engageant à apporter des améliorations et surtout à ajouter des ressources de soutien psychologique telles que des thérapies de groupe mensuelles et des séances individuelles hebdomadaires.
Mais aucune de ces ressources n’a été mise à la disposition des modérateurs qui ont été contraints de retourner dans les bureaux de Facebook pendant la pandémie, où ils allèguent que les publications d’abus sexuels ont augmenté. Pendant ce temps, chez Google, ils se sont appuyés sur des algorithmes de modération de contenu, tout comme sur YouTube, pendant les mois de confinement.
