Défis dangereux de TikTok

Le traumatisme psychologique des modérateurs de contenu TikTok

Deux anciens employés de TikTok, qui ont effectué des tâches de modération de contenu, ont poursuivi le réseau social alléguant que ont subi un « traumatisme psychologique » à la suite de leur travail.

Une exposition prolongée à un contenu violent a causé des dommages psychologiques aux modérateurs de contenu TikTok

Ils reprochent à TikTok une absence de soutien psychologique adéquat pour le contenu dérangeant qu’ils ont été contraints de surveiller dans le cadre de leurs obligations professionnelles. Les plaignants travaillaient pour des sociétés tierces avec lesquelles TikTok avait contracté ces tâches, l’une basée à New York (Atrium) et une autre basée au Canada (Telus International).

La base du procès est que TikTok et ByteDance (une société d’origine chinoise, la société mère de TikTok) ont violé le droit du travail californien en ne fournissant pas aux plaignants un soutien psychologique adéquat, mettant leur santé mentale en danger en raison de la « activités anormalement dangereuses » auxquelles ils ont été contraints de se livrer sur une base quotidienne.

De plus, il est allégué que les modérateurs de contenu ont été contraints d’examiner des volumes élevés de contenu extrême pour respecter les quotas de productivité requis, avec le facteur supplémentaire qu’ils ont été contraints de signer des contrats de confidentialité qui les ont empêchés de diffuser tout type d’informations sur le contenu qu’ils ont consulté. en raison de leur travail.

Le procès établit que les prévenus n’ont pas fourni un environnement de travail sain aux employés des entreprises avec lesquelles ces services étaient sous-traités, employés devenus la barrière qui permettait de filtrer les contenus offensants et dérangeants que bon nombre des plus d’un milliard d’utilisateurs téléchargent quotidiennement sur TikTok, malgré la connaissance des risques psychologiques d’une exposition prolongée à ce type de contenu.

Les tâches de modération de contenu ont été effectuées pendant des journées de 12 heures et comprenaient la visualisation de contenu graphique lié à abus sexuels sur enfants, viol, torture, démembrement, bestialité, suicide, meurtre… à côté de quoi les discours de haine, les insultes, les fake news et les théories du complot qu’ils étaient également censés surveiller apparaissent comme un jeu d’enfant.