TikTok chansons les plus écoutées

Le traumatisme psychologique des modérateurs de contenu TikTok

Deux anciens employés de TikTok, qui ont effectué des tâches de modération de contenu, ont poursuivi le réseau social alléguant que ont subi un « traumatisme psychologique » à la suite de leur travail.

Une exposition prolongée à un contenu violent a causé des dommages psychologiques aux modérateurs de contenu TikTok

Ils reprochent à TikTok une absence de soutien psychologique adéquat pour le contenu dérangeant qu’ils ont été contraints de surveiller dans le cadre de leurs fonctions. Les plaignants travaillaient pour des sociétés tierces avec lesquelles TikTok avait contracté ces tâches, l’une basée à New York (Atrium) et une autre basée au Canada (Telus International).

Le fondement du procès est que TikTok et ByteDance (une société d’origine chinoise, société mère de TikTok) auraient violé le droit du travail californien en ne fournissant pas aux anciens plaignants un soutien psychologique adéquat, ce qui mettait leur santé mentale en danger en raison de la « activités anormalement dangereuses » qu’ils ont été contraints d’entreprendre sur une base quotidienne.

En outre, il est allégué que les modérateurs de contenu ont subi des pressions pour examiner de gros volumes de contenu extrême afin de respecter les quotas de productivité requis, avec le facteur supplémentaire qu’ils ont été contraints de signer des accords de confidentialité qui les ont empêchés de diffuser tout type d’informations sur le contenu qu’ils vus à cause de leur travail.

Le procès établit que les prévenus n’ont pas fourni un environnement de travail sain aux employés des entreprises avec lesquelles ces services étaient sous-traités, employés devenus la barrière qui permettait le filtrage des contenus offensants et dérangeants que bon nombre des plus d’un milliard d’utilisateurs téléchargent quotidiennement sur TikTok, malgré la connaissance des risques psychologiques d’une exposition prolongée à ce type de contenu.

Les tâches de modération du contenu ont été effectuées pendant des journées de douze heures et comprenaient la visualisation de contenu graphique lié à abus sexuels sur enfants, viol, torture, démembrement, bestialité, suicide, meurtre… A côté de cela, les discours de haine, les insultes, les fake news et les théories du complot qu’ils ont également dû surveiller semblent être un jeu d’enfant.