YouTube emploie à nouveau des humains pour modérer le contenu
YouTube a décidé d’avoir à nouveau des humains pour la modération du contenu. Pendant les mois de confinement dus à la pandémie de coronavirus, l’entreprise a décidé de ne pas avoir son équipe de modérateurs de contenu, qui décidait quelles vidéos respectaient ses politiques d’utilisation, et de faire confiance à son algorithme pour mener à bien cette action.
La mesure a été prévue alors que ces salariés devaient travailler à domicile, afin qu’ils puissent se consacrer à d’autres actions. Cependant, étant donné que Google envisage de ne pas reprendre le travail en face à face avant 2021, la situation semble durer depuis longtemps.
YouTube avait décidé que seul son algorithme modérerait le contenu pendant que les employés travaillaient à domicile en raison de la pandémie de coronavirus
Mais ce n’est pas la vraie raison pour laquelle YouTube a décidé que ses employés contrôlent à nouveau le contenu. Apparemment, le travail des bots n’était pas très efficace. Pendant les mois de pandémie, l’algorithme a supprimé 11,4 millions de vidéos pour avoir prétendument enfreint ses règles. Cependant, au cours de la même période l’année dernière, le nombre de vidéos supprimées était bien inférieur : 9 millions.
Il parait, ces bots, qui utilisaient l’Intelligence Artificielle pour déterminer quelles vidéos montraient de la violence, des abus ou des invitations illégales aux utilisateurs, ils ne faisaient pas leur travail « à fond ». Selon YouTube, ils supprimaient plus de vidéos que d’habitude, ils ont donc décidé de remettre leurs équipes de modération de contenu humain au travail.
Il est vrai que le système automatisé accélère le processus de sélection et de contrôle, mais YouTube garantit que les résultats nuisent à la fois à l’entreprise et aux créateurs de contenu qui voient leurs vidéos injustement supprimées ainsi qu’aux utilisateurs de YouTube qui peuvent profiter de moins de vidéos.
Pourtant, le métier de modérateur de contenu sur YouTube n’est pas simple à faire et, comme sur d’autres réseaux sociaux, il fait aussi l’objet de nombreuses critiques. Les employés doivent passer des heures et des heures par jour à regarder d’innombrables vidéos complètes pour déterminer si elles sont visibles ou non, regardant souvent des images dures.
Récemment, un ancien modérateur de YouTube qui est resté anonyme a poursuivi l’entreprise pour ne pas les avoir correctement protégés, car son travail prétend qu’il lui a causé des dommages mentaux. Ce n’est pas surprenant, étant donné qu’il devait régulièrement regarder des vidéos de cannibalisme, de viol d’enfant, de suicide, d’automutilation, de fusillades dans des écoles, de mutilation, entre autres.
Selon le plaignant YouTube ne respectait pas les pratiques de sécurité auquel il était obligé : par exemple, leur permettre de quitter la salle lorsqu’ils avaient visionné un contenu trop fort, ou ne pas les retenir plus de quatre heures par jour à modérer le contenu. Le demandeur assure qu’il a travaillé sans heures de repos et qu’en raison de son travail il est victime d’un grave traumatisme psychologique. Il souligne également qu’il souffre d’une dépression qui ne le laisse pas dormir, qu’il souffre de cauchemars récurrents et qu’il ne peut pas être dans des endroits bondés car il souffre d’attaques de panique.
Le procès fait référence non seulement à la personne qui l’a imposé, mais également au groupe de modérateurs de YouTube. Cet ancien employé a tenu à dénoncer la situation afin que tant ses anciens collègues que les nouveaux modérateurs ne continuent pas à être victimes des prétendus abus qu’il dénonce de la part de YouTube.
