Aujourd’hui sur notre blog, nous apportons une petite réflexion sur l’un des sujets les plus controversés d’Internet. Nous parlons du contenu violent, sexuel, discriminatoire, etc., que de nombreuses personnes génèrent et partagent à travers les différents réseaux sociaux et plateformes de contenu généré par les utilisateurs.
Il n’y a pas ou peu de cas connus concernant ce type de contenu partagé par des milliers voir des millions de personnes. Contenu qui finit par être supprimé, mais pas toujours à temps pour être contrôlé efficacement.
Facebook doit indemniser ses modérateurs de contenu
Nous en avons parlé à la suite d’une nouvelle récente dans laquelle il a été annoncé que Facebook devrait payer environ 52 millions de dollars aux employés de ses équipes de modération de contenu violent sur sa plateforme. Et il faut garder à l’esprit que beaucoup de ces employés ont dû faire face à des vidéos de suicides, de meurtres, de tortures, de viols, etc. Contenu qui aurait des effets psychologiques négatifs sur chacun de nous. Comme on dit dans les Simpson : « Si ça te touche, c’est parce que tu es humain ».
En outre, ce scandale sur Facebook a mis en lumière les conditions de travail de certaines de ses équipes et ces conditions ne vendent pas du rêve, comme on le croit souvent. Cela est dû au fait que ces conditions dépendent d’entreprises de sous-traitance comme Cognizant, dans le cas de Facebook, mais beaucoup d’autres auxquelles les grandes entreprises recourent pour économiser des salaires, du personnel, des soucis, etc.
Alors que cette amende sera payée à des employés de leurs départements aux États-Unis, nous ne devons pas oublier que, selon les différents marchés ou langues où le contenu est modéré, ces départements de modération sont situés dans différents pays et continents à travers la planète. Nous n’excluons pas que, d’ici peu, cette polémique aille au-delà et atteigne beaucoup plus de territoires.
Gestion de contenus violents sur Youtube
Mais ce problème de contenu violent ne concerne pas seulement Facebook. La plateforme de vidéos Youtube a également le même problème et ils le résolvent de la même manière.
Google fait également appel à ces sociétés de sous-traitance pour modérer le contenu inapproprié de sa plate-forme vidéo. Et de la même manière, beaucoup de ces employés se sont retrouvés avec des problèmes de santé, à la fois mentale et physique, en raison du contenu auquel ils sont exposés de façon mécanique tous les jours. L’un de ses centres de modération est spécifiquement consacré au contenu violent radical, lié à des groupes terroristes internationaux qui partagent appels, tortures et assassinats via la plateforme de vidéos Youtube.
Modérateurs de contenu sur Google : qui défend la liberté d’expression
Dans cette interview, une ancienne employée de Google dans le département de modération de contenu pour Google en Ukraine commente que la description du poste de travail qui a attiré son attention et l’a encouragée à rejoindre ce département, était : « vous travaillerez pour protéger la liberté d’expression sur internet ». Ce qui, selon elle, était très éloigné de la réalité du poste de travail qu’elle a dû occuper par la suite. Dans ce cas, le service de modération de contenu dans lequel elle travaillait était lié à des sites Web sur lesquels Google permet ou non la visibilité de ses campagnes publicitaires.
En effet, selon elle, le problème réside dans le fait que la liberté d’expression sur Internet dépend de sociétés internationales qui ne se soucient guère ou pas du tout de ce droit universel et qui se préoccupent davantage d’intérêts économiques, en élaborant des politiques au contenu assez aléatoires et qui, souvent, n’ont aucun sens.
Problème partagé sur l’ensemble du réseau
Enfin, même si nous avons principalement mentionné Facebook et Google, n’oublions pas l’autre grand réseau social susceptible d’être submergé de contenus violents : Twitter. Cet article du Washingtong Post parlait déjà des effets négatifs sur la santé des employés des équipes de modération de contenu de Facebook, Google et Twitter.