Voici comment fonctionnent les centres de censure sur Facebook

Voici comment fonctionnent les centres de censure sur Facebook

"A Clockwork Orange" était un film de Stanley Kubrick célèbre pour avoir été interdit dans de nombreux pays, en raison de ses images violentes et d'un message ambigu que beaucoup pourraient mal interpréter. Dans celui-ci, un jeune homme ultraviolent est capturé par les autorités et exposé à un test pour inhiber, dans sa personnalité, le libre arbitre, c'est-à-dire appliquer une méthode pour faire de lui une bonne personne. Comment l'ont-ils fait? Par un traitement choc: le sujet est ligoté devant un écran géant , les yeux ouverts en permanence, et est contraint de regarder des scènes désagréables pendant des heures et des heures. Lorsqu'il est libéré et ressent le besoin de commettre des actes de violence, des nausées surviennent, conditionnées par la situation dans laquelle il s'était retrouvé quelques jours auparavant.

Voici comment fonctionnent les centres de censure sur Facebook

Maintenant, imaginez que vous regardez des images violentes et désagréables, des contenus haineux, des insultes, des vidéos de décapitation ... pendant huit heures par jour pour une grande entreprise. Votre travail dans ce centre vous aide à déterminer ce que les autres peuvent et ne peuvent pas voir. Vous travaillez pour l'un des 20 centres que Facebook a mis en place dans le monde pour administrer la censure concernant les contenus interdits par le réseau social de Mark Zuckerberg. Eldiario.es a eu accès aux sources de ces centres dans des villes comme Varsovie ou Lisbonne, ainsi qu'à des documents qui révèlent les conditions dans lesquelles ces agents doivent appliquer la censure.

Selon ces documents, les agents de la morale et de la bonne conduite de Facebook doivent travailler dans des conditions déplorables . Des bureaux sans fenêtre dans lesquels des centaines de personnes doivent continuellement fixer leur regard sur un écran où se déroule un contenu grotesque pour l'éliminer et ne pas s'étendre. Ce sont, comme Álex dans «A Clockwork Orange», des sujets exposés à des images terribles huit heures par jour sans être pleinement conscients des conséquences d'un tel acte. Les algorithmes dont nous parlons tant ne sont que des personnes, comme vous et moi.

facebook 02

Leurs conditions de travail physiques et mentales sont extrêmes

Au total, 15 000 personnes travaillent dans des centres comme celui-là. Beaucoup d'entre eux affirment qu'il est impossible d'être juste à 100%, que dans les conditions dans lesquelles ils travaillent, et en raison de la nature de la tâche, des échecs peuvent se produire en continu. Les travailleurs de la censure sur Facebook facturent, chacun, 700 euros par mois et sont sous-traités par des consultants internationaux, il est interdit de dire à qui que ce soit qu'ils travaillent pour Facebook , en devant toujours s'y référer comme `` le client ''. Eldiario.es a obtenu les déclarations de trois employés de ce type de centre, devant maintenir leur anonymat.

Les conditions de travail sont extrêmes. Ils ont une demi-heure pour se reposer pendant leur quart de travail de huit heures, et ils doivent l'administrer toutes les heures pour faire des pauses visuelles, se dégourdir les jambes, aller aux toilettes et même manger. Dans la salle, il y a toujours un critique qui note et punit les comportements inappropriés: un employé qui s'arrête, en sélectionnant des images, pour boire de l'eau ou sortir son portable pour consulter quelque chose est un motif de sanction. De plus, les employés eux-mêmes sont encouragés, à travers un programme de points, à s'accuser mutuellement s'ils voient l'un de leurs collègues se livrer à un comportement punissable.

Voici comment fonctionnent les centres de censure sur Facebook 1

Quel est votre travail?

Le travail fonctionne comme suit. L'employé a devant lui un écran où s'accumulent tout le contenu que le plus de plaintes, de la part de l'utilisateur, accumulent. Le travailleur dispose alors de deux options «Supprimer», avec lesquelles il supprime le contenu, 0 «Ignorer», s'il considère qu'il ne viole pas les règles de Facebook. Chaque personne peut analyser jusqu'à 600 cas par jour et ils ont, pour appuyer sur l'un des deux boutons de décision, trente secondes au total pour chacun d'eux. Normal, bien sûr, que des injustices soient commises, compte tenu de tout ce que l'on sait maintenant sur ces centres.

Le journal donne des exemples de cas réels dans lesquels les employés interrogés ont dû intervenir. Par exemple, cette image leur est apparue, une illustration qui met en garde contre le cancer du sein.

mamelons

L'un des algorithmes, celui-ci automatique, qui a déjà commencé à fonctionner est celui des images dans lesquelles on peut voir les mamelons féminins. Cependant, il existe des exceptions, comme dans le cas où les images sont informatives . Il semble clair que, vu l'illustration ci-dessus, l'employé doit «déverrouiller» l'image car il s'agit d'une information d'intérêt général sur le cancer et non d'une image de nature érotique.

enfant intimidation meme

Dans cet autre, nous voyons comment le travail de ces modérateurs peut être si compliqué. Est-ce un mème qui représente un acte d'intimidation envers les enfants? L'employé doit décider, dans les trente secondes, s'il doit le supprimer ou non. Ceci est un instantané d'une véritable interview et l'obésité n'est pas considérée comme un handicap. Sur Facebook, rien n'est supprimé qui puisse offenser quiconque, à moins que cette personne n'appartienne à un groupe de personnes handicapées. Dans ce cas, le modérateur choisirait le bouton «Ignorer».

Les contradictions de la censure sur Facebook

Deux exemples qui peuvent être plus ou moins clairs mais qui se retrouvent dans beaucoup d'autres où l'ambiguïté des règles Facebook fait son apparition. Par exemple, le contenu qui fait référence à Hitler est automatiquement supprimé. Cependant, le contenu dans lequel les excuses de Franco sont présentées est autorisé. L'un des critiques consultés affirme que le fascisme est autorisé sur Facebook. Vous pouvez remplir votre mur de photos de Mussolini pour que rien ne se passe. Mais attention à Hitler . Ou des mamelons féminins.

C'est ainsi que fonctionnent les centres de censure sur Facebook 2

Parmi les décisions les plus insensées que les censeurs de Facebook doivent prendre, il faut tenir compte de la taille de la barbe des hommes arabes pour déterminer s'ils sont ou non des terroristes; En outre, les personnes interrogées dénoncent clairement un double standard de devoir bénéficier à des groupes spécifiques. « Insulter certaines croyances est autorisé et d'autres complètement interdits . Par exemple, le sionisme. Tout appel au boycott des produits israéliens, en raison des massacres que le pays mène en Palestine, est censuré. De plus, la probabilité que le contenu soit supprimé sur Facebook a beaucoup à voir avec le pouvoir et la capacité organisationnelle du groupe intéressé à le faire disparaître.

À l'avenir, il restera à voir les conséquences psychologiques que ces employés de Facebook auront ainsi que l'usage idéologique particulier qu'ils font de la modération de contenu.