Kenya : des anciens modérateurs de contenu de Facebook qualifient leur travail de "torture"
-
If you feel comfortable browsing and going through the Facebook page, it is because there’s someone like me who has been there on that screen, checking, ‘Is this okay to be here?’
Nathan Nkunzimana
Former content moderator for Facebook contractor SamaIls regardaient les horreurs pour que d’autres n’aient pas à le faire. Aujourd’hui, ils poursuivent le groupe pour les mauvaises conditions de travail.
Au bord des larmes, Nathan Nkunzimana se souvient avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée.
Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l’obligeait à voir des horreurs pour que le monde n’ait pas à le faire. Certains de ses collègues, accablés, criaient ou pleuraient, dit-il.
Aujourd’hui, M. Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l’entreprise locale Sama en raison des conditions de travail. Cela pourrait avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier.
Il s’agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.
Les modérateurs, originaires de plusieurs pays africains, réclament une indemnisation de 1,46 milliard d’euros après avoir dénoncé de mauvaises conditions de travail, notamment un soutien psychologique insuffisant et une faible rémunération.
Au début de l’année, ils ont été licenciés par Sama, qui a abandonné la modération de contenu. Ils affirment que cela va à l’encontre d’une décision de justice ordonnant la prolongation de leurs contrats jusqu’à ce que l’affaire soit jugée.
Facebook et Sama ont défendu leurs pratiques en matière d’emploi.
Sans certitude quant à la durée de la procédure, les modérateurs ont exprimé leur désespoir face à l’épuisement de leur argent et de leur permis de travail, ainsi qu’aux images traumatisantes qui les hantent.
“Si vous vous sentez à l’aise en naviguant et en parcourant la page Facebook, c’est parce qu’il y a quelqu’un comme moi qui a été là, sur cet écran, à vérifier si cela peut être là”, a déclaré M. Nkunzimana, un père de trois enfants originaire du Burundi, à Associated Press (AP) à Nairobi.
Selon cet homme de 33 ans, les modérateurs de contenus peuvent être comparés à des “soldats” qui prennent une balle pour les utilisateurs de Facebook, les employés surveillant les contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles.
Pour M. Nkunzimana et d’autres, le travail a commencé par un sentiment de fierté, avec l’impression d’être des “héros pour la communauté”.
Mais alors que l’exposition à des contenus alarmants ravivait des traumatismes passés pour certains qui, comme lui, avaient fui les violences politiques ou ethniques dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret.
Il leur a été demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n’étaient pas autorisés sur le lieu de travail.
Après son service, Nkuzimana rentrait chez lui épuisé et s’enfermait souvent dans sa chambre pour tenter d’oublier ce qu’il avait vu. Même sa femme n’avait aucune idée de ce qu’était son travail.
Aujourd’hui, il continue de s’isoler pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne pourra bientôt probablement plus payer leurs frais de scolarité.
Le salaire des modérateurs de contenu était de 392 euros par mois, les non-Kényans recevant en plus une petite indemnité d’expatriation.
Selon M. Nkuzimana, le sous-traitant de Facebook, la société américaine Sama, n’a pas fait grand-chose pour que les modérateurs puissent bénéficier d’une assistance psychologique dans les bureaux de Nairobi.
Il ajoute que les conseillers n’étaient pas suffisamment formés pour faire face à ce que lui et ses collègues vivaient. Aujourd’hui, en l’absence de soins psychologiques, il se tourne vers l’Eglise.
La société mère de Facebook, Meta, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.
Un porte-parole a déclaré que Meta ne pouvait pas commenter l’affaire du Kenya.
Dans un courriel adressé à AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que “plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,74 € par jour)” avant d’être embauchés.
Sama indique que tous les employés avaient un accès illimité à des conseils individuels “sans crainte de répercussions”.
Le groupe a également qualifié de “déroutante” une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu’elle n’était pas entrée en vigueur suite à une nouvelle décision.
Selon Sarah Roberts, experte en modération de contenu à l’université de Californie à Los Angeles, ce type de travail peut être “incroyablement préjudiciable sur le plan psychologique”.
Dans des pays comme le Kenya, où la main-d’œuvre bon marché est abondante, l’externalisation d’un travail aussi sensible est “l’histoire d’une industrie qui exploite les inégalités économiques mondiales à son avantage, qui fait du mal et qui n’assume ensuite aucune responsabilité parce que les entreprises peuvent dire : “Eh bien, nous n’avons jamais employé untel ou untel, c’était, vous savez, la tierce partie””, estime-t-elle.
Les soins psychologiques ne sont pas forcément à la hauteur et des inquiétudes ont été soulevées quant à la confidentialité de la thérapie, selon Sarah Roberts.
Elle pense que la nouveauté dans cette affaire est que les modérateurs s’organisent et s’opposent à leurs conditions, ce qui crée une visibilité inhabituelle.
La stratégie courante dans ce genre d’affaires aux États-Unis est de trouver un arrangement, mais “si des affaires sont portées devant les tribunaux dans d’autres pays, il ne sera peut-être pas aussi facile pour les entreprises d’agir de la sorte”.
Facebook a investi dans des centres de modération dans le monde entier après avoir été accusé de laisser circuler des discours haineux dans des pays comme l’Éthiopie et la Birmanie, où les conflits faisaient des milliers de victimes et où des contenus préjudiciables étaient publiés dans diverses langues locales.
Recherchés pour leur maîtrise de diverses langues africaines, les modérateurs de contenu engagés par Sama au Kenya se sont rapidement retrouvés face à des contenus qui leur étaient douloureusement proches.
Les deux années pendant lesquelles Fasica Gebrekidan a travaillé comme modératrice ont coïncidé avec la geurre dans la région du Tigré, au nord de l’Ethiopie, où des centaines de milliers de personnes ont été tuées et où de nombreux Tigréens, comme elle, ne savaient pas grand-chose sur le sort de leurs proches.
Souffrant déjà d’avoir dû fuir le conflit, cette jeune femme de 28 ans passait ses journées de travail à regarder des vidéos “horribles” et d’autres contenus liés en grande partie à la guerre, y compris des viols.
Elle devait regarder les 50 premières et les 50 dernières secondes des vidéos avant de décider s’il fallait les supprimer.
Le sentiment de gratitude qu’elle avait éprouvé en décrochant le poste a rapidement disparu.
“Vous fuyez la guerre, puis vous devez la voir”, a déclaré Mme Fasica, “c’était juste une torture pour nous”.
Aujourd’hui, elle n’a ni revenu ni logement permanent. Elle cherche de nouvelles opportunités pour essayer de se sentir à nouveau “normale”.
Ancienne journaliste, elle ne peut plus se résoudre à écrire, même pour évacuer ses émotions.
Mme Fasica craint que “ces conneries” ne restent à jamais dans sa tête. Pendant qu’elle parlait à AP, elle ne quittait pas des yeux un tableau situé de l’autre côté du café, représentant ce qui semblait être un homme en détresse. Cela l’a dérangée.
Mme Fasica reproche à Facebook l’absence de soins psychologiques et de rémunération appropriés et accuse l’entrepreneur local de l’avoir utilisée et de l’avoir laissée partir.
“Facebook devrait savoir ce qui se passe et se préoccuper de nous”, a-t-elle déclaré.
Le sort de la plainte des modérateurs est entre les mains du tribunal kenyan, dont la prochaine audience aura lieu le 10 juillet.
L’incertitude est frustrante, a déclaré Mme Fasica. Certains modérateurs abandonnent et retournent dans leur pays d’origine, mais ce n’est pas encore une option pour elle.
-
Le travail de modérateur !
une tâche ardue…
Entre ceux qui ne veulent plu2censur et ceux qui veulent que tout soit bien compartimenté et que rien ne dépasse.
un gras t’y tude !
-
« C’est pas juste ! C’est jamais juste ! c’est toujours à moi qu’on s’en prend ! C’est pas parce qu’on est petit et faible que… »
-
ah bas la torturation !
-
Ces gens ont raison de se plaindre et de demander réparation. A moins d’être sadique je ne vois pas comment un tel job ne peut pas laisser de séquelles.
-
je pensais que c’était des nonnes qui modérait facebook il y a une image marrante mais je le retrouve plus
-
@Snoubi Ici aussi, j’ai sous-traité le job à un couvent. Ça ne se voit pas ?
-
@duBoudin merci pour la précision, non j’ai rien remarqué ^^