Je nettoie l’horreur pour que ton IA reste pure.

Je passe mes journées à regarder ce que tu ne devrais jamais voir. Les viols, les meurtres, les tortures. Le pire de l’humanité, en HD, à longueur de journée.

Non, je ne suis pas policier ou agent de sécurité.

Je suis modérateur de contenu pour l’IA.

Tu sais, ces intelligences artificielles qui répondent poliment à tes questions ? Qui génèrent des images parfaites en quelques secondes ? Qui semblent si propres, si éthiques ?

Derrière cette façade immaculée se cache une armée d’ombres. Des milliers de personnes, souvent au Kenya ou aux Philippines, qui « nettoient » les données.

Notre mission : visionner l’immonde pour que ton IA reste polie.

« Je me suis rendue compte que je faisais des cauchemars, surtout quand je visionnais des affaires de meurtre ou des viols sur des enfants. » Voici les mots de Faustine, modératrice pendant trois ans.

Elle n’est pas seule. Des milliers comme elle souffrent en silence.

Le plus révoltant ? 99,99% du contenu qu’ils traitent est toxique. Toxique à en briser l’âme.

700 textes atroces par jour. C’est le quota.
Des images insoutenables à analyser, heure après heure.
Pas de pause psychologique. Pas de thérapie.
« Si on fait des séances avec un psy, on n’atteindra pas nos objectifs. »

Le plus cruel ? L’isolement forcé.

Tu rentres chez toi, hanté par des images que tu ne peux partager avec personne. Contrat de confidentialité oblige.

Tu deviens distant. Anxieux. Dépressif.
Comme Faustine qui dit : « Avant, j’étais quelqu’un d’extraverti. Mais comme j’avais peur de sortir, petit à petit, je me suis isolée. »

Certains craquent complètement. Un modérateur aurait même « assassiné des membres de sa famille » après avoir été brisé par ce qu’il avait vu.

Un travailleur kenyan l’exprime parfaitement : « Les déchets numériques des États-Unis arrivent au Kenya pour être triés et nettoyés par nous, avant d’être renvoyés bien étiquetés et prêts à l’emploi. »

C’est du colonialisme 2.0. Les puissances technologiques occidentales externalisent leur trauma à l’Afrique.

Tu trouves ça normal que la « pureté » de ton IA soit payée par la santé mentale d’inconnus à l’autre bout du monde ?

La prochaine fois que tu utilises ChatGPT ou Midjourney, rappelle-toi qu’il y a un prix humain derrière cette perfection artificielle.

Un prix que personne ne devrait avoir à payer.

Voir l’excellent docummentaire https://www.france.tv/documentaires/documentaires-societe/6888928-les-sacrifies-de-l-ia.html

Suis nous sur LinkedIn pour pleins de tips et de contenus dédiés aux parents et aux acteurs de l’éducation.

Laisser un commentaire