ACTUALITÉ

Les travailleurs invisibles : la face cachée de l'IA

Vincent Bolantin

Vous ne le savez peut-être pas, mais derrière chaque réponse fluide d'un chatbot, des millions d'humains. Sous-payés, traumatisés, et soigneusement effacés du récit officiel de l'intelligence artificielle. Le « ghost work » ou l’illusion de l’automatisation…

L'ILLUSION DE L'AUTOMATISATION

Quand vous interagissez avec ChatGPT, Gemini ou Claude, vous avez l'impression de dialoguer avec une machine. C'est précisément ce qu'on veut vous faire croire. En réalité, derrière chaque modèle d'IA générative se cache une armée silencieuse : annotateurs, modérateurs, transcripteurs, évaluateurs. Des humains qui labellisent les données, filtrent les contenus toxiques, notent les réponses du modèle pour qu'il devienne « intelligent ». Sans eux, pas d'IA.

L'anthropologue Mary Gray (Microsoft Research) et le chercheur Siddharth Suri ont donné un nom à ce phénomène en 2019 : le « ghost work », le travail fantôme. Dans leur ouvrage de référence, ils écrivent :

« Au-delà d'un certain niveau d'avancement technologique, la plupart des emplois automatisés requièrent encore l'intervention humaine. » - Mary L. Gray & Siddharth Suri, Ghost Work (2019)

Ce travail est fragmenté, payé à la tâche, délibérément invisibilisé. Pour que le mythe de l'autonomie de la machine tienne.

Combien sont-ils ? Selon l'Organisation Internationale du Travail (OIT), le nombre de plateformes de travail numérique dans le monde est passé de 142 en 2010 à plus de 777 en 2020. Et le nombre de personnes générant des revenus sur ces plateformes serait passé de 43 millions en 2018 à environ 78 millions en 2023. Une économie souterraine. Et en pleine explosion.

LE CAS CHATGPT : 2 DOLLARS DE L'HEURE POUR LIRE L'INNOMMABLE

En janvier 2023, le magazine TIME publie une enquête qui fait l'effet d'une bombe. Le journaliste Billy Perrigo, après avoir épluché des centaines de pages de documents internes et interviewé quatre employés, révèle que pour rendre ChatGPT « moins toxique », OpenAI a sous-traité l'annotation de contenus à une entreprise basée à San Francisco, Sama, qui emploie des travailleurs au Kenya.

Le tarif : entre 1,32 $ et 2 $ de l'heure, selon ancienneté et performance.

La nature du travail : étiqueter, des heures durant, des descriptions textuelles d'abus sexuels sur enfants, de zoophilie, de meurtres, de suicides, de torture, d'automutilation et d'inceste.

L'un des employés interrogés par TIME parle d'expérience traumatique. Une description graphique d'un homme abusant d'un chien en présence d'un enfant lui a laissé des visions récurrentes :

« C'était de la torture. Vous lisez des dizaines de déclarations comme ça toute la semaine. Le vendredi, vous êtes dévasté à force de ressasser ces images. » - employé Sama anonyme, cité par TIME, janvier 2023

Sama a mis fin au contrat avec OpenAI en février 2022, huit mois avant la date prévue. Officiellement, à cause de la nature trop sensible des contenus.

OpenAI, de son côté, a reconnu la difficulté du travail tout en revendiquant sa nécessité :

« Classer et filtrer les contenus nuisibles est une étape nécessaire pour minimiser la quantité de contenus violents et sexuels dans les données d'entraînement. » - porte-parole OpenAI, cité par TIME

Une nécessité, sans doute. Mais à quel prix humain ?

CE N'EST PAS UN CAS ISOLÉ : CARTOGRAPHIE D'UN SYSTÈME

L'affaire OpenAI n'est pas une exception. C'est la pointe émergée d'un système.

Kenya, décembre 2024 : une enquête conjointe de CNN et du Guardian révèle l'ampleur des dégâts psychologiques chez les modérateurs de contenu Facebook employés via Sama. Sur 144 modérateurs ayant accepté une évaluation psychologique dans le cadre d'un procès contre Meta, 81 % ont été diagnostiqués avec un PTSD sévère (état de stress post-traumatique). Les diagnostics ont été établis par le Dr Ian Kanyanya, chef du service de santé mentale de l'hôpital national Kenyatta de Nairobi.

Martha Dark, codirectrice de l'ONG Foxglove qui soutient les plaignants, a déclaré :

« Modérer Facebook est un travail dangereux, parfois mortel, qui inflige un PTSD à vie à presque tous ceux qui s'y livrent. » - Martha Dark, Foxglove, citée par CNN, décembre 2024

États-Unis, 2020 : Facebook a versé 52 millions de dollars dans un règlement à l'amiable à plus de 10 000 modérateurs de contenu souffrant de PTSD (source : NPR). Certains gagnaient à peine 28 800 $ par an pour ce travail.

Venezuela : depuis la crise économique de 2017, des dizaines de milliers de Vénézuéliens, souvent diplômés, annotent des données pour des entreprises comme Appen (qui compte parmi ses clients Amazon, Meta, Google et Microsoft). Les tarifs : entre 0,90 $ et 2 $ de l'heure. La désespérance économique comme avantage compétitif.

Madagascar : les recherches du sociologue Antonio Casilli (Télécom Paris) et de son équipe ont documenté comment l'île est devenue un fournisseur majeur de travail de la donnée pour les entreprises françaises. Une nouvelle forme de division internationale du travail, où l'IA française se nourrit du travail malgache à bas coût.

UN MARCHÉ EN EXPLOSION, UNE RÉGULATION EN RETARD

Le marché mondial de l'annotation de données est estimé à 3,20 milliards de dollars en 2025, et devrait atteindre 34,38 milliards en 2035 (Precedence Research). Une croissance annuelle de près de 27%.

L'acteur dominant, Scale AI, a reçu un investissement de 15 milliards de dollars de Meta en 2024. Ses revenus 2024 sont estimés à 1,4 milliard de dollars.

Pendant ce temps, ceux qui font tourner la machine restent dans l'angle mort. Une lettre ouverte de législateurs américains rappelait récemment :

« Des millions de travailleurs de la donnée à travers le monde effectuent ces tâches stressantes sous surveillance constante, avec de bas salaires et sans protection sociale. Ces conditions ne nuisent pas seulement aux travailleurs, elles compromettent aussi la qualité des systèmes d'IA. » - Lettre ouverte de législateurs américains, citée par UCLA Anderson Review, 2025

L'AI Act européen, entré en vigueur en août 2024, impose des exigences de transparence sur la provenance des données d'entraînement. C'est un premier pas. Mais il ne couvre pas explicitement les conditions de travail des annotateurs situés hors de l'UE.

LA PROCHAINE FRONTIÈRE DE L'IA ÉTHIQUE

On ne peut pas construire une IA « responsable » sur le dos de travailleurs invisibles.

Si l'Europe veut tenir sa promesse d'une intelligence artificielle au service de l'humain, la prochaine étape ne sera pas seulement technologique. Elle sera sociale. Il faudra rendre visibles ces chaînes de valeur, exiger des standards de rémunération et de protection mentale, et accepter que l'IA « éthique » coûte plus cher que l'IA actuelle.

La question n'est plus « l'IA est-elle dangereuse ? ».

La question est : qui paie, déjà, le prix de son existence ?


Sources : TIME Magazine (janvier 2023) · CNN Business & The Guardian (décembre 2024) · NPR (mai 2020) · WIRED · Mary Gray & Siddharth Suri, Ghost Work (Houghton Mifflin Harcourt, 2019) · travaux d'Antonio Casilli (Télécom Paris) · Rapport OIT 2021 · Precedence Research 2025 · UCLA Anderson Review 2025

À LIRE ENSUITE

8 mai 2026

ACTUALITÉ

Les travailleurs invisibles : la face cachée de l'IA

Vous ne le savez peut-être pas, mais derrière chaque réponse fluide d'un chatbot, des millions d'humains. Sous-payés, traumatisés, et soigneusement effacés du récit officiel de l'intelligence artificielle. Le « ghost work » ou l’illusion de l’automatisation…

Lire l'article →
2 mai 2026

ACTUALITÉ

AI Act européen : pourquoi réguler l'intelligence artificielle est devenu urgent

L'AI Act européen, premier cadre juridique contraignant sur l'IA au monde, est entré en vigueur en août 2024. Pourquoi il était temps d'encadrer l'intelligence artificielle, ce que le reste du monde nous montre, et comment adopter un usage éthique, raisonné et conscient de son empreinte environnementale.

Lire l'article →
29 avril 2026

ACTUALITÉ

Communication 360° : définition, leviers clés et stratégie complète pour booster votre entreprise

Qu'est-ce que la communication 360° et comment la mettre en place ? Découvrez la définition, les leviers clés (SEO, réseaux sociaux, ads, print, influence) et les étapes pour déployer une stratégie multicanale efficace et cohérente.

Lire l'article →
29 avril 2026

ACTUALITÉ

Comparatif des outils IA en 2025-2026 : ChatGPT, Claude, Gemini, Mistral, Euria — lequel choisir ?

ChatGPT, Claude, Gemini, Grok, Mistral, Copilot, Perplexity ou Euria : notre comparatif complet des meilleurs outils IA en 2025-2026. Points forts, limites, sécurité des données, tarifs et alternatives souveraines.

Lire l'article →