“Cose che prima mi sembravano strane sono diventate normali. Prima mi spaventavo quando vedevo il sangue. Ora sono diventato insensibile. Questo lavoro ha alterato il mio carattere”.
A parlare è Abel, un moderatore di contenuti per Meta in Ghana, intervistato dal Bureau of Investigative Journalism. La sua voce è una delle poche che riesce a filtrare attraverso il muro di silenzio imposto dagli accordi di non divulgazione. Secondo quanto riportato dall’inchiesta, lui e altri 150 colleghi passano le giornate in un anonimo ufficio di Accra a fissare l’orrore del mondo. Il fine del loro lavoro è rendere Facebook e Instagram “sicuri” per gli utenti occidentali.
Ancora più cruda è la testimonianza di un lavoratore keniota impiegato da Sama per conto di OpenAi, raccolta dal Time: “Era una tortura. Leggevo descrizioni grafiche di un uomo che faceva sesso con un cane in presenza di un bambino. Arrivavo al venerdì disturbato da quelle immagini che non riuscivo a togliermi dalla testa”. Sono le voci della “supply chain del trauma”, la catena di montaggio invisibile su cui si regge l’industria della intelligenza artificiale.
Le testimonianze: “Ho visto il cervello di un uomo cadere a terra”
Il lavoro si chiama “data labeling” o “content moderation”. In pratica, significa insegnare all’algoritmo la differenza tra un abbraccio e uno stupro.
Per farlo, i lavoratori devono guardare e scartare migliaia di contenuti “tossici” ogni giorno. Ashley, una ex moderatrice, ha raccontato a Business Insider di aver visto “un uomo uccidersi con un fucile a pompa” e di ricordare ancora “il momento in cui il suo cervello è caduto a terra”. Mophat Okinyi, che lavorava in Kenya per Sama, azienda specializzata nella fornitura di dati di addestramento di alta qualità per algoritmi di intelligenza artificiale, ha riferito al Guardian di dover leggere fino a 700 passaggi di testo al giorno, molti dei quali descrivevano “violenze sessuali e bestialità”.
Le conseguenze psicologiche sono devastanti.
Un report di Equidem ha documentato 60 incidenti di grave danno psicologico su un campione di 76 lavoratori. I sintomi sono quelli dei veterani di guerra: disturbi da stress post-traumatico (Ptsd), flashback intrusivi, insonnia cronica. “Ho incubi a causa dei contenuti grafici, fumo di più e perdo la concentrazione”, ha confessato Berfin Sirin Tunc, moderatrice di TikTok, alla Thomson Reuters Foundation. La prima volta che ha visto un video violento, è dovuta uscire dalla stanza.
Da contratto, parlarne è vietato. Prima di iniziare a lavorare, i dipendenti firmano degli accordi di non divulgazione (Nda) sono ferrei che gli impediscono di raccontare cosa fanno davvero persino alle proprie famiglie, isolandoli nel loro trauma. “Hanno detto ai miei amici che non potevo continuare perché avevo tentato il suicidio”, ha raccontato Solomon, un moderatore in Ghana, al Bureau of Investigative Journalism. La risposta dell’azienda è stata offrirgli un volo di sola andata per tornare a casa.
Pagati a cottimo per valutare l’orrore
Le condizioni di lavoro non sono solo psicologicamente pesanti, sono frenetiche. Un moderatore di TikTok in Colombia ha raccontato di dover valutare ogni video “in non più di 25 secondi” e di dover mantenere un’accuratezza superiore all’80% per non perdere il bonus mensile, che costituisce gran parte del salario. “Per raggiungere le quote, spesso dobbiamo guardare più video contemporaneamente”, si legge nella causa intentata contro la piattaforma. In un turno di 12 ore, le pause concesse sono due da 15 minuti e una per il pranzo; ogni minuto extra viene detratto dallo stipendio.
La storia dello sfruttamento in Kenya ha due capitoli distinti ma intrecciati.
Il primo riguarda OpenAi, che nel 2021-2022 ha impiegato lavoratori tramite il contractor Sama per etichettare contenuti tossici necessari a “pulire” ChatGpt. Secondo l’inchiesta del Time, OpenAi pagava Sama circa 12,50 dollari l’ora, ma ai lavoratori kenioti arrivavano tra 1,32 e 2 dollari per leggere descrizioni di abusi sessuali e violenza.
Il secondo capitolo riguarda Meta. Quando la pressione legale a Nairobi è diventata insostenibile — con oltre 180 moderatori di Facebook che hanno fatto causa a Meta e Sama dopo essere stati licenziati o aver sviluppato Ptsd — il gigante di Zuckerberg ha cambiato strategia. Meta ha interrotto i rapporti con Sama per la moderazione e ha spostato le operazioni in Ghana, affidandole a un nuovo fornitore, Teleperformance. I “nuovi” contratti visionati dal Guardian mostrano un salario base di circa 1.300 cedi (circa 80 dollari) al mese, una cifra che a malapena copre l’affitto ad Accra, costringendo i moderatori a turni massacranti per sopravvivere.
La rivolta dei “moderatori fantasma”: le denunce del 2026
La pressione legale è esplosa nelle prime settimane del 2026, quando il malessere individuale si è trasformato in una class action transcontinentale.
In Ghana, gli avvocati di Foxglove hanno depositato una causa contro Meta e il suo contractor Teleperformance, accusando le aziende di violazione dei diritti umani e sfruttamento sistematico. L’atto di accusa descrive condizioni di lavoro disumane: “I manager seguono i dipendenti persino in bagno per cronometrare le pause” e incentivano turni straordinari per compensare salari base insufficienti per vivere. In Kenya, l’Alta Corte ha respinto il tentativo di Meta di sottrarsi al giudizio, stabilendo che la multinazionale può essere processata localmente per le condizioni di lavoro dei suoi moderatori in outsourcing.
Intanto, a Nairobi è nata la “Data Labelers Association” (Dla), il primo sindacato africano del settore, che a febbraio 2026 contava già oltre 300 iscritti. “Ogni volta che alziamo la voce veniamo licenziati automaticamente”, ha denunciato un membro della Dla a Computer Weekly, spiegando che l’obiettivo è negoziare contratti collettivi che garantiscano supporto psicologico reale e non di facciata.
Daniel Motaung, ex moderatore e whistleblower sudafricano che guida la protesta, ha spiegato il ruolo dell’ente parlando con la Thomson Reuters Foundation: “Questa unione serve a combattere lo sfruttamento da parte delle Big Tech, che ci trattano come usa e getta mentre costruiscono imperi miliardari sulla nostra salute mentale”.