28 de junho de 2025

O custo humano oculto da moderação da IA

Treinar IA muitas vezes significa encarar as piores atrocidades da humanidade por horas a fio. Trabalhadores encarregados desse trabalho sofrem danos psicológicos sem apoio — e enfrentam ameaças legais se falarem sobre isso.

Shikha Silliman Bhattacharjee e Nandita Shivakumar


Agentes de atendimento ao cliente sentam-se atrás de computadores no andar de treinamento de IA da [24]7.ai, Inc., em Taguig City, Metro Manila, Filipinas, na quarta-feira, 24 de abril de 2024. (Lisa Marie David / Bloomberg via Getty Images)

Assinei o acordo de confidencialidade como todo mundo — não pensei duas vezes na hora. Mas agora parece uma armadilha. Vivo tendo pesadelos com o conteúdo que vi, mas não consigo nem falar sobre isso na terapia sem temer estar violando o acordo de confidencialidade.

- Moderador de conteúdo, Colômbia

O boom da inteligência artificial não se limita apenas a códigos e poder computacional — depende de uma força de trabalho oculta e silenciada. Por trás de cada modelo de IA que promete eficiência, segurança ou inovação, existem milhares de rotuladores de dados e moderadores de conteúdo que treinam esses sistemas executando tarefas repetitivas, muitas vezes psicologicamente prejudiciais. Muitos desses trabalhadores estão baseados no Sul Global, trabalhando de oito a doze horas por dia revisando centenas — às vezes milhares — de imagens, vídeos ou pontos de dados, incluindo material gráfico envolvendo estupro, assassinato, abuso infantil e suicídio. Eles fazem isso sem pausas adequadas, licença remunerada ou apoio à saúde mental — e, em alguns casos, por apenas US$ 2 a hora. Vinculados a acordos de confidencialidade (NDAs) abrangentes, eles são proibidos de compartilhar suas experiências.

O custo psicológico não é acidental. É o resultado previsível de uma indústria estruturada em torno da terceirização, da velocidade, da vigilância e da exploração de mão de obra invisível em condições extremas — tudo para alimentar os lucros de uma pequena elite corporativa concentrada no Norte Global.

Como pesquisadores envolvidos no desenvolvimento do relatório “Scroll. Click. Suffer.” [Role. Clique. Sofra], da organização de direitos humanos Equidem, entrevistamos 113 rotuladores de dados e moderadores de conteúdo no Quênia, Gana, Colômbia e Filipinas. Documentamos mais de sessenta casos de danos graves à saúde mental — incluindo Transtorno de Estresse Pós-Traumático (TEPT), depressão, insônia, ansiedade e pensamentos suicidas. Alguns trabalhadores relataram ataques de pânico, enxaquecas crônicas e sintomas de trauma sexual diretamente relacionados ao conteúdo gráfico que eram obrigados a revisar — ​​muitas vezes sem acesso a apoio de saúde mental e sob pressão constante para atingir metas de produtividade extenuantes.

No entanto, a maioria está legalmente proibida de se manifestar. Na Colômbia, 75 dos 105 trabalhadores que abordamos recusaram entrevistas. No Quênia, 68 dos 110 recusaram. O motivo predominante: medo de violar os abrangentes acordos de confidencialidade (NDAs) que assinaram.

Os acordos de confidencialidade não apenas protegem dados proprietários — eles ocultam as condições de exploração que fazem a indústria da IA ​​funcionar. Esses contratos impedem os trabalhadores de discutir seus empregos, mesmo com terapeutas, familiares ou sindicalistas, fomentando uma cultura generalizada de medo e autocensura. Os acordos de confidencialidade cumprem duas funções essenciais no regime trabalhista da IA: ocultam práticas abusivas e protegem as empresas de tecnologia da responsabilização, e suprimem a resistência coletiva, isolando os trabalhadores e criminalizando a solidariedade. Esse silêncio forçado não é acidental — é estratégico e altamente lucrativo. Ao atomizar uma força de trabalho que não pode se manifestar, as empresas de tecnologia externalizam riscos, evitam o escrutínio e mantêm os salários baixos.

Muitos desses trabalhadores estão no Sul Global, trabalhando de oito a doze horas por dia revisando centenas — às vezes milhares — de imagens, vídeos ou pontos de dados, incluindo material gráfico envolvendo estupro, assassinato, abuso infantil e suicídio.

Originalmente criados para proteger segredos comerciais, os acordos de confidencialidade (NDAs) tornaram-se hoje ferramentas de repressão trabalhista. Eles permitem que grandes empresas de tecnologia extraiam valor de trabalhadores traumatizados, tornando-os invisíveis, descartáveis ​​e politicamente contidos. Implementados por meio de cadeias de subcontratação em camadas, esses acordos intensificam os danos psicológicos ao forçar os trabalhadores a carregar o trauma em silêncio.

Para desafiar esse regime, os Acordos de Confidencialidade (NDAs) não devem mais ser tratados como instrumentos jurídicos neutros. Eles são pilares do capitalismo digital — tecnologias de controle que devem ser desmanteladas se quisermos construir um futuro de trabalho justo e democrático.

A força de trabalho oculta por trás de nossos feeds

Na economia de IA atual, as grandes empresas de tecnologia exercem o que pode ser descrito como duplo poder de monopsônio. Um monopsônio é uma condição de mercado em que um pequeno número de compradores exerce um controle descomunal sobre os vendedores. Primeiro, empresas como Meta, OpenAI e Google dominam o mercado de produtos: elas controlam as plataformas, ferramentas e infraestruturas de dados que moldam nossas vidas digitais. Segundo, elas atuam como compradoras poderosas na cadeia global de fornecimento de mão de obra de dados — terceirizando o trabalho mais extenuante e subvalorizado, como moderação de conteúdo e anotação de dados, para empresas de terceirização de processos de negócios (BPO) em países como Quênia, Colômbia e Filipinas.

Nesses mercados de trabalho, onde o desemprego é alto e as proteções trabalhistas são fracas, as empresas desfrutam de ampla liberdade para ditar os termos de emprego. As empresas líderes determinam o volume de tarefas e os salários, definindo efetivamente as margens para as empresas de BPO. Essas margens, por sua vez, determinam salários, jornada de trabalho e práticas de disciplina industrial projetadas para atingir as metas de produtividade. Nesse cenário, os trabalhadores têm pouco poder para dizer não. As plataformas impõem métricas de desempenho rigorosas, vigilância algorítmica e ordens de silêncio — mas mantêm distância legal e reputacional das condições de trabalho que criam.

Os danos são reais e crescentes. Veja o caso de Ladi Anzaki Olubunmi, uma moderadora de conteúdo que analisava vídeos do TikTok sob contrato com a gigante de terceirização Teleperformance. Ela morreu após desmaiar de aparente exaustão. Sua família afirma que ela reclamava repetidamente de cargas de trabalho excessivas e fadiga. No entanto, a ByteDance, empresa controladora do TikTok, não sofreu consequências — protegida pela proteção estrutural do emprego intermediado.

Este sistema facilita o que alguns estudiosos agora descrevem como tecnofeudalismo: um retorno a relações semelhantes às feudais, não por meio da propriedade da terra, mas pelo controle dos bens comuns digitais por meio de infraestruturas de dados opacas, algoritmos proprietários e uma força de trabalho invisibilizada pela subcontratação e amordaçada por acordos de confidencialidade (NDAs). Para os usuários, esses algoritmos determinam qual conteúdo é visualizado. Para os trabalhadores, eles assumem a forma de painéis de desempenho implacáveis ​​— um supervisor moderno.

Os acordos de confidencialidade não apenas silenciam esses trabalhadores, como também os impedem de soar alarmes quando sistemas algorítmicos ameaçam a segurança dos bens comuns digitais — ou quando o conteúdo que encontram representa riscos reais para o público. Os rotuladores de dados quenianos, por exemplo, descreveram a análise de vídeos que continham incitação sutil, porém clara, à violência comunitária — mas não tinham canais para denunciar ameaças iminentes.

O NDA tornou-se um juramento moderno de lealdade — silêncio a todo custo. As plataformas podem mudar de nome ou alternar entre posições dominantes — hoje é a Meta e a OpenAI, amanhã podem ser outras —, mas o modelo de extração de mão de obra permanece o mesmo: baseado na distância, no controle e na descartabilidade.

Uma crise global de saúde deliberada

O que emerge desse modelo de negócios — construído com base na terceirização, na repressão e na mercantilização da resistência psicológica forçada — não é uma série de lesões isoladas no local de trabalho. É uma crise de saúde pública, estruturalmente produzida pelo regime trabalhista da indústria de IA. Os trabalhadores não estão apenas exaustos ou desmoralizados; eles estão sendo mentalmente destruídos.

Governos, sindicatos e organismos trabalhistas internacionais devem insistir que empresas como Meta, TikTok e OpenAI não podem ser consideradas líderes globais em IA enquanto negam direitos fundamentais aos trabalhadores que treinam seus modelos.

Em “Scroll. Click. Suffer.”, ouvimos moderadores de conteúdo relatando alucinações, dissociação, dormência e flashbacks intrusivos. “Às vezes, tenho um branco completo; sinto como se não estivesse no meu corpo”, disse uma trabalhadora em Gana. Outros descreveram perda de apetite, desenvolvimento de enxaquecas crônicas ou problemas gastrointestinais persistentes — sintomas clássicos de traumas de longa duração. Uma moderadora queniana disse que não conseguia mais ir a encontros, assombrada pela violência sexual que era forçada a assistir diariamente. Outra descreveu recorrer ao álcool apenas para conseguir dormir.

Esse dano não se limita aos indivíduos — ele se espalha para famílias, relacionamentos e comunidades inteiras. Em países onde a infraestrutura de saúde mental é severamente subfinanciada, o ônus recai sobre sistemas públicos e famílias sobrecarregadas. Na maioria desses locais de trabalho, até mesmo o suporte básico à saúde mental é inexistente. Alguns oferecem breves “pausas de descanso”, apenas para penalizar os trabalhadores posteriormente por não atingirem as metas de produtividade. Como disse Ephantus Kanyugi, vice-presidente da Associação de Rotuladores de Dados do Quênia:

Os trabalhadores chegam até nós visivelmente abalados — não apenas pelo trauma do conteúdo que são forçados a ver, mas pelo medo que os acordos de confidencialidade que assinaram incutiram neles. Eles estão aterrorizados com a possibilidade de até mesmo pedir ajuda lhes custar o emprego.

Não se trata de sofrimento incidental, mas de uma forma institucionalizada de extração — desgaste emocional suportado pelos trabalhadores. A indústria da IA ​​extrai mais-valia não apenas do tempo de trabalho, mas também da resistência psíquica — até que essa capacidade entre em colapso. Ao contrário do trabalho fabril tradicional, onde as lesões podem ser vistas, nomeadas e, às vezes, combatidas coletivamente, o dano aqui é interno, isolador e muito mais difícil de contestar.

Os acordos de confidencialidade intensificam a crise. Eles não apenas protegem as empresas de responsabilidade legal; eles rompem as próprias condições necessárias para a recuperação e a resistência. Ao amordaçar os trabalhadores, os acordos de confidencialidade impedem a formação de uma identidade coletiva. Esse silenciamento político agrava a crise sanitária: os trabalhadores são incapazes de nomear o que está acontecendo com eles, muito menos se organizar em torno disso. O resultado é uma classe de trabalhadores traumatizados e descartáveis ​​que sofrem em silêncio enquanto o sistema que os prejudica permanece protegido — e lucrativo.

Para onde vamos a partir daqui?

A escala e a gravidade desta crise exigem mais do que reformas fragmentadas ou estratégias de enfrentamento individualizadas. Ela exige uma resposta coordenada e global, baseada no poder dos trabalhadores, na responsabilização jurídica e na solidariedade entre movimentos. Como organizadores e ativistas sindicais, precisamos começar identificando o que enfrentamos: não apenas maus atores ou violações isoladas, mas um sistema deliberadamente arquitetado — que lucra com a invisibilidade dos trabalhadores, extrai valor do trauma e silencia a dissidência por meio de contratos coercitivos como os Acordos de Confidencialidade (NDAs).

O primeiro passo é desmantelar os mecanismos de silêncio. Acordos de confidencialidade que impedem os trabalhadores de falar sobre suas condições — seja para terapeutas, familiares, jornalistas ou sindicatos — devem ser banidos dos contratos de trabalho. Governos e organismos internacionais devem reconhecer essas cláusulas não como práticas comerciais padrão, mas como violações de direitos fundamentais: liberdade de expressão, acesso a cuidados e liberdade de associação. Quando plataformas alegam que esses acordos são necessários para proteger segredos comerciais, devemos nos perguntar: a que custo e em benefício de quem?

Em segundo lugar, precisamos fortalecer o poder dos trabalhadores além das fronteiras. Moderadores de conteúdo e profissionais de dados são frequentemente isolados por natureza — espalhados entre subcontratados e países, limitados por barreiras legais e tecnológicas. Mas novas formações estão surgindo. No Quênia, nas Filipinas e na Colômbia, trabalhadores estão compartilhando depoimentos, apesar das ameaças de retaliação e perda de empregos. Esses esforços locais devem ser conectados por meio de alianças trabalhistas transnacionais que possam, em conjunto, responsabilizar empregadores, exigir proteções e lutar por padrões compartilhados. As empresas de tecnologia podem se esconder atrás da terceirização, mas os danos são constantes — e nossa resposta também deve ser.

Quando a tecnologia mais celebrada do nosso tempo depende do sofrimento silencioso de alguns de seus trabalhadores mais precários o que isso diz sobre o mundo em que vivemos?

Em terceiro lugar, precisamos de padrões globais aplicáveis ​​que tratem a saúde psicológica como essencial para um trabalho decente. Pausas para descanso e canais para atendimento telefônico não são suficientes. As empresas de plataforma devem ser responsabilizadas diretamente pelas condições de trabalho em suas cadeias terceirizadas. Isso inclui regras juridicamente vinculativas para jornada de trabalho, apoio obrigatório em casos de trauma, períodos de descanso e proteção contra retaliações. Governos, sindicatos e organismos trabalhistas internacionais devem insistir que empresas como Meta, TikTok e OpenAI não podem ser consideradas líderes globais em IA enquanto negam direitos fundamentais aos trabalhadores que treinam seus modelos.

Por fim, devemos rejeitar a noção de que a regulamentação da IA ​​se resume apenas a ética ou inovação. Esta é uma questão de direitos trabalhistas — e deve ser tratada como tal. Ética sem aplicação é vazia, e inovação que ocorre à custa da dignidade humana é exploração com outro nome. Organizadores, pesquisadores e aliados devem pressionar por uma nova narrativa: uma que mensure a inteligência de qualquer sistema não apenas por seu desempenho, mas também por como ele trata as pessoas que o tornam possível.

O futuro da IA ​​é um espelho dos nossos valores

A Conferência Internacional do Trabalho, o órgão máximo decisório da Organização Internacional do Trabalho (OIT), acaba de concluir a primeira rodada de discussões sobre o estabelecimento de normas para o trabalho decente em plataformas digitais de trabalho. Com o mandato de desenvolver uma convenção vinculativa e uma recomendação complementar, a OIT deve garantir que os marcos regulatórios se apliquem não apenas aos trabalhadores contratados diretamente por meio de plataformas, mas também àqueles contratados por meio de intermediários. Essas normas devem proteger os direitos fundamentais de formar ou filiar-se a sindicatos e de negociar coletivamente — inclusive por meio de proibições explícitas de acordos de confidencialidade (NDAs) que silenciam sistematicamente os trabalhadores e prejudicam a ação coletiva.

Quando a tecnologia mais celebrada do nosso tempo se baseia no sofrimento silencioso de alguns de seus trabalhadores mais precários o que isso diz sobre o mundo em que vivemos? Enquanto bilhões são investidos em IA e as manchetes aclamam seus avanços, as próprias pessoas que a tornam possível — absorvendo violência inimaginável para treinar máquinas — ficam sem voz, destruídas e descartadas. Isso não é progresso. É cegueira calculada.

Se construirmos a IA sobre uma base de trauma e repressão, não estaremos criando ferramentas para o avanço humano — estaremos construindo sistemas que se esquecem de como se importar, de como ouvir, de como ser justo. E se não lutarmos para mudar isso agora, o preço não será pago apenas pelos moderadores de conteúdo em Nairóbi ou pelos rotuladores de dados em Manila. Será pago por todos nós — no silêncio que normalizamos, no dano que ocultamos e no futuro que permitimos que seja construído sobre a dor deles.

Colaboradores

Shikha Silliman Bhattacharjee é chefe de pesquisa, política e inovação na Equidem.

Nandita Shivakumar é uma consultora de comunicação que colabora com a Equidem.

Nenhum comentário:

Postar um comentário

O guia essencial da Jacobin

A Jacobin tem divulgado conteúdo socialista em ritmo acelerado desde 2010. Eis aqui um guia prático para algumas das obras mais importantes ...