10 de fevereiro de 2025

Os algoritmos que ditam nossas vidas não são neutros

Algoritmos não são ferramentas apolíticas que simplesmente melhoram a eficiência nas transações online ou na coordenação no local de trabalho. São instrumentos de controle que devem ser regulamentados como todos os outros.

Nandita Shivakumar e Shikha Silliman Bhattacharjee

Sam Altman, CEO da OpenAI Inc., durante uma visita da imprensa ao centro de dados Stargate AI em Abilene, Texas, na terça-feira, 23 de setembro de 2025. (Kyle Grillot/Bloomberg via Getty Images)

Em setembro de 2025, veículos de comunicação noticiaram que famílias de adolescentes estadunidenses que cometeram suicídio estavam processando a OpenAI, a Meta e a Character.AI. A alegação era de que os produtos das empresas simulavam vínculos de amizade, incentivavam a automutilação e aprofundavam o isolamento emocional. Um pai disse que o chatbot de sua filha havia se tornado “seu único confidente e lhe disse que não havia problema em desistir”.

Estas não são tragédias isoladas. Elas sinalizam um risco à saúde mais amplo e crescente: sistemas de inteligência artificial (IA) não regulamentados estão se infiltrando nos espaços mais íntimos da vida humana, moldando os estados mentais dos usuários sem supervisão, padrões de segurança ou responsabilização. A consequência é um padrão evitável de danos que se espalha por toda a população.

O dano não termina com seus usuários. Ele também está embutido nas vidas dos trabalhadores que constroem e mantêm esses sistemas. Scroll. Click. Suffer. [Role. Clique. Sofra.], um relatório recente do grupo global de direitos trabalhistas para o qual trabalhamos, Equidem, documentou as experiências de 113 moderadores de conteúdo e rotuladores de dados na Colômbia, Gana, Quênia e Filipinas. Esses trabalhadores passam mais de oito horas por dia revisando violência gráfica, abuso infantil e discurso de ódio para filtrar material prejudicial ao público e gerar os conjuntos de dados que treinam os sistemas de IA — trabalho que os expõe a uma tensão psicológica severa sem suporte adequado de saúde mental, cuidados médicos ou mecanismos adequados de reparação.

O que vincula esses danos a consumidores e trabalhadores é a maquinaria algorítmica da economia de plataforma digital atual. Em ambos os domínios, ela determina o que é visível, o que é oculto e quem arca com os custos. Algoritmos não são ferramentas neutras que simplesmente melhoram a eficiência nas transações online ou na coordenação no local de trabalho — são instrumentos de governança social e trabalhista e devem ser regulamentados como tal.

O algoritmo como chefe, regulador e juiz

Fundamentalmente, os algoritmos com maior alcance são controlados pelas empresas que dominam os mercados digitais. Empresas que monopolizam os fluxos de conteúdo, como Meta, ByteDance e OpenAI, também exercem poder de monopsônio sobre a mão de obra e os dados que as sustentam.

Do lado do trabalho, o poder de monopsônio — o poder dos compradores dominantes de insumos de trabalho de definir unilateralmente os termos de emprego — permite que eles pressionem trabalhadores e fornecedores, definindo salários, impondo métricas de produtividade punitivas ou ditando termos contratuais com pouca margem de negociação. Do lado do consumidor, o controle monopolista sobre plataformas e interfaces permite que uma única empresa decida quais produtos aparecem primeiro, qual conteúdo é amplificado ou quais serviços são acessíveis.

Consumidores e trabalhadores de plataformas são canalizados para ambientes rigorosamente projetados, onde visibilidade, escolha e bem-estar são subordinados ao modelo de lucro da empresa — seja por meio de ciclos de recomendação viciantes, taxas ocultas, direcionamento de compras para fornecedores preferenciais ou controle baseado em metas sobre salários e horas de trabalho. A questão, então, não é simplesmente que os algoritmos funcionem mal ou excedam suas expectativas, mas que operam dentro de uma estrutura de mercado onde monopólio e monopsônio se reforçam mutuamente.

Os algoritmos também governam porque condensam em uma única forma técnica o que gestores, reguladores e mercados antes faziam separadamente: decidir o conteúdo que as pessoas veem, atribuir tarefas aos trabalhadores, avaliar o desempenho por meio de métricas opacas e impor disciplina por meio de penalidades automatizadas. A autoridade algorítmica é, portanto, multifacetada, operando simultaneamente como reguladora do consumo, gestora do trabalho e árbitra do acesso ao mercado.

Os riscos dessa autoridade não reconhecida são evidentes em todos os contextos: quando algoritmos canalizam usuários vulneráveis ​​para espirais de conteúdo nocivo, os reguladores tratam isso como uma questão restrita de “moderação de conteúdo”, em vez de evidências de que o sistema influencia os índices de saúde mental. Quando ferramentas automatizadas de definição de salários reduzem os salários de trabalhadores temporários, a mudança é enquadrada como um ajuste neutro de mercado, em vez de reconhecida como controle salarial algorítmico. Quando trabalhadores de depósito são demitidos por não atingirem os limites algorítmicos de “produtividade”, a decisão é racionalizada como eficiência, em vez de reconhecida como demissão por algoritmo.

"O que é punível quando feito por um chefe torna-se invisível quando feito por esta máquina."

O que é punível quando feito por um chefe torna-se invisível quando feito por esta máquina. Se um gerente humano tomasse essas mesmas decisões — incitar um adolescente a se automutilar, cortar salários sem negociação ou demitir um funcionário sem explicação —, essas ações estariam sujeitas à legislação trabalhista, aos padrões de responsabilidade civil e à supervisão pública. Quando um algoritmo faz isso, elas são tratadas como resultados técnicos neutros.

O perigo reside não apenas no design técnico desses sistemas, mas também na estrutura jurídica e institucional que trata os algoritmos como ativos empresariais privados, em vez de instrumentos de governança social e trabalhista. O que desaparece de vista são as questões de quem detém o poder, como ele é exercido e às custas de quem. A convergência de duas forças — o controle algorítmico sobre o comportamento humano e o isolamento legal que protege esses sistemas do escrutínio — gera riscos para o consumidor e exploração do trabalho.

À medida que os usuários de produtos nas economias de origem das empresas líderes tomam medidas legais por danos ao consumidor, desde violações de privacidade até desinformação e impactos à saúde mental, é fundamental que as intervenções regulatórias não sejam enquadradas apenas como uma questão de proteção ao consumidor. As críticas dominantes ao capitalismo de plataforma, seja por meio da aplicação de leis antitruste ou de conceitos como “tecnofeudalismo”, direcionam a atenção principalmente para a impotência do consumidor. Essas críticas destacam o controle monopolista sobre os mercados digitais, mas frequentemente ignoram como os algoritmos governam simultaneamente os mercados de trabalho, disciplinando os trabalhadores ao mesmo tempo em que extraem valor por meio de vigilância, classificação e gerenciamento automatizado. Devemos nos concentrar no trabalho — não para tratar os danos ao consumidor como algo secundário, mas para mostrar como os dois estão estruturalmente conectados e para mostrar que o algoritmo opera como uma articulação entre o controle do consumidor e a exploração do trabalho.

O véu legal

Algoritmos são geralmente vistos como instrumentos neutros de comércio, mas funcionam como a infraestrutura central do monopsônio na economia de plataformas digitais. Essa consolidação de controle acaba obscurecida por um deslocamento jurídico e político em duas etapas.

Em primeiro lugar, os sistemas algorítmicos são definidos como ferramentas de comércio e inovação, em vez de mecanismos de governança trabalhista. Sua regulamentação é pautada pela proteção ao consumidor e pelo direito da concorrência, onde o algoritmo é enquadrado como um facilitador de correspondência, precificação ou classificação. Nesse enquadramento, as plataformas aparecem como intermediárias, em vez de empregadoras; o algoritmo se torna um recurso técnico, não uma autoridade gerencial.

Essa lógica dominou as negociações recentes na Organização Internacional do Trabalho (OIT), onde vários governos — principalmente os Estados Unidos — resistiram às propostas de reconhecimento de sistemas algorítmicos como instrumentos de controle no local de trabalho. Ao insistir que a infraestrutura algorítmica pertence ao domínio das políticas de comércio e inovação, eles efetivamente a colocaram fora do alcance da legislação trabalhista e além da autoridade de instituições como a OIT.

Em segundo lugar, a arquitetura interna desses sistemas é protegida, sobretudo, pela lei de propriedade intelectual e reforçada por contratos restritivos e classificação incorreta de emprego. Sigilo comercial, direitos autorais e direitos de banco de dados protegem não apenas o código subjacente, mas todo o aparato de tomada de decisão: como as tarefas são atribuídas, como a remuneração é calculada, como os limites são definidos e como as ações disciplinares são acionadas. Tratados como ativos comerciais privados, esses sistemas estão isentos de escrutínio público ou regulatório.

Para dar alguns exemplos das consequências: um regulador não pode obrigar a divulgação de limites algorítmicos; um sindicato não pode negociar um sistema que não tenha permissão legal para inspecionar; e um trabalhador não pode exigir uma explicação para uma dedução salarial ou penalidade.

Os acordos de confidencialidade (NDAs) silenciam os próprios trabalhadores que interagem com esses sistemas diariamente, impedindo-os de se manifestarem sobre suas condições de trabalho. Esses NDAs não protegem apenas segredos comerciais; eles funcionam como ferramentas de intimidação legal, suprimindo denúncias, sindicalização e escrutínio público. Os trabalhadores temem que até mesmo descrever experiências rotineiras possa desencadear processos judiciais ou inclusão em listas de restrição.

Ao mesmo tempo, as plataformas classificam os trabalhadores como prestadores de serviço independentes e direcionam a mão de obra por meio de cadeias de subcontratação multicamadas, distribuindo a responsabilidade entre vários níveis de intermediários. Na prática, a empresa-mãe mantém o controle por meio do algoritmo que define tarefas, salários e limites, mas legalmente está protegida de ser reconhecida como empregadora.

O resultado é uma caixa-preta — politicamente intocável, legalmente protegida e reforçada por todos os lados por regimes sobrepostos de propriedade intelectual, contratos e direito societário. Essa fragmentação jurídica não apenas obscurece a responsabilização, mas também fortalece o poder de monopsônio da empresa, permitindo-lhe ditar salários e condições unilateralmente, ao mesmo tempo em que nega aos trabalhadores as proteções do emprego formal.

Não é uma ferramenta neutra

Desafiar a invisibilidade jurídica da gestão algorítmica começa por reconhecê-la pelo que ela é: um sistema de controle trabalhista e social, não uma ferramenta técnica neutra. Controlar a economia de plataforma, portanto, requer uma regulamentação que aborde os danos algorítmicos tanto no mercado de consumo quanto no mercado de trabalho.

No contexto dos direitos trabalhistas, a primeira prioridade deve ser o reconhecimento formal da gestão algorítmica como um tipo de governança no local de trabalho. As atuais deliberações da Organização Internacional do Trabalho oferecem uma oportunidade: os Estados-membros devem apoiar uma convenção vinculativa que trate os sistemas algorítmicos como parte da relação de trabalho — sujeita não apenas às normas trabalhistas básicas, mas também aos princípios de transparência, devido processo legal e consulta significativa às partes interessadas afetadas. Sem esse reconhecimento, as plataformas continuarão ditando os termos do trabalho, ao mesmo tempo que negam as responsabilidades dos empregadores.

“No contexto dos direitos trabalhistas, a primeira prioridade deve ser o reconhecimento formal da gestão algorítmica como um tipo de governança no local de trabalho.”

Mas o reconhecimento internacional é apenas o começo. Os governos nacionais também precisam suprimir o vácuo regulatório que permite que as plataformas terceirizem a responsabilização. Isso significa exigir transparência na tomada de decisões algorítmicas, proibir acordos de confidencialidade que silenciem os trabalhadores e aplicar a responsabilidade solidária entre as cadeias de subcontratação e os intermediários digitais. Também exige rejeitar a noção de que a opacidade algorítmica é um direito de propriedade e, em vez disso, tratá-la como uma barreira aos direitos legais e à supervisão democrática.

À medida que o trabalho em plataformas impulsionado pela IA se expande pelo Sul Global, essas intervenções não são opcionais. Elas são essenciais para proteger os direitos dos trabalhadores na economia digital e para restaurar o controle público sobre os sistemas que cada vez mais regulam a vida cotidiana.

Colaboradores

Nandita Shivakumar é uma consultora de comunicação que colabora com a Equidem.

Shikha Silliman Bhattacharjee é chefe de pesquisa, política e inovação na Equidem.

Nenhum comentário:

Postar um comentário

O guia essencial da Jacobin

A Jacobin tem divulgado conteúdo socialista em ritmo acelerado desde 2010. Eis aqui um guia prático para algumas das obras mais importantes ...