6 de julho de 2025

O império da IA ​​de Sam Altman depende da exploração brutal do trabalho

Empresas como a OpenAI estão desenvolvendo a IA de uma forma que tem implicações profundamente ameaçadoras para trabalhadores de diversas áreas. A trajetória atual da IA ​​só pode ser alterada por meio do confronto direto com o poder avassalador dos gigantes da tecnologia.

Ben Wray

Jacobin

CEO da OpenAI, Sam Altman, no TechCrunch Disrupt em São Francisco, 3 de outubro de 2019. (Wikimedia Commons)

Resenha do livro Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI [Império da IA: Sonhos e Pesadelos na OpenAI de Sam Altman] por Karen Hao (Penguin Press, 2025)

A inteligência artificial (IA) é possivelmente a tecnologia mais comentada da história. Por mais de meio século, o potencial da IA ​​para substituir a maioria ou todas as habilidades humanas tem oscilado no imaginário público entre a fantasia da ficção científica e a missão científica.

Da IA preditiva dos anos 2000, que nos trouxe mecanismos de busca e aplicativos, à IA generativa dos anos 2020, que nos traz chatbots e deepfakes, cada iteração da IA ​​é aparentemente mais um salto em direção ao ápice dessa tecnologia ​​em relação à mente humana, ou o que agora é amplamente denominado Inteligência Artificial Geral (AGI).

A força da análise detalhada de Karen Hao sobre a indústria de IA dos EUA, “Empire of AI”, reside no fato de sua abordagem implacavelmente fundamentada se recusar a entrar no jogo dos propagandistas da IA. Hao argumenta convincentemente que é errado focar em hipóteses sobre o futuro da IA ​​quando sua encarnação atual está repleta de problemas. Ela também enfatiza que perspectivas exageradas de “pessimismo” e “conservadorismo boomer” sobre o que está por vir acabam ajudando os titãs da indústria a construir um presente e um futuro para a IA que melhor atendam aos seus interesses.

Além disso, a IA é um processo, não um destino. A IA que temos hoje é, ela própria, o produto de dependências de trajetória baseadas nas ideologias, infraestrutura e propriedades intelectuais dominantes no Vale do Silício. Assim, a IA está sendo encaminhada por um caminho de desenvolvimento altamente oligopolizado, projetado deliberadamente para minimizar a concorrência de mercado e concentrar o poder nas mãos de um número muito pequeno de executivos corporativos estadunidenses.

No entanto, o futuro da IA ​​permanece um território controverso. No que foi um choque para a bolha do Vale do Silício, a China emergiu como uma séria rival ao domínio da IA ​​dos EUA. Assim, a IA agora se tornou o centro das políticas das grandes potências, de forma comparável às corridas nuclear e espacial do passado. Para entender onde a IA está e para onde caminha, precisamos situar a análise da tecnologia no contexto econômico e geopolítico mais amplo em que os Estados Unidos se encontram.

Metamorfose da OpenAI

A narrativa de Hao gira em torno da OpenAI, a empresa de São Francisco mais famosa pelo ChatGPT, o chatbot de IA que trouxe a IA generativa à atenção mundial. Através dos desafios e tribulações de seu CEO, Sam Altman, somos levados a um mundo de engano e manipulação maquiavélicos, onde a ambição moral pretensiosa colide constantemente com as realidades brutais do poder corporativo. Altman sobrevive às várias tempestades que surgem em seu caminho, mas apenas abandonando tudo em que um dia alegou acreditar.

"A IA agora passou a ocupar o primeiro plano e o centro das políticas das grandes potências de uma forma comparável às corridas nuclear e espacial do passado."

A OpenAI nasceu com a missão de “construir uma IA que beneficie a humanidade” como uma organização sem fins lucrativos que colaboraria com outras por meio do compartilhamento aberto de suas pesquisas, sem desenvolver produtos comerciais. Esse objetivo surgiu das convicções de Altman e do primeiro grande patrocinador da OpenAI, Elon Musk, que acreditava que a IA representaria grandes riscos para o mundo se fosse desenvolvida de forma equivocada. Portanto, a IA exigia um desenvolvimento cauteloso e uma regulamentação governamental rigorosa para mantê-la sob controle.

A OpenAI era, portanto, um produto da facção “pessimista” da IA. A ideia era ser o primeiro a desenvolver a IA para estar melhor posicionado para controlá-la. O fato de Altman acabar fazendo a OpenAI dar um giro de 180 graus — criando uma empresa com fins lucrativos que produz software proprietário, baseada em níveis extremos de sigilo corporativo e na determinação implacável de superar seus rivais na velocidade de comercialização da IA, independentemente dos riscos — atesta sua capacidade de se transformar no que for necessário em busca de riqueza e poder.

A motivação para a primeira mudança em direção ao que a OpenAI viria a se tornar veio de considerações estratégicas relacionadas à sua doutrina de desenvolvimento de IA, chamada de “escala”. A ideia por trás da escala era que a IA poderia avançar a passos largos simplesmente pela força bruta do poder massivo de dados. Isso refletia uma crença devota no “conexionismo”, uma escola de desenvolvimento de IA muito mais fácil de comercializar do que sua rival (“simbolismo”).

Os conexionistas acreditavam que a chave para a IA era criar “redes neurais”, aproximações digitais de neurônios reais no cérebro humano. Os grandes pensadores da OpenAI, principalmente seu primeiro cientista-chefe, Ilya Sutskever, acreditavam que, se a empresa tivesse mais nós de processamento de dados (“neurônios”) disponíveis do que as outras, ela se posicionaria na vanguarda do desenvolvimento de IA. O problema era que a escalabilidade, uma estratégia intrinsecamente intensiva em dados, exigia um enorme volume de capital — muito mais do que uma organização sem fins lucrativos era capaz de atrair.

Impulsionada pela necessidade de escala, a OpenAI criou um braço com fins lucrativos em 2019 para levantar capital e desenvolver produtos comerciais. Assim que o fez, houve uma disputa entre Altman e Musk para assumir o cargo de CEO. Altman venceu e Musk, afastado, passou de aliado a inimigo da noite para o dia, acusando Altman de levantar fundos como uma organização sem fins lucrativos sob falsos pretextos. Essa foi uma crítica que mais tarde se transformaria em litígio contra a OpenAI.

Mas a justificativa ideológica de Musk para a cisão foi uma reflexão tardia. Se ele tivesse vencido a disputa pelo poder, o homem mais rico do mundo planejava impor a OpenAI à sua empresa de carros elétricos, a Tesla. Quem quer que se tornasse CEO, a OpenAI estava em um caminho irreversível para se tornar igual a qualquer outra gigante da tecnologia.

IA generativa

No entanto, devido às origens da empresa, ela ficou com uma estrutura de governança estranha que deu o controle do conselho a um braço sem fins lucrativos quase irrelevante, com base na pretensão ridícula de que, apesar de sua recém-adotada motivação lucrativa, a missão da OpenAI ainda era construir uma IA para a humanidade. O movimento Altruísmo Eficaz (EA) deu um verniz de coerência aos preceitos ideológicos orwellianos da OpenAI. O EA promove a ideia de que a melhor maneira de fazer o bem é enriquecer o máximo possível e então doar seu dinheiro para causas filantrópicas.

Esse lixo de filosofia encontrou apoio maciço no Vale do Silício, onde a ideia de buscar a acumulação máxima de riqueza e justificá-la em termos morais era altamente conveniente. Altman, que em 2025 cumprimentou o príncipe saudita Mohammed Bin Salman ao lado de Trump logo após o governante despótico anunciar seu próprio empreendimento de IA, personifica o inevitável fim da postura em relação à inteligência artificial: o poder inevitavelmente se torna o propósito central.

"O Altruísmo Eficaz promove a ideia de que a melhor maneira de fazer o bem é ficar o mais rico possível e então doar seu dinheiro para causas filantrópicas."

Apenas quatro meses após o lançamento da empresa com fins lucrativos, Altman garantiu um investimento de US$ 1 bilhão da Microsoft. Com Musk fora de cena, a OpenAI encontrou um benfeitor alternativo, uma Big Tech, para financiar sua expansão. Mais disposta a atropelar as regras de proteção de dados do que grandes concorrentes como o Google, a OpenAI começou a extrair dados de qualquer lugar, com pouca preocupação com sua qualidade ou conteúdo — uma mentalidade clássica de “disruptor” de startups de tecnologia, semelhante à do Uber ou do Airbnb.

Essa abundância de dados foi a matéria-prima que impulsionou o crescimento da OpenAI. Motivada pelo desejo de impressionar o fundador e ex-CEO da Microsoft, Bill Gates, que queria ver a OpenAI criar um chatbot útil para pesquisas, a empresa desenvolveu o ChatGPT, esperando um sucesso moderado. Para surpresa de todos, em dois meses o ChatGPT se tornou o aplicativo de consumo com o crescimento mais rápido da história. A era da IA ​​generativa havia nascido.

A partir daí, a OpenAI passou a se concentrar implacavelmente na comercialização. Mas as ondas de choque do ChatGPT foram sentidas muito além da empresa. A escalabilidade tornou-se o padrão para o desenvolvimento de IA: observadores consideravam a empresa que conseguisse reunir a maior quantidade de “computação” (poder de dados) como a provável vencedora da corrida tecnológica da IA. A Alphabet e a Meta começaram a investir em desenvolvimento de IA em quantias que superavam as do governo dos EUA e da Comissão Europeia.

À medida que as Big Techs corriam para avançar na IA generativa, a corrida pelo financiamento arrebatou quase todos os talentos da área. Isso transformou a natureza da pesquisa em IA, inclusive nas universidades, com professores renomados cada vez mais vinculados a um dos players das Big Techs. À medida que os riscos aumentavam, a pesquisa interna das empresas tornou-se cada vez mais sigilosa e a dissidência passou a ser vista com maus olhos. Muros corporativos privados estavam dividindo o campo do desenvolvimento de IA.

Temos que situar essa forma fortemente mercantilizada de desenvolvimento de IA em sua conjuntura geral. Se a IA generativa tivesse sido desenvolvida nos EUA na década de 1950, teria passado anos ou mesmo décadas sendo amplamente financiada por orçamentos de P&D militar. Mesmo após sua comercialização, o Estado teria permanecido o principal comprador da tecnologia por décadas. Esse foi o caminho do desenvolvimento dos semicondutores.

No entanto, na década de 2020, no final da era neoliberal, é o nexo corporativo-estatal que impulsiona e estrutura o desenvolvimento tecnológico nos Estados Unidos, reduzindo os incentivos para o pensamento de longo prazo e paralisando qualquer processo pedagógico aberto de investigação científica. Isso terá consequências de longo prazo para o desenvolvimento da IA ​​que dificilmente serão positivas, seja para a sociedade em geral, seja para a liderança global estadunidense em particular.

IA e trabalho

Um dos mitos da IA ​​é que ela é uma tecnologia que não depende de trabalhadores. O processo de reprodução generativa da IA ​​consiste essencialmente em três partes: extrair os dados, processá-los e testar ou corrigir os dados. A parte da extração depende de trabalho morto, e não vivo. Por exemplo, a OpenAI extraiu dados do LibraryGenesis, um repositório online de livros e artigos acadêmicos, utilizando séculos de trabalho intelectual gratuitamente.

"Um dos mitos da IA ​​é que ela é uma tecnologia que não depende de trabalhadores."

A parte de processamento de dados da IA ​​generativa gira em torno do poder computacional, que depende da mão de obra apenas na medida em que a infraestrutura necessária para a “computação”, principalmente os data centers, se baseia em uma longa cadeia de valor digital que inclui fabricantes de chips taiwaneses e mineradoras de cobre chilenas. Embora o teste e a correção dos dados sejam a parte da reprodução da IA ​​generativa mais frequentemente esquecida, também são a parte que depende mais diretamente dos trabalhadores.

Existem dois tipos de trabalhadores digitais necessários para testar e corrigir os enormes requisitos de dados da IA ​​generativa. O primeiro são os trabalhadores de clique, também conhecidos como anotadores de dados (ou rotuladores de dados). São trabalhadores temporários que recebem salários por tarefa para concluir pequenas tarefas digitais, como categorizar o conteúdo de uma imagem.

Os trabalhadores de clique são vitais porque, sem eles, sistemas de IA como o ChatGPT estariam cheios de erros, especialmente quando se trata de “casos extremos”: situações raras ou incomuns que se situam nos limites dos parâmetros de categorização da IA. Os trabalhadores de clique transformam os dados de sistemas de IA generativa de baixa qualidade para alta qualidade. Isso é especialmente importante para a OpenAI, já que muitos dos dados da empresa foram extraídos das profundezas da internet.

As barreiras de entrada para o trabalho digital são extremamente baixas, pois qualquer pessoa com acesso à internet pode realizar as tarefas mais básicas. Os trabalhadores digitais operam em um mercado de trabalho global com pouca conexão com seus colegas, o que significa que têm influência muito limitada sobre seus chefes digitais. Como tal, os salários são baixíssimos e as condições são as mais precárias possíveis.

Hao constata que a Venezuela se tornou um foco global de trabalho remoto por um período, devido aos seus altos níveis de educação, bom acesso à internet e à crise econômica generalizada. As severas sanções dos EUA à Venezuela não impediram suas empresas de IA de explorar a força de trabalho desesperada e empobrecida do país sul-americano. Quando empresas de terceirização de trabalho remoto como a RemoTasks sentem que maximizaram a exploração da mão de obra de um país em crise, ou começam a enfrentar resistência quanto às condições de trabalho, elas simplesmente demitem trabalhadores daquele local e os trazem para o projeto de outro lugar.

O segundo tipo de trabalhador na indústria de IA é o moderador de conteúdo. Como a OpenAI e outras empresas de IA estão vasculhando os detritos da internet em busca de dados, uma parcela substancial está saturada de racismo, sexismo, pornografia infantil, visões fascistas e todas as outras coisas desagradáveis ​​que se possa imaginar. Uma versão de IA que não tenha os horrores da internet filtrados desenvolverá essas características em suas respostas; de fato, versões anteriores do que se tornaria o ChatGPT produziram propaganda neonazista, alarmando a equipe de compliance da OpenAI.

A solução tem sido recorrer a moderadores de conteúdo humanos para extrair a sujeira do sistema da IA, da mesma forma que eles também têm sido incumbidos há anos de policiar o conteúdo das redes sociais. Ao contrário dos trabalhadores de clique, a força de trabalho dos moderadores de conteúdo tende a estar sujeita a um regime de taylorismo digital, em vez de trabalho por peça. Isso assume a forma de uma estrutura semelhante à de um call center, onde os trabalhadores são motivados por bônus em ambientes orientados por metas, o tempo todo sob o olhar atento de supervisores humanos e vigilância digital.

No abismo

Assim como os trabalhadores de clique, eles realizam pequenas tarefas digitais anotando dados, mas os dados que anotam consistem no conteúdo mais vil que os humanos podem produzir. Como estão treinando a IA, é necessário que os moderadores de conteúdo observem atentamente todos os detalhes sangrentos que aparecem na tela para rotular cada parte corretamente. Ser exposto a isso repetida e exaustivamente é um pesadelo para a saúde mental.

Hao acompanha a história de Mophat Okinyi, um moderador de conteúdo queniano que trabalha para a empresa de terceirização Sama, moderando conteúdo da Meta e da OpenAI. Quanto mais tempo Okinyi trabalhava para a Sama, mais seu comportamento se tornava errático e sua personalidade mudava, destruindo seus relacionamentos e levando a custos crescentes com cuidados de saúde mental.

"É necessário que os moderadores de conteúdo observem atentamente todos os detalhes sangrentos que aparecem na tela para rotular cada parte corretamente."

Tendo eu mesmo feito reportagens sobre moderação de conteúdo, sei que o caso de Okinyi não é de forma alguma excepcional. É normal que moderadores de conteúdo tenham suas mentes sistematicamente destruídas pela brutalidade implacável que precisam testemunhar repetidamente apenas para fazer seu trabalho.

Embora a maior parte do trabalho de clique e moderação de conteúdo seja realizada no Sul Global, há indícios de que, à medida que a IA se torna mais complexa, ela precisará cada vez mais de profissionais de dados também no Norte Global. A principal razão para isso é a crescente importância do Aprendizado por Reforço a partir do Feedback Humano (RLHF) para o desenvolvimento da IA.

RLHF é uma forma mais complexa de anotação de dados, pois os trabalhadores de clique precisam comparar duas respostas de uma IA e ser capazes de explicar por que uma é melhor que a outra. À medida que as ferramentas de IA são desenvolvidas para setores específicos, a necessidade de expertise especializada, bem como a compreensão de características culturais específicas, significa que a RLHF exige cada vez mais trabalhadores altamente qualificados para ingressar no setor de IA.

Mantendo o estilo do livro, Hao não especula sobre onde a RLHF pode levar, mas vale a pena considerar brevemente seu potencial impacto no futuro do trabalho. Se ferramentas de IA generativa podem produzir conteúdo tão bom quanto ou melhor do que o material produzido por um ser humano, então não é inconcebível que tais ferramentas possam substituir o trabalhador em qualquer setor de produção de conteúdo.

No entanto, isso não significaria que as habilidades desses trabalhadores desapareceriam completamente: ainda haveria necessidade, por exemplo, de assistentes jurídicos, mas seu trabalho seria testar e corrigir a IA para assistentes jurídicos. Nesse ponto, esses empregos profissionais do setor de serviços estariam expostos ao modelo de trabalho uberizado que os trabalhadores do hemisfério sul vivenciam há anos. Não é à toa que Altman afirmou que “serão necessárias algumas mudanças no contrato social”.

É claro que ainda existem dúvidas significativas sobre as verdadeiras capacidades da IA ​​generativa em uma ampla gama de produção de conteúdo. Mas, independentemente de onde se situe na escala entre cético e crente convicto, há pouca dúvida de que a IA será cada vez mais relevante não apenas para os empregos das camadas mais pobres da classe trabalhadora, mas também para os trabalhadores acostumados a ter algum nível de segurança financeira devido à sua posição mais elevada na escala do mercado de trabalho. A atração de um grupo muito maior de trabalhadores para o precariado pode ter consequências sociais explosivas.

Data centers e DeepSeek

O impacto da IA ​​no meio ambiente provavelmente será tão drástico quanto seu impacto no trabalho, se não mais. O enorme uso de dados da IA ​​generativa exige data centers gigantescos, equipados com chips de GPU de alto consumo de energia para atendê-la. Esses data centers precisam de vastas extensões de terra para serem construídos e enormes quantidades de água para resfriá-los. À medida que os produtos de IA generativa se tornam cada vez mais utilizados, a pegada ecológica da indústria se expande implacavelmente.

"O efeito da IA ​​no meio ambiente provavelmente será tão drástico quanto seu impacto no trabalho, se não maior."

Hao destaca algumas estatísticas e previsões impressionantes. Cada imagem gerada por IA tem um consumo de energia equivalente a 25% do carregamento de um smartphone. O consumo de água da IA ​​pode ser equivalente à metade de toda a água usada no Reino Unido até 2027. Até 2030, a IA poderá consumir mais energia do que toda a Índia, o terceiro maior consumidor de eletricidade do mundo.

As consequências ambientais já foram significativas. Iowa, após dois anos de seca, teve a Microsoft consumindo 11,5 milhões de toneladas de água potável do estado. O Uruguai, um país que tem enfrentado secas recorrentes, viu protestos em massa depois que a Justiça forçou o governo a revelar a quantidade de água potável que os data centers do Google no país estavam usando. “Isso não é seca, é pilhagem”, diz um grafite em Montevidéu.

O que torna a chegada em massa de data centers especialmente difícil de aceitar para as populações locais é o fato de que eles praticamente não trazem benefícios. Os data centers geram pouquíssimos empregos nos locais onde estão localizados, enquanto drenam terras e água das áreas locais, prejudicando ativamente as indústrias que exigem mais mão de obra.

Apesar disso, seguindo a lógica da doutrina de escalonamento, devemos esperar que os data centers cresçam cada vez mais à medida que a “computação” se expande para manter a IA avançando. Embora Altman tenha investido pesadamente em uma startup de fusão nuclear como o bilhete dourado para energia abundante e gratuita, assim como a IA avançada, trata-se de uma aposta em uma solução milagrosa para o futuro que desvia a atenção dos problemas reais que o escalonamento da IA ​​está causando hoje.

No entanto, em uma rara boa notícia para a ecologia mundial, a doutrina de escalonamento recebeu um golpe da Ásia em janeiro. O DeepSeek, um chatbot chinês de IA generativa, foi lançado e rapidamente ultrapassou o ChatGPT como o aplicativo mais baixado nos Estados Unidos.

O mais notável sobre o DeepSeek não é o que ele fez, mas como fez. O treinamento do chatbot custou apenas US$ 6 milhões — cerca de um quinquagésimo do custo do ChatGPT, com qualidade superior em alguns benchmarks. O DeepSeek foi treinado em chips de GPU antigos, projetados pela Nvidia para serem de qualidade inferior, a fim de atender às restrições de exportação de chips dos EUA para a China. Devido à sua eficiência, o consumo de energia do DeepSeek é 90% menor que o do ChatGPT. O funcionamento técnico por trás dessa maravilha da engenharia foi tornado código aberto, para que qualquer pessoa pudesse ver como era feito.

O DeepSeek foi uma maravilha tecnológica e um terremoto geopolítico, tudo ao mesmo tempo. Não só marcou a chegada da China como uma superpotência tecnológica, como também demonstrou que a doutrina de escalonamento adotada por todo o Vale do Silício como metodologia preferencial para IA generativa havia se mostrado, na melhor das hipóteses, ultrapassada. O choque de que uma empresa chinesa pudesse constranger o Vale do Silício foi tão grande que gerou pânico em Wall Street, questionando se os trilhões já investidos na IA estadunidense constituíam uma aposta que deu muito errado.

Em um dia, a queda na capitalização de mercado das ações de tecnologia foi equivalente a todo o valor financeiro do México. Até Donald Trump se pronunciou, dizendo que o surgimento da DeepSeek foi um “chamado de atenção” para as grandes empresas de tecnologia dos EUA. No X, Altman adotou um tom positivo em resposta, mas a OpenAI rapidamente começou a informar a imprensa de que a DeepSeek poderia ter “destilado” os modelos da OpenAI para criar seu chatbot, embora pouco se tenha ouvido sobre essa afirmação desde então. De qualquer forma, a destilação não explica os enormes ganhos de eficiência da DeepSeek em comparação com a OpenAI.

É uma pena que o DeepSeek não apareça em Empire of AI. Hao escreve que terminou o livro em janeiro de 2025, mês do lançamento do DeepSeek. Teria sido sensato da parte da editora dar a Hao uma extensão de seis meses para escrever um capítulo sobre o DeepSeek e as consequências nos EUA, especialmente considerando que grande parte do livro é uma crítica ao dogma de que a escalabilidade é a única maneira de desenvolver a IA seriamente.

No entanto, ela comentou em outro lugar sobre a chegada dramática do DeepSeek e as falhas que ele revela sobre a indústria de IA dos EUA: “O DeepSeek demonstrou que escalar modelos de IA implacavelmente, um paradigma que a OpenAI introduziu e defende, não é a única, e está longe de ser a melhor, maneira de desenvolver IA.”

Alternativas

O DeepSeek também levantou questões ideológicas mais profundas sobre o desenvolvimento da IA. Se uma empresa chinesa pôde desenvolver tecnologia de ponta em código aberto, dando a todos a oportunidade de testar as premissas subjacentes de sua inovação e desenvolvê-las, por que as empresas estadunidenses estavam ocupadas construindo enormes gaiolas de software proprietário em torno de sua tecnologia — uma forma de confinamento que certamente inibiria a velocidade do progresso científico? Alguns começaram a questionar se o comunismo chinês oferece um ecossistema melhor para o desenvolvimento da IA ​​do que o capitalismo estadunidense.

"Tanto o DeepSeek quanto o ChatGPT operam com base em modelos de negócios capitalistas, apenas com princípios diferentes de desenvolvimento técnico."

Na verdade, a questão entre abordagens de código aberto e proprietárias apenas arranha a superfície dos debates que a sociedade deveria estar travando sobre inteligência artificial. Em última análise, tanto o DeepSeek quanto o ChatGPT operam com base em modelos de negócios capitalistas, apenas com princípios diferentes de desenvolvimento técnico. Embora o sistema operacional de código aberto Android diferencie o Google da Apple, ninguém hoje deposita qualquer esperança no Google como modelo para um desenvolvimento tecnológico socialmente justo. A questão mais importante que deveríamos estar nos perguntando é: se não podemos confiar em empresas capitalistas oligopolistas com uma tecnologia tão poderosa quanto essa, como a IA deve ser administrada?

Hao só se aprofunda nesse ponto no epílogo do livro, “Como o Império Cai”. Ela se inspira no Te Hiku, um projeto de reconhecimento de fala por IA maori. O Te Hiku busca revitalizar a língua te reo inserindo fitas de áudio arquivadas de falantes de te reo em um modelo de reconhecimento de fala por IA, ensinando novas gerações de maoris que têm poucos professores humanos disponíveis.

A tecnologia foi desenvolvida com base no consentimento e na participação ativa da comunidade maori e é licenciada apenas para organizações que respeitam os valores maoris. Hao acredita que o Te Hiku demonstra que existe “outra maneira” de fazer IA:

Os modelos podem ser pequenos e específicos para tarefas, com seus dados de treinamento contidos e cognoscíveis, eliminando os incentivos para práticas trabalhistas exploratórias e psicologicamente prejudiciais generalizadas e o extrativismo avassalador da produção e operação de supercomputadores gigantescos. A criação da IA ​​pode ser conduzida pela comunidade, consensual e respeitosa em relação ao contexto e a história locais; sua aplicação pode elevar e fortalecer comunidades marginalizadas; sua governança pode ser inclusiva e democrática.

De forma mais ampla, Hao afirma que devemos buscar a “redistribuição de poder” na IA em três eixos: conhecimento, recursos e influência. Deve haver maior financiamento para organizações que buscam novos rumos na pesquisa em IA, responsabilizando as Big Techs ou desenvolvendo ferramentas de IA baseadas na comunidade, como o Te Hiku. Também deve haver transparência sobre os dados de treinamento em IA, seu impacto ambiental, cadeias de suprimentos e arrendamentos de terras.

Os sindicatos devem ser apoiados para desenvolver poder entre os trabalhadores de dados e aqueles cujos empregos estão ameaçados pela automação. Por fim, é necessária uma “educação ampla” para desmistificar os mitos que cercam a IA, para que o público possa ter uma compreensão mais sólida de como as ferramentas de IA são construídas, quais são suas limitações e a quem elas atendem.

Trazendo o Estado de volta

Embora essas sejam ideias importantes, por si só não ameaçariam o poder de empresas como a OpenAI. O Estado está notavelmente ausente da visão de Hao para derrubar os gigantes da tecnologia de IA. As questões de como a IA deve ser regulamentada e qual estrutura de propriedade deve ter permanecem inexploradas em “Empire of AI”.

"O Estado está notavelmente ausente da visão de Karen Hao para derrubar os gigantes da tecnologia de IA."

Talvez, na era Trump, haja um sentimento de ceticismo entre os progressistas quanto à possibilidade de o Estado ser algo além de uma ferramenta para consolidar o poder das elites corporativas. Certamente é difícil não ser cínico diante de projetos como o Stargate, uma colaboração do setor privado apoiada pela OpenAI para investir US$ 500 bilhões em infraestrutura de IA. O Stargate é sustentado pelo compromisso do governo Trump de que irá flexibilizar e quebrar regulamentações conforme necessário para garantir que o projeto receba o suprimento de energia de que necessita — um caso claro do nexo Estado-empresa funcionando perfeitamente, com pouca preocupação com as consequências para a sociedade em geral.

No entanto, a esquerda não pode ignorar a questão do poder estatal e da IA. Embora projetos como o Te Hiku sejam sem dúvida valiosos, por definição não podem ser alternativas em escala ao poder coletivo do capital estadunidense da IA, que comanda recursos muito maiores do que muitos dos Estados do mundo. Se se tornar normal que ferramentas de IA como o ChatGPT sejam governadas por e para o Vale do Silício, corremos o risco de ver os principais meios de produção de conteúdo concentrados nas mãos de um pequeno número de barões da tecnologia.

Precisamos, portanto, colocar grandes soluções na mesa. Em primeiro lugar, regulamentação: deve haver um conjunto de regras que imponha limites rígidos sobre a origem dos dados das empresas de IA, como seus modelos são treinados e como seus algoritmos são gerenciados. Além disso, todos os sistemas de IA devem ser obrigados a operar dentro de limites ambientais rigorosamente regulamentados: o uso de energia para IA generativa não pode ser um direito de todos em um planeta sob imenso estresse ecológico. Sistemas de armas automatizadas com IA devem ser proibidos. Tudo isso deve ser submetido a auditorias rigorosas e independentes para garantir a conformidade.

Em segundo lugar, embora a concentração de poder de mercado na indústria de IA tenha sofrido um golpe com a chegada da DeepSeek, ainda existem fortes tendências à monopolização dentro da IA ​​— e, de fato, na tecnologia digital como um todo. Desmantelar a oligarquia tecnológica significaria eliminar os guardiões que concentram poder e controlam os fluxos de dados.

Por fim, a questão da propriedade deve ser uma parte séria do debate. O Te Hiku mostra que, quando ferramentas de IA são desenvolvidas por organizações com estruturas de incentivos totalmente diferentes, elas podem produzir resultados radicalmente diferentes. Enquanto a inteligência artificial for projetada para fins de acumulação competitiva de capital, as empresas continuarão a encontrar maneiras de explorar mão de obra, degradar o meio ambiente, tomar atalhos na extração de dados e comprometer a segurança, porque, se não o fizerem, um de seus concorrentes o fará.

É possível imaginar um mundo onde uma IA socializada sirva como uma ajuda genuína à humanidade. Seria um mundo onde, em vez de substituir empregos, a IA seria projetada para ajudar os trabalhadores a reduzir o tempo gasto em tarefas técnicas e burocráticas, concentrando as energias humanas na resolução de problemas e reduzindo a duração da semana de trabalho. Em vez de consumir o abastecimento de água, a IA funcionaria como uma ferramenta de planejamento de recursos para ajudar a identificar desperdícios e duplicações dentro e entre os sistemas energéticos.

Essas possibilidades estão muito distantes das fantasias da IAG, segundo as quais a inteligência artificial supostamente se tornará tão poderosa que resolverá problemas profundamente enraizados nas relações sociais do capitalismo. Em vez disso, esta é uma visão para a IA que pressupõe mudanças estruturais.

Contra um Projeto Manhattan para a IA

Em 29 de maio, o Departamento de Energia dos EUA tuitou a seguinte mensagem: “A IA é o próximo Projeto Manhattan, e OS ESTADOS UNIDOS VENCERÃO”. As agências governamentais dos EUA não são as únicas a comparar a IA favoravelmente ao Projeto Manhattan.

Desde os dias em que o OpenAI era apenas uma ideia na cabeça de Altman, ele propunha um “Projeto Manhattan para IA” a Musk. Quando assistiu a Oppenheimer, o filme biográfico do homem que liderou o Projeto Manhattan, a conclusão de Altman foi que a nuvem em forma de cogumelo sobre o Japão era uma má imagem para a era atômica — é importante acertar as relações públicas quando se trata de tecnologias emergentes. A lição moral óbvia da história — a ideia de que cientistas com boas intenções podem causar danos monstruosos ao presumir ingenuamente que estão (e sempre estarão) do lado dos mocinhos — nunca pareceu lhe passar pela cabeça.

O Projeto Manhattan é uma analogia imperfeita para a corrida tecnológica da IA. Embora a tensão geopolítica esteja, sem dúvida, crescendo entre os Estados Unidos e a China, com a tecnologia no foco, felizmente ainda não estamos no meio de uma guerra mundial.

"Afrouxar o controle do nexo corporativo-estatal dos EUA sobre a IA deve ser uma prioridade fundamental para todos os interessados ​​em um mundo de paz e justiça social."

O ponto em que a comparação se aplica melhor é este: em ambos os casos, os cientistas da vanguarda tecnológica foram e são os que mais alertaram sobre os riscos. Como no caso do Projeto Manhattan, o interesse dos políticos estadunidenses em ver seus cientistas desenvolverem a tecnologia mais rápido do que qualquer outro está abafando os alertas sobre os riscos para a humanidade como um todo.

"Uma nação que estabelece o precedente de usar essas forças da natureza recém-libertadas para fins de destruição", escreveu Leo Szilard, o primeiro a desenvolver o conceito da reação nuclear em cadeia, “pode ter que arcar com a responsabilidade de abrir as portas para uma era de devastação em escala inimaginável”. Hoje, são pessoas como Geoffrey Hinton, conhecido como o “padrinho da IA”, que desempenham o papel de Szilard. Hinton demitiu-se do Google devido ao “risco existencial” representado pela forma como a tecnologia está sendo desenvolvida.

Além disso, não precisamos especular sobre riscos futuros — podemos vê-los aqui e agora. O exército israelense usou uma máquina de IA chamada “Lavender” para identificar “alvos” em seu genocídio em Gaza. A lista de mortes da Lavender era composta por 37 mil palestinos, sem a necessidade de verificar por que esses indivíduos estavam listados. A intervenção humana limitou-se a um processo de carimbo, embora seus supervisores soubessem que a Lavender comete erros em pelo menos 10% dos casos. Como já ficou claro há muito tempo, a Palestina serve como um laboratório para o uso de tecnologias militares emergentes, que são refinadas e depois exportadas para o mundo.

A esquerda deve se opor ativamente a um Projeto Manhattan para a IA. Uma competição geopolítica frenética para desenvolver exemplos de uso altamente militarizados e propagandísticos para a IA não é do interesse dos Estados Unidos, da China ou do resto do mundo. Seja em Gaza hoje ou em Hiroshima e Nagasaki na década de 1940, devemos reconhecer o que significa a “vitória” dos Estados Unidos na corrida tecnológica nesse sentido. Afrouxar o controle do nexo corporativo-estatal dos EUA sobre a IA deve ser uma prioridade fundamental para todos os interessados ​​em um mundo de paz e justiça social.

Colaborador

Ben Wray é um jornalista freelance baseado na Escócia e coordenador do Gig Economy Project.

Nenhum comentário:

Postar um comentário

O guia essencial da Jacobin

A Jacobin tem divulgado conteúdo socialista em ritmo acelerado desde 2010. Eis aqui um guia prático para algumas das obras mais importantes ...