Não há como negar as maravilhas tecnológicas que resultaram da aplicação de transformadores no aprendizado de máquina. Elas representam uma mudança radical em uma linha de pesquisa técnica que passou a maior parte de sua história parecendo positivamente iludida, pelo menos para seus iniciados mais sóbrios. À esquerda, o reflexo crítico de ver isso como mais uma reviravolta do parafuso neoliberal, ou de apontar o trabalho e a extração de recursos que o sustentam, cai um pouco por terra diante de uma máquina que pode, finalmente, interpretar instruções em linguagem natural com bastante precisão e produzir fluentemente texto e imagens em resposta. Não muito tempo atrás, essas coisas pareciam impossíveis. A resposta apropriada a essas maravilhas não é rejeição, mas pavor, e talvez seja aí que devêssemos começar, pois essa mágica está esmagadoramente concentrada nas mãos de algumas pessoas, muitas vezes idiossincráticas, no ápice social de uma potência mundial instável. Obviamente seria temerário confiar a essas pessoas a inteligência reificada da humanidade em geral, mas é onde estamos.
Aqui no Reino Unido, gerentes universitários viciados em tecnologia estão atualmente defendendo que professores sobrecarregados recorram à IA generativa para a produção de materiais didáticos. Mais da metade dos alunos de graduação já estão usando a mesma tecnologia para ajudá-los a escrever ensaios, e várias plataformas de IA estão sendo testadas para a automação de marcação. Seguidos até sua conclusão lógica, esses desenvolvimentos equivaleriam a uma redefinição do sistema educacional como um processo de treinamento para modelos de aprendizado de máquina de propriedade privada: alunos, professores, palestrantes, todos convertidos em um tipo de administrador ou técnico terceirizado, tendendo ao aprendizado de uma "inteligência" de caixa preta que não lhes pertence. Dado que não há nenhuma maneira conhecida de impedir que os Grandes Modelos de Linguagem "alucinem" - tecendo inverdades e absurdos em sua produção, de formas que podem ser difíceis de detectar, a menos que a pessoa já tenha feito o trabalho relevante por si mesma - os mantenedores residuais de padrões intelectuais seriam então reduzidos ao papel de fornecer feedback corretivo para bobagens maquínicas.
Onde as pessoas não desempenham essa função, as alucinações se propagarão sem controle. A web — que já foi imaginada, com base no CERN, como uma espécie de comunidade científica idealizada — já está sendo inundada pelas tagarelices dos sistemas estatísticos. Assim como o lixo físico é enviado para o Sul Global para descarte, o efluente digital está sendo despejado nos pobres globais: além dos idiomas com melhores recursos, traduções automáticas de baixa qualidade de conteúdo em inglês de baixa qualidade agora dominam a web. Isso, é claro, corre o risco de envenenar um dos principais poços dos quais os modelos de IA generativa têm bebido até agora, levantando o espectro de um loop degenerativo análogo aos ciclos de proteínas da doença de Creutzfeldt-Jakob — o aprendizado de máquina se transformando em seu oposto.
Os humanos, sem dúvida, serão chamados a corrigir tais tendências, filtrando, corrigindo e estruturando dados de treinamento para os mesmos processos que estão deixando esse rastro de destruição. Mas o educador deve, é claro, ser educado, e com até mesmo o mercado de livros saturado com lixo autogerado, a cultura na qual os futuros educadores aprenderão não pode ser tomada como garantida. Em uma passagem famosa, o jovem Marx argumentou que o processo de autotransformação envolvido no aprendizado real implicava uma transformação radical nas circunstâncias do aprendizado. Se o aprendizado agora corre o risco de ser reduzido a uma verificação de sanidade nas saídas da máquina de outra pessoa, refinando relações de produção que são estruturalmente opostas ao aluno, o primeiro passo em direção à autoeducação terá que envolver uma recusa em participar dessa implementação tecnológica.
Embora a IA conexionista que fundamenta esses desenvolvimentos tenha raízes que antecedem até mesmo o computador eletrônico, sua ascensão é inextricável da dinâmica de um mundo contemporâneo abalado por crises em série. Um sistema educacional que já estava ameaçando entrar em colapso fornece terreno fértil para o cultivo de uma tecnologia perigosa, seja isso motivado pelo desespero, ingenuidade ou cinismo por parte de atores individuais. A assistência médica, onde os riscos imediatos podem ser ainda maiores, é outro domínio que os impulsionadores gostam de apresentar como em linha para uma reformulação baseada em IA. Podemos perceber nesses desenvolvimentos um prenúncio de respostas futuras à emergência climática. Esqueça os cenários apocalípticos padrão vendidos pelos profetas da Inteligência Artificial Geral; eles são uma distração do desastre que já está sobre nós.
O livro recente de Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, é provavelmente a tentativa mais sofisticada até agora de construir uma resposta crítico-teórica a esses desenvolvimentos. Seu título é um tanto impreciso: não há muita história social aqui — não no sentido convencional. De fato, como foi o caso de A People’s History of Computing in the United States (2018), de Joy Lisi Rankin, seria difícil construir tal história para um reino técnico que há muito tempo está amplamente escondido em ambientes acadêmicos e de pesquisa rarefeitos. O social entra aqui por meio de uma reinterpretação teórica da história capitalista centrada nas análises de Babbage e Marx do processo de trabalho, que identifica até mesmo na mecanização e divisão do trabalho do século XIX uma espécie de alienação do intelecto humano. Isso então estabelece a base para um relato da história inicial da IA conexionista. O “olho” do título vincula a automação do reconhecimento de padrões à história da supervisão do trabalho.
Se mal é uma história, o livro é estruturado em torno de algumas descobertas acadêmicas marcantes que merecem atenção séria. É bem sabido que os primeiros esforços de Babbage para automatizar a computação estavam intimamente conectados com uma perspectiva político-econômica sobre a divisão do trabalho. Uma perspectiva mais nova aqui vem do rastreamento de Pasquinelli da noção de Marx do "intelecto geral" para o livro de 1824 do socialista ricardiano William Thompson, An Inquiry into the Principles of the Distribution of Wealth. A teoria do trabalho de Thompson destacou o conhecimento implícito mesmo em tipos relativamente humildes de trabalho - um conhecimento que foi apropriado por máquinas e colocado contra as próprias pessoas de quem havia sido alienado. Isso preparou o cenário para especulações sobre as possíveis consequências econômicas desse acúmulo de tecnologia, como o famoso "fragmento sobre máquinas" de Marx.
Mas a separação de uma suposta "aristocracia trabalhista" dentro do movimento dos trabalhadores tornou qualquer ênfase nos aspectos mais mentais do trabalho perigosa para a coesão. À medida que o projeto do Capital amadureceu, Marx deixou de lado o intelecto geral para o trabalhador coletivo, desvalorizando o conhecimento e o intelecto em favor de um foco na coordenação social. No processo, uma teoria inicial do papel do conhecimento e do intelecto na mecanização foi obscurecida e, portanto, exigiu reconstrução da perspectiva da era do Modelo da Grande Linguagem. A implicação para nós aqui é que a produção capitalista sempre envolveu uma alienação do conhecimento; e a mecanização da inteligência sempre esteve inserida na divisão do trabalho.
Se Pasquinelli parasse por aí, seu livro equivaleria a uma manobra interessante no terreno da marxologia e da história da economia política. Mas esse material fornece o pano de fundo teórico para uma exploração acadêmica das origens das abordagens conexionistas ao aprendizado de máquina, primeiro na neurociência e nas teorias de auto-organização de pensadores cibernéticos como Warren McCulloch, Walter Pitts e Ross Ashby que se formaram no meio da Segunda Guerra Mundial e no pós-guerra imediato, e então no surgimento do final dos anos 50, no Laboratório Aeronáutico de Cornell, do "perceptron" de Frank Rosenblatt — o ancestral direto mais antigo dos modelos contemporâneos de aprendizado de máquina. Entre os recursos intelectuais que alimentaram o desenvolvimento do perceptron estavam uma controvérsia entre os cibernéticos e psicólogos da Gestalt sobre a questão da percepção da Gestalt ou reconhecimento de padrões; a teoria conexionista da mente de Hayek — que ele começou a desenvolver em um período pouco relatado como assistente de laboratório do neuropatologista Constantin Monakow, e que era paralela às suas crenças econômicas; e métodos de vetorização que surgiram da estatística e da psicometria, com seus profundos vínculos históricos com o movimento eugênico. A última conexão tem ressonâncias marcantes no contexto de preocupações muito divulgadas sobre preconceitos raciais e outros na IA contemporânea.
A força incomum de Pasquinelli aqui reside na combinação de uma capacidade de elaborar os detalhes dos desenvolvimentos técnicos e intelectuais na história inicial da IA com uma aspiração em direção à construção de uma teoria social mais ampla. Menos bem desenvolvida é sua tentativa de vincular o perceptron e tudo o que se seguiu dele à divisão do trabalho, por meio de uma ênfase na automação não da inteligência em geral, mas da percepção – vinculando isso ao trabalho de supervisão da produção. Mas ele ainda pode ter razão no nível mais abstrato, ao tentar fundamentar a inteligência alienada que atualmente está abrindo caminho por meio da mídia digital, sistemas educacionais, assistência médica e assim por diante, em uma história mais profunda da expropriação maquínica de uma intelectualidade que estava anteriormente inserida em processos de trabalho dos quais o trabalho mental era um aspecto inextricável.
A principal diferença com a onda atual, talvez, seja o status social e cultural dos objetos de automação. Onde antes era a mentalidade do trabalho manual que se encontrava incorporada em novos dispositivos, em um contexto de estratificações onde a intelectualidade de tais reinos era negada, nos modelos atuais de aprendizado de máquina é o discurso humano per se que é objetificado na maquinaria. Se a política da maquinaria nunca foi neutra, o nível de generalidade que a mecanização está alcançando agora deveria estar soando alarmes em todos os lugares: essas coisas não podem ser confiadas com segurança a um grupo restrito de corporações e elites técnicas. Enquanto forem, essas ferramentas — por mais mágicas que pareçam — serão nossas inimigas, e encontrar alternativas aos caminhos dominantes do desenvolvimento técnico será uma questão urgente.
Nenhum comentário:
Postar um comentário