Tradução / Os modelos como o ChatGPT, à medida que ganham espaço e se estabelecem no âmbito da comunicação, revelam um horizonte de consequências iminentes - levando a uma maior intensificação do trabalho e empobrecimento cultural.
No remoto estado norte-americano de Washington, Estados Unidos, a cerca de 250 quilômetros a leste de Seattle, encontra-se a represa Grand Coulee, que atravessa o estreito vale rochoso do rio Columbia. Desde 1942, o rio cai 168 metros sobre as turbinas, gerando até 7 gigawatts de energia elétrica, o que faz dessa usina hidrelétrica a maior produtora de eletricidade dos EUA.
A barragem foi encomendada em 1933 como um dos principais projetos de construção da Works Progress Administration, uma obra monumental do New Deal. O cantor folk Woody Guthrie, contratado para produzir um álbum completo sobre a barragem, elogiou-a como a oitava maravilha do mundo. A alguns quilômetros rio abaixo, em Quincy, Washington, está surgindo outro grande projeto de engenharia que está chamando a atenção mundial. Aqui, a empresa OpenAI treina modelos matemáticos em um centro de dados, onde alguns veem os lampejos de uma consciência artificial brilhando.
O ChatGPT e o modelo de IA subjacente GPT3.5 fizeram seu nome no ano passado, mas com o lançamento do sucessor GPT4 em março deste ano, alguns observadores parecem ter cruzado o limiar em direção à inteligência artificial semelhante à humana.
A localização do centro de dados no rio Columbia não é por acaso: em Quincy, próximo à maior usina de energia dos EUA, a eletricidade custa apenas 3 centavos por quilowatt-hora. As dezenas de milhares de placas gráficas da OpenAI consomem grandes quantidades dela. Assim como no boom criptográfico dos últimos anos, que agora diminuiu, a última geração de algoritmos de IA consome quantidades gigantescas de energia.
A demanda por um único experimento pode chegar à casa dos gigawatts-hora — e geralmente, para o desenvolvimento de um novo modelo, inúmeros testes são realizados. Por trás do ChatGPT, há uma quantidade imensa de recursos — e um investimento de 10 bilhões de dólares americanos, realizado pela Big Tech Microsoft na OpenAI, cujos fundadores incluem Elon Musk e o investidor de tecnologia ultradireitista Peter Thiel.
Os avanços da disciplina nos últimos meses têm levado a diagnósticos apocalípticos e extáticos dos tempos atuais. Ezra Klein afirma no New York Times que a inteligência artificial vai “mudar tudo”. Estamos acostumados a que o futuro imediato seja como o passado imediato — mas as últimas descobertas colocam isso em dúvida.
Klein não se limita a alertar apenas para o possível desemprego em massa dos trabalhadores de escritório — ele leva a sério os avisos de que a humanidade pode criar uma entidade que está tão à nossa frente cognitivamente que domina o mundo.
No entanto, a pressão competitiva implacável entre as empresas de tecnologia — e a rivalidade do sistema com a China — limita nossa capacidade de frear esse desenvolvimento, afirma ele. Muitos jornalistas, publicitários e outros trabalhadores do setor de texto e cultura estão preocupados com seus empregos, dadas as habilidades dos novos modelos de IA.
Pesquisa privatizada
Os desenvolvedores comerciais de IA costumam usar material disponível gratuitamente na Internet para o pré-treinamento de modelos, que contém criatividade e mão de obra humanas — e que podem ser protegidos por direitos autorais.
Operadores e defensores de serviços baseados em IA costumam argumentar que a produção criativa das pessoas também se baseia em produtos culturais que elas consumiram em suas vidas. O copyright é uma construção legal e não uma abstração filosófica, pois protege os feitos dos cérebros humanos na síntese de novos trabalhos e não das máquinas. No entanto, os lobistas pela IA gostariam de mudar isso.
Após o pré-treinamento, outro conjunto de dados de perguntas de exemplo e as respostas correspondentes ajudam em uma segunda etapa para ajustar o modelo às necessidades dos usuários humanos. Para a criação de tais dados “marcados à mão” para aprendizagem “supervisionada”, as pessoas, especialmente no Sul Global, são frequentemente empregadas com salários e condições de trabalho miseráveis.
Em uma vida anterior, com outro nome, já fui um pesquisador de IA. Para ser mais preciso, trabalhei por vários anos como cientista em um instituto de processamento de linguagem natural, o ramo da ciência da computação que lida com o processamento mecânico da linguagem “natural”, ou seja, humana. Entre outras coisas, desenvolvemos modelos de linguagem estatística, que é a tecnologia subjacente do GPT4. Como parceiros de conversa, em muitos casos eles parecem entender o que lhes pedimos e exibem uma incrível variedade de habilidades. Quando deixei a disciplina na primavera de 2018, nunca sonhamos com algo como o GPT4.
Minha principal motivação para deixar a pesquisa em IA foi o fato de que se tornou evidente que, para estar no topo da carreira, era preciso trabalhar para uma grande empresa ou para uma empresa em fase de arranque com um financiamento muito generoso, como a OpenAI. Isso não quer dizer que eu fosse particularmente bom no meu trabalho — muitos dos meus colegas do nosso instituto eram investigadores mais criativos e trabalhadores. Mas o mercado de trabalho estava vazio, então eu também poderia ter escolhido uma empresa tecnológica para trabalhar. No entanto, mudar-me para Seattle ou San Jose, trabalhando 80 horas por semana e vivendo em uma bolha de tecno-otimistas apolíticos, parecia menos desejável, e as oportunidades de pesquisa no setor público eram cada vez mais limitadas.
Em vez das dezenas de milhares de placas gráficas em que a OpenAI calcula, só tínhamos cerca de vinte dispositivos disponíveis no nosso instituto — cerca de dois por cada assistente de pesquisa. Otto Hahn e Lise Meitner ainda dividiam os primeiros átomos em suas mesas; hoje, as fronteiras da física de partículas só podem ser exploradas em um dos poucos aceleradores à escala quilométrica que existem no mundo. Mas, pelo menos, essas são instituições públicas de pesquisa que trabalham no interesse público e documentam seus resultados de forma transparente.
A pesquisa de ponta sobre inteligência artificial, por outro lado, é quase totalmente privatizada e cada vez menos resultados estão sendo divulgados. A documentação científica pública sobre o GPT4 é pouco mais do que um folheto promocional — os parâmetros de design fundamentais não são mencionados, ostensivamente por razões de segurança. Devemos simplesmente acreditar nas declarações da empresa de que estão trabalhando em inteligência artificial “amigável” no interesse da sociedade como um todo.
Um dos objetivos é garantir que os modelos se comportem pró-socialmente, identificando dezenas de milhares de exemplos de “mau” comportamento – sexismo, racismo, ódio, violência – por um exército de trabalhadores humanitários em países em desenvolvimento, para que a produção dos modelos de linguagem seja automaticamente filtrada de acordo e a reputação de seus construtores possa ser protegida. Além do salário miserável, os funcionários também reclamam do enorme estresse psicológico causado pelo trabalho. Ainda há muito trabalho humano e julgamento humano na inteligência “artificial”. As instituições públicas de pesquisa de IA, que estão sendo cada vez mais relegadas a centros de treinamento para a indústria, também não podem mais pagar por esses serviços.
Nenhuma máquina pensante a vista
Há uma razão para a enorme concentração de capital na pesquisa de IA: o GPT4 parece dominar sem esforço a comunicação escrita formalizada. Textos para os quais já viu exemplos suficientes — uma crítica de restaurante, uma carta de demissão, um soneto, uma carta de amor — pode não apenas reproduzir perfeitamente, mas também adaptar o estilo e o conteúdo aos nossos desejos sem problemas. Isso também se aplica a textos estruturados, como código de programa ou provas matemáticas simples a moderadamente difíceis.
Por outro lado, os grandes modelos de linguagem de última geração têm uma qualidade quase lúdica. Em palavras e imagens, eles dominam a paródia quase perfeitamente. Claro, mesmo a última geração de modelos de linguagem comete erros e muitas vezes falha em tarefas surpreendentemente simples. Não se deve alimentar o hype sobre eles de forma acrítica. Contudo, não há como negar que ocorreu um verdadeiro avanço científico aqui.
As habilidades humanas do ChatGPT, Dalle ou Midjourney significam que eles também possuem consciência humana? Em sua forma atual, certamente não é esse o caso. Os modelos generativos por trás desses serviços são imutáveis — uma vez treinados, seus parâmetros permanecem fixos. Eles resolvem cada nova tarefa com base no mesmo conhecimento prévio.
Semelhante a Leonard Shelby em “Memento”, o GPT4 só pode “lembrar” o passado imediato — ao resolver problemas mais complexos, ele deve deixar para si pistas escritas sobre o que aconteceu antes. Além disso, o modelo nunca fica mais inteligente com suas experiências, o próprio processo de aprendizado é limitado à fase de treinamento do modelo e é completo.
Apesar de nosso desejo de antropomorfizar modelos generativos de IA, o GPT4 ainda é claramente uma máquina de aprendizado, não uma máquina de pensamento, que certamente é incapaz de buscar a dominação mundial. Também deve nos deixar desconfiados que — como Brian Merchant aponta com razão — os maiores defensores e beneficiários da pesquisa de IA são os que mais alertam sobre seu perigo supostamente incontrolável.
É também uma jogada de marketing. Em particular, o “altruísmo eficaz” (no original, effective altruism) está se tornando cada vez mais um culto em torno da máquina pensante. O blog libertário Less Wrong chegou ao ponto de solicitar aos futuros sistemas de IA que se abstenham de acabar com a humanidade. O respeito por seus construtores e pelos livres mercados e direitos de propriedade, que os teriam tornado possíveis, é claro, é do interesse racional de tais entidades supostamente categoricamente superiores.
No remoto estado norte-americano de Washington, Estados Unidos, a cerca de 250 quilômetros a leste de Seattle, encontra-se a represa Grand Coulee, que atravessa o estreito vale rochoso do rio Columbia. Desde 1942, o rio cai 168 metros sobre as turbinas, gerando até 7 gigawatts de energia elétrica, o que faz dessa usina hidrelétrica a maior produtora de eletricidade dos EUA.
A barragem foi encomendada em 1933 como um dos principais projetos de construção da Works Progress Administration, uma obra monumental do New Deal. O cantor folk Woody Guthrie, contratado para produzir um álbum completo sobre a barragem, elogiou-a como a oitava maravilha do mundo. A alguns quilômetros rio abaixo, em Quincy, Washington, está surgindo outro grande projeto de engenharia que está chamando a atenção mundial. Aqui, a empresa OpenAI treina modelos matemáticos em um centro de dados, onde alguns veem os lampejos de uma consciência artificial brilhando.
O ChatGPT e o modelo de IA subjacente GPT3.5 fizeram seu nome no ano passado, mas com o lançamento do sucessor GPT4 em março deste ano, alguns observadores parecem ter cruzado o limiar em direção à inteligência artificial semelhante à humana.
A localização do centro de dados no rio Columbia não é por acaso: em Quincy, próximo à maior usina de energia dos EUA, a eletricidade custa apenas 3 centavos por quilowatt-hora. As dezenas de milhares de placas gráficas da OpenAI consomem grandes quantidades dela. Assim como no boom criptográfico dos últimos anos, que agora diminuiu, a última geração de algoritmos de IA consome quantidades gigantescas de energia.
A demanda por um único experimento pode chegar à casa dos gigawatts-hora — e geralmente, para o desenvolvimento de um novo modelo, inúmeros testes são realizados. Por trás do ChatGPT, há uma quantidade imensa de recursos — e um investimento de 10 bilhões de dólares americanos, realizado pela Big Tech Microsoft na OpenAI, cujos fundadores incluem Elon Musk e o investidor de tecnologia ultradireitista Peter Thiel.
Os avanços da disciplina nos últimos meses têm levado a diagnósticos apocalípticos e extáticos dos tempos atuais. Ezra Klein afirma no New York Times que a inteligência artificial vai “mudar tudo”. Estamos acostumados a que o futuro imediato seja como o passado imediato — mas as últimas descobertas colocam isso em dúvida.
Klein não se limita a alertar apenas para o possível desemprego em massa dos trabalhadores de escritório — ele leva a sério os avisos de que a humanidade pode criar uma entidade que está tão à nossa frente cognitivamente que domina o mundo.
No entanto, a pressão competitiva implacável entre as empresas de tecnologia — e a rivalidade do sistema com a China — limita nossa capacidade de frear esse desenvolvimento, afirma ele. Muitos jornalistas, publicitários e outros trabalhadores do setor de texto e cultura estão preocupados com seus empregos, dadas as habilidades dos novos modelos de IA.
Pesquisa privatizada
Os desenvolvedores comerciais de IA costumam usar material disponível gratuitamente na Internet para o pré-treinamento de modelos, que contém criatividade e mão de obra humanas — e que podem ser protegidos por direitos autorais.
Operadores e defensores de serviços baseados em IA costumam argumentar que a produção criativa das pessoas também se baseia em produtos culturais que elas consumiram em suas vidas. O copyright é uma construção legal e não uma abstração filosófica, pois protege os feitos dos cérebros humanos na síntese de novos trabalhos e não das máquinas. No entanto, os lobistas pela IA gostariam de mudar isso.
Após o pré-treinamento, outro conjunto de dados de perguntas de exemplo e as respostas correspondentes ajudam em uma segunda etapa para ajustar o modelo às necessidades dos usuários humanos. Para a criação de tais dados “marcados à mão” para aprendizagem “supervisionada”, as pessoas, especialmente no Sul Global, são frequentemente empregadas com salários e condições de trabalho miseráveis.
Em uma vida anterior, com outro nome, já fui um pesquisador de IA. Para ser mais preciso, trabalhei por vários anos como cientista em um instituto de processamento de linguagem natural, o ramo da ciência da computação que lida com o processamento mecânico da linguagem “natural”, ou seja, humana. Entre outras coisas, desenvolvemos modelos de linguagem estatística, que é a tecnologia subjacente do GPT4. Como parceiros de conversa, em muitos casos eles parecem entender o que lhes pedimos e exibem uma incrível variedade de habilidades. Quando deixei a disciplina na primavera de 2018, nunca sonhamos com algo como o GPT4.
Minha principal motivação para deixar a pesquisa em IA foi o fato de que se tornou evidente que, para estar no topo da carreira, era preciso trabalhar para uma grande empresa ou para uma empresa em fase de arranque com um financiamento muito generoso, como a OpenAI. Isso não quer dizer que eu fosse particularmente bom no meu trabalho — muitos dos meus colegas do nosso instituto eram investigadores mais criativos e trabalhadores. Mas o mercado de trabalho estava vazio, então eu também poderia ter escolhido uma empresa tecnológica para trabalhar. No entanto, mudar-me para Seattle ou San Jose, trabalhando 80 horas por semana e vivendo em uma bolha de tecno-otimistas apolíticos, parecia menos desejável, e as oportunidades de pesquisa no setor público eram cada vez mais limitadas.
Em vez das dezenas de milhares de placas gráficas em que a OpenAI calcula, só tínhamos cerca de vinte dispositivos disponíveis no nosso instituto — cerca de dois por cada assistente de pesquisa. Otto Hahn e Lise Meitner ainda dividiam os primeiros átomos em suas mesas; hoje, as fronteiras da física de partículas só podem ser exploradas em um dos poucos aceleradores à escala quilométrica que existem no mundo. Mas, pelo menos, essas são instituições públicas de pesquisa que trabalham no interesse público e documentam seus resultados de forma transparente.
A pesquisa de ponta sobre inteligência artificial, por outro lado, é quase totalmente privatizada e cada vez menos resultados estão sendo divulgados. A documentação científica pública sobre o GPT4 é pouco mais do que um folheto promocional — os parâmetros de design fundamentais não são mencionados, ostensivamente por razões de segurança. Devemos simplesmente acreditar nas declarações da empresa de que estão trabalhando em inteligência artificial “amigável” no interesse da sociedade como um todo.
Um dos objetivos é garantir que os modelos se comportem pró-socialmente, identificando dezenas de milhares de exemplos de “mau” comportamento – sexismo, racismo, ódio, violência – por um exército de trabalhadores humanitários em países em desenvolvimento, para que a produção dos modelos de linguagem seja automaticamente filtrada de acordo e a reputação de seus construtores possa ser protegida. Além do salário miserável, os funcionários também reclamam do enorme estresse psicológico causado pelo trabalho. Ainda há muito trabalho humano e julgamento humano na inteligência “artificial”. As instituições públicas de pesquisa de IA, que estão sendo cada vez mais relegadas a centros de treinamento para a indústria, também não podem mais pagar por esses serviços.
Nenhuma máquina pensante a vista
Há uma razão para a enorme concentração de capital na pesquisa de IA: o GPT4 parece dominar sem esforço a comunicação escrita formalizada. Textos para os quais já viu exemplos suficientes — uma crítica de restaurante, uma carta de demissão, um soneto, uma carta de amor — pode não apenas reproduzir perfeitamente, mas também adaptar o estilo e o conteúdo aos nossos desejos sem problemas. Isso também se aplica a textos estruturados, como código de programa ou provas matemáticas simples a moderadamente difíceis.
Por outro lado, os grandes modelos de linguagem de última geração têm uma qualidade quase lúdica. Em palavras e imagens, eles dominam a paródia quase perfeitamente. Claro, mesmo a última geração de modelos de linguagem comete erros e muitas vezes falha em tarefas surpreendentemente simples. Não se deve alimentar o hype sobre eles de forma acrítica. Contudo, não há como negar que ocorreu um verdadeiro avanço científico aqui.
As habilidades humanas do ChatGPT, Dalle ou Midjourney significam que eles também possuem consciência humana? Em sua forma atual, certamente não é esse o caso. Os modelos generativos por trás desses serviços são imutáveis — uma vez treinados, seus parâmetros permanecem fixos. Eles resolvem cada nova tarefa com base no mesmo conhecimento prévio.
Semelhante a Leonard Shelby em “Memento”, o GPT4 só pode “lembrar” o passado imediato — ao resolver problemas mais complexos, ele deve deixar para si pistas escritas sobre o que aconteceu antes. Além disso, o modelo nunca fica mais inteligente com suas experiências, o próprio processo de aprendizado é limitado à fase de treinamento do modelo e é completo.
Apesar de nosso desejo de antropomorfizar modelos generativos de IA, o GPT4 ainda é claramente uma máquina de aprendizado, não uma máquina de pensamento, que certamente é incapaz de buscar a dominação mundial. Também deve nos deixar desconfiados que — como Brian Merchant aponta com razão — os maiores defensores e beneficiários da pesquisa de IA são os que mais alertam sobre seu perigo supostamente incontrolável.
É também uma jogada de marketing. Em particular, o “altruísmo eficaz” (no original, effective altruism) está se tornando cada vez mais um culto em torno da máquina pensante. O blog libertário Less Wrong chegou ao ponto de solicitar aos futuros sistemas de IA que se abstenham de acabar com a humanidade. O respeito por seus construtores e pelos livres mercados e direitos de propriedade, que os teriam tornado possíveis, é claro, é do interesse racional de tais entidades supostamente categoricamente superiores.
Futuros modelos de linguagem grandes podem ser capazes de alterar permanentemente e sobrescrever seus próprios parâmetros. Isso os aproximaria dos requisitos para a consciência artificial. Mas tal modelo seria muito mais complexo de construir e prever seu comportamento seria mais difícil.
Talvez descubramos que tal modelo, cujos parâmetros não são congelados ao interagir com o mundo, precisa de descanso e sono, semelhante ao nosso cérebro, para não decair na decorrência matemática. Talvez ele fique entediado no trabalho, talvez sonhe — ou tenha que sonhar — para pensar. Também é possível que a própria matemática imponha limites às realizações de uma consciência tão artificial — pode ser o caso, por exemplo, que o desempenho cognitivo que cada neurônio adicional possibilita está diminuindo cada vez mais.
Em algum ponto, seria atingido um limite a partir do qual dificilmente seriam possíveis ganhos de desempenho — pode estar no nível do gênio humano, ou significativamente acima dele, ou mesmo não existir — não sabemos. Talvez a evolução não nos tenha dado um cérebro maior e mais complexo porque não seríamos capazes de fornecer nutrientes suficientes de outra forma, mas também pode ser porque simplesmente não seria particularmente útil.
Não está claro que nossas vidas e nossa sociedade serão dominadas por máquinas super-humanas no futuro. Pode ser porque não conseguiríamos fornecer nutrientes suficientes, mas também porque simplesmente não seria particularmente útil. Não está claro que nossas vidas e nossa sociedade serão dominadas por máquinas super-humanas no futuro. Pode ser porque não conseguiríamos fornecer nutrientes suficientes, mas também porque simplesmente não seria particularmente útil. Não está claro que nossas vidas e nossa sociedade serão dominadas por máquinas super-humanas no futuro. Pode ser porque não conseguiríamos fornecer nutrientes suficientes, mas também porque simplesmente não seria particularmente útil.
Compreensão e desvalorização
Isso não muda o fato de que o GPT4 é surpreendentemente bom em imitar o processamento de informações humanas. Claro, isso arranha o ego da classe de especialistas humanos a quem foi confiada. Em última análise, no entanto, isso diz menos sobre qual grupo ocupacional realiza atividades particularmente exigentes, mas sobre como nossa sociedade atribui valor ao trabalho humano.
Para muitas das tarefas que você executa em um trabalho de escritório, você não precisa nem de consciência nem de inteligência especial. Um radiologista ou um advogado atribui uma situação geral a um determinado padrão e, em seguida, seleciona uma opção adequada entre um número limitado de soluções possíveis.
Essas atividades são exigentes e honradas, mas não necessariamente diferentes das ocupações manuais, que exigem muita sensibilidade e observação precisa. Um carpinteiro ou um soprador de vidro trazem o mesmo conhecimento tácito e julgamento para seu trabalho. O fato de darmos menos prestígio às suas áreas profissionais se deve à estrutura de classes de nossa sociedade, não ao nível de abstração exigido. Carpinteiros e sopradores de vidro têm poder sobre as coisas.
Na compreensão marxista da história, é da natureza do capitalismo desenvolver constantemente as forças produtivas. Os capitalistas tentam se reduzir por meio do uso de tecnologias de automação, resultando em ganhos constantes de produtividade. Durante a vida de Marx, isso afetou principalmente a produção industrial de bens, mas nos últimos dois séculos essa dinâmica mudou radicalmente. Muitos observadores agora veem um desenvolvimento semelhante chegando ao setor de serviços. O pressuposto subjacente é que tanto as atividades administrativas quanto a produção cultural seguem a mesma lógica econômica, mas há dúvidas legítimas sobre isso.
Em primeiro lugar, não é de forma alguma que os serviços tenham até agora sido isentos de automação. Durante décadas, não pensamos em comprar um ingresso ou uma xícara de café de uma máquina em vez de um humano. Isso não mudou a dinâmica fundamental de que a automação no setor de serviços está ocorrendo mais lentamente do que na indústria. Por um lado, isso aumenta a participação dos serviços na produção econômica total. A desvantagem desse desenvolvimento é que os serviços, em relação aos bens, estão se tornando cada vez mais caros, um fenômeno conhecido na economia como a doença do custo de Baumol.
Este problema é particularmente drástico quando os serviços essenciais são deixados para o mercado, como no sistema de saúde, cuidados e apoio nos EUA, que, assim como o ensino universitário no país, é amplamente baseado no mercado. Apesar da recente dinâmica inflacionária, as famílias americanas têm acesso a bens significativamente mais baratos do que as gerações anteriores.
No entanto, os custos com cuidados infantis e de saúde se tornaram tão elevados que o país está à beira de uma crise dramática na reprodução social: muitos americanos simplesmente não têm mais condições de constituir família, e a expectativa de vida está diminuindo a cada ano. Empresas privam o mercado da prestação de serviços essenciais.
A maioria dos empregos que parecem estar diretamente ameaçados pela inteligência artificial não está no setor de assistência, que é socialmente essencial. As atividades administrativas de escritório parecem ser diretamente afetadas. Esse setor também teve enormes aumentos de produtividade nas últimas décadas, devido à digitalização, sem que sua participação geral na produção econômica diminuísse. Muitas empresas e agências governamentais dedicam mais recursos, se disponíveis, a tarefas administrativas e de gerenciamento do que décadas atrás.
Uma possível explicação para esse fenômeno — que pode parecer contra-intuitivo à primeira vista — é fornecida pelas hipóteses de David Graeber sobre “bullshit jobs” (empregos de merda). O fato de que as atividades administrativas potencialmente consomem ainda mais recursos à medida que a produtividade aumenta pode ser porque muitas vezes são uma forma de consumo de status institucional ou porque as atividades são necessárias para as atividades de outros atores institucionais.
Por exemplo, uma empresa pode ter um departamento de Sustentabilidade e Diversidade para mostrar que possui um, mas não necessariamente com a intenção séria de mudar suas práticas de negócios. Por outro lado, um grande departamento jurídico é necessário para lidar com atividades legais de outras grandes empresas.
O efeito cumulativo desses incentivos institucionais é que os aparatos administrativos — e as camadas administrativas instruídas que trabalham neles — continuam a crescer à medida que a produtividade aumenta. A internet só acentuou esse crescimento, com um número sucessivo de e-mails sendo enviados em comparação com cartas comerciais. Por que isso deveria mudar no futuro, quando os e-mails podem ser gerados automaticamente em questão de segundos?
Para os funcionários, isso significa principalmente que as demandas de desempenho aumentarão sem nenhum benefício social adicional resultante disso, o que pode levar ao esgotamento e crises de significado na classe média. Pode-se esperar um volume de produção para escriturários, redatores e tradutores que dificilmente lhes permitirá revisar adequadamente o conteúdo gerado por algoritmos — eles ainda serão pessoalmente responsabilizados por quaisquer erros e deficiências qualitativas.
No futuro, o GPT4 e seus sucessores certamente contribuirão para nos informar e nos divertir de forma quase gratuita. No entanto, precisamente por isso, seus efeitos na sociedade serão menos revolucionários do que imaginam os entusiastas e os pessimistas: a era da reprodutibilidade praticamente ilimitada dos produtos culturais já dura mais de um século.
Já estamos sendo informados e entretidos de forma incrivelmente barata — pelo menos enquanto estivermos satisfeitos em sermos apresentados a formas ligeiramente modificadas de narrativas e tropos humorísticos já existentes — o que é bastante deprimente. Não devemos buscar a responsabilidade por isso em nossas falhas individuais como consumidores de mídia, mas sim perguntar quais circunstâncias sociais nos levam a nos contentar com conteúdo irrelevante, que não faz diferença se foi gerado por algoritmos ou não. Os modelos de linguagem reproduzem informações e, no máximo, sintetizam novas conclusões com base no conhecimento já existente.
Portanto, eles só são capazes de retratar repetidamente a mesma imagem do nosso mundo. Se um sem-teto morrer congelado ou se um barco com refugiados afundar sem que ninguém registre a cena, nenhum modelo de IA nos informará sobre isso no futuro — como ele teria acesso a esses fatos? Certamente não seremos mais bem informados pela IA generativa.
A ilusão do cuidado com a máquina
Cuidar de seres humanos definitivamente não faz parte das capacidades dos modelos de IA. Professores e educadores de jardim de infância não correm o risco de serem substituídos por robôs e modelos porque os computadores não podem cantar, empilhar blocos de construção ou encontrar erros ortográficos. Os robôs não são capazes de educar crianças.
As crianças precisam de modelos que possam imitar, contra os quais possam se rebelar e entender o funcionamento interno de modelos humanos com as mesmas falhas, fraquezas e sentimentos que eles, para que possam gradualmente explorar e amadurecer em suas próprias personalidades desenvolvidas.
O mesmo se aplica ao restante do setor de cuidados: à medida que envelhecemos, talvez possamos imaginar sermos ajudados a ir para a cama por um robô. No entanto, essa máquina só nos protegerá da solidão se nossas habilidades mentais diminuírem a ponto de realmente confundi-la com um ser humano. Não podemos comprar amor, amizade e afeto, e nenhum estado de bem-estar, por mais abrangente que seja, pode nos concedê-los como direitos.
Mas a sociedade ainda pode garantir que alguém cuide de nós quando precisarmos de ajuda ou atenção. No entanto, só poderá garantir atendimento humano a todos os seus membros se retirar sua provisão do mercado, caso contrário, a lei de ferro de Baumol garantirá que continue sendo privilégio de uma pequena minoria.
Dadas as circunstâncias, a inteligência artificial tem o potencial de piorar o trabalho diário de milhões de pessoas em cargos administrativos e no setor cultural, em vez de tornar nossa sociedade materialmente mais rica. Ela tem pouco a contribuir para resolver tarefas essenciais para a sociedade como um todo, como um setor assistencial adequado aos desafios da mudança demográfica.
Isso não é necessariamente culpa dos pesquisadores de IA, mas mais uma vez mostra que não devemos deixar o desenvolvimento da inteligência artificial para o setor privado, e certamente não para startups opacas como as de Elon Musk e Peter Thiel. Certamente existem casos individuais em que a inteligência artificial generativa já está ajudando as pessoas hoje. Por exemplo, o ChatGPT permitiu que um jardineiro com habilidades limitadas de escrita se comunicasse profissionalmente com seus clientes.
Superar as barreiras habituais de entrada talvez seja um dos poucos efeitos claramente positivos da tecnologia. No entanto, não se espera uma revolução econômica na produtividade — o jardineiro continua sendo um jardineiro — nem que os preconceitos sociais desapareçam muito rapidamente. Uma sociedade que desconsidera e marginaliza pessoas com baixo nível de educação formal encontrará maneiras de fazê-lo, mesmo que possam enviar e-mails comerciais sofisticados. Cientistas e profissionais técnicos tendem a superestimar o impacto social positivo das inovações que criam. É comum diagnosticar erroneamente desigualdades de poder e o uso da violência como déficits de informação.
Como um jovem pesquisador de IA, um tanto esquerdista, mas também ingênuo, imaginei que meu trabalho no campo da tradução automática poderia ajudar a quebrar o domínio das fontes de informação ocidentais e promover a compreensão internacional. Eu deveria ter pensado melhor: quase ninguém na Alemanha lê a mídia da Suíça ou da Áustria — não porque não as entendamos, mas porque a política de nossos países vizinhos dificilmente nos afeta materialmente.
O autor, seu amigo
“Acabou, né?”, comentou a conta @heartereum no Twitter em janeiro, em resposta a várias imagens de mulheres em biquínis geradas por um modelo de IA. Logo, a pornografia softcore poderá prescindir de atores humanos. Vários outros usuários zombaram da postagem, incluindo os resultados grotescos de tentativas algorítmicas fracassadas de criar imagens semelhantes.
Acima de tudo, as atrizes que atuam no portal OnlyFans, onde comercializam conteúdo pornográfico diretamente para outros usuários, desmentiram prontamente a afirmação. Claro, a internet está cheia de imagens sexualizadas do corpo humano há décadas — a maioria delas acessíveis gratuitamente. Mesmo o gerador de imagens de IA mais sofisticado não mudaria isso.
As atrizes — em sua maioria mulheres — enfatizaram que seus seguidores, é claro, não enviariam dinheiro para receber fotos nuas intercambiáveis que já estão disponíveis aos milhões. OnlyFans funciona como um modelo de negócios porque elas estão em constante contato pessoal com seus “fãs” — o que é verdade.
Seja por solidão ou por desejo de transgressão, as pessoas – em sua maioria homens – pagam na plataforma pela troca pessoal com as modelos. Obviamente, não se trata apenas do fornecimento de material pornográfico, mas da relação parassocial associada e da ilusão de atenção sexual. É uma forma de prostituição digitalizada que é puramente transacional, mas tudo menos anônima.
Talvez as atrizes do OnlyFans, com sua discordância vociferante à afirmação de que “acabou” para elas, estivessem entre as primeiras a diagnosticar para onde a indústria cultural está indo, dada a proliferação gradativa de conteúdo intercambiável e gratuito — seja algoritmicamente gerado ou simplesmente montado descuidadamente — que se desenvolverá.
Quando não forem mais necessariamente pessoas com talentos especiais que fazem nossos produtos culturais, provavelmente desenvolveremos um desejo de querer saber mais sobre as pessoas que fazem.
Uma maneira pela qual os trabalhadores culturais poderiam reagir à inundação de conteúdo induzida por algoritmos seria personalizar e aprofundar cada vez mais seu relacionamento com os consumidores de seus produtos. Plataformas como Patreon, Substack e OnlyFans são pioneiras nesse desenvolvimento. O que essas plataformas têm em comum é que elas retiram os trabalhos culturais, jornalísticos, até mesmo pornográficos, de um contexto institucional ou comercial tradicional e os transformam em empreendimentos de empreendedores individuais de conteúdo.
Isso certamente pode resultar em uma nova liberdade criativa ou na oportunidade de escapar de estruturas exploradoras, mas as desvantagens potenciais para os trabalhadores culturais são evidentes. A possibilidade de se autopromover e desenvolver um relacionamento parassocial com o público pode rapidamente se tornar uma compulsão econômica.
Há uma diferença entre responder a uma carta ao editor como editor e estar em contato com seus patrocinadores 24 horas por dia, através de mensagens diretas, como criador de conteúdo. O risco de os usuários ultrapassarem os limites implícitos nessa relação parassocial recai sobre os produtores individuais.
Muito antes dos modelos algorítmicos de Quincy, Washington, serem capazes de criar rimas satíricas hilárias no estilo de Jan Böhmermann ou Monty Python para nós, os surrealistas tentaram banir o artista como um elemento subjetivo do processo criativo. Por exemplo, em sua pintura intitulada “O Planeta Confuso”, Max Ernst utilizou uma lata de tinta com um buraco pendurado em um barbante para criar elipses aleatórias na tela — imperturbáveis e regulares na parte esquerda da imagem, perturbadas e caóticas na parte direita.
Ernst conscientemente deixou a decisão de encontrar a forma exata para a oscilação desse pêndulo, ou seja, a imponderabilidade de sistemas físicos complexos — um processo aleatório, como diriam os cientistas da computação. Nem todos os companheiros de Ernst seguiram esse caminho técnico; alguns tentaram se afastar e se tornar indivíduos criativos em segundo plano. Não é surpreendente que suas imagens tenham perdido muito de seu impacto na era da criação de conteúdo digital.
No entanto, é claro que os surrealistas, assim como seus predecessores e sucessores, ficariam ofendidos se a produção de bens culturais fosse completamente automatizada durante suas vidas. E talvez a arte quase totalmente automatizada em condições de mercado não leve ao desaparecimento de artistas e trabalhadores culturais, mas sim a uma intensificação da personalização do setor cultural e a uma expectativa de autoexposição parassocial.
Os trabalhadores culturais seriam então forçados a escolher entre dois caminhos de carreira pouco atraentes: produzir conteúdo intercambiável como supervisores de uma máquina de conteúdo cada vez mais automatizada ou se comercializar como indivíduos. Esse desenvolvimento já pode ser observado em grande parte do setor cultural — o uso de inteligência artificial generativa pode se tornar um acelerador de tendências pré-existentes.
Em certas áreas da produção cultural, como o hip-hop, artistas carismáticos que não podem ser separados de seu trabalho já são a norma, e os efeitos dificilmente serão sentidos aqui. No entanto, outras áreas, que mantiveram uma separação relativamente disciplinada entre autor e obra até recentemente, podem enfrentar uma reviravolta drástica.
Na literatura, em particular, um dos méritos do pós-modernismo é ter libertado a obra do domínio tirânico do autor. No futuro, no entanto, essa recepção de obras literárias pode entrar em conflito com a compulsão dos autores de se comercializarem e se apresentarem.
Colaborador
Alexander Brentler é editor da Jacobin.
Nenhum comentário:
Postar um comentário