17 de dezembro de 2025

Rei da Ilha Canibal: Será que a bolha da IA ​​vai estourar?

As ações da Nvidia são a aposta mais pura que você pode fazer no impacto da IA. As empresas líderes estão emprestando dinheiro umas às outras em padrões circulares, sustentando o faturamento e as avaliações. Quantidades colossais de dinheiro estão entrando. É uma bolha? Claro que é uma bolha. As questões cruciais são como chegamos a este ponto e o que acontecerá a seguir.

John Lanchester


Vol. 47 No. 23 · 25 December 2025

The Thinking Machine: Jensen Huang, Nvidia and the World’s Most Coveted Microchip
por Stephen Witt.
Bodley Head, 248 pp., £25, abril, 978 1 84792 827 6

The Nvidia Way: Jensen Huang and the Making of a Tech Giant
por Tae Kim.
Norton, 261 pp., £25, dezembro 2024, 978 1 324 08671 0

Empire of AI: Inside the Reckless Race for Total Domination
por Karen Hao.
Allen Lane, 482 pp., £25, maio, 978 0 241 67892 3

Supremacy: AI, ChatGPT and the Race that Will Change the World
por Parmy Olson.
Pan Macmillan, 319 pp., £10.99, julho, 978 1 0350 3824 4

A bolha das tulipas é a bolha financeira mais famosa da história, mas, como exemplo histórico, também é, em um aspecto crucial, enganosa. Isso porque qualquer pessoa consegue perceber a flagrante irracionalidade que estava em jogo. No auge da febre das tulipas, em 1637, os raros bulbos eram tão caros que um único bulbo valia tanto quanto uma luxuosa casa à beira de um canal em Amsterdã. Não é preciso ser Warren Buffett para perceber que a desconexão entre preço e valor era baseada em um pensamento ilusório.

A maioria das bolhas não é assim. Mesmo a Bolha dos Mares do Sul, o evento que deu nome às bolhas financeiras, tinha uma lógica subjacente: quem pode negar que a expansão das redes globais de comércio e capital se revelou um evento vital e extremamente lucrativo? Mesmo que todos os investidores da bolha original – incluindo Isaac Newton, que percebeu que era uma bolha, mas mesmo assim se deixou levar pela euforia – tenham perdido tudo. O padrão histórico típico é o seguinte: uma grande inovação genuína é avistada no horizonte. O dinheiro jorra para aproveitar a oportunidade. Dinheiro demais. O fluxo de capital é tão grande que se torna impossível alocá-lo corretamente, e as distinções desaparecem entre o que é provável e o que é impossível, o que é prudente e o que é imprudente, o que pode acontecer e o que jamais poderia. Após a enxurrada de dinheiro, vêm as dúvidas; após as dúvidas, a quebra; e após a quebra, o surgimento gradual do fenômeno que, em primeiro lugar, deixou todos os especuladores tão entusiasmados. Isso aconteceu com a Bolha dos Mares do Sul, com as inúmeras manias ferroviárias de meados do século XIX, com a mania da eletrificação cinquenta anos depois e com a bolha da internet na virada do século.

É aí que estamos agora com a IA. Em um passado remoto, em 2018, a Apple se tornou a primeira empresa de capital aberto do mundo a ter uma capitalização de mercado superior a um trilhão de dólares. Hoje, cada uma das dez maiores empresas do mundo vale mais de US$ 1 trilhão. Apenas uma delas, o monopólio petrolífero saudita Aramco, não tem relação com o valor futuro da IA. A empresa líder, a Nvidia, vale US$ 4,45 trilhões. Não por acaso, as ações da Nvidia são a aposta mais pura que se pode fazer no impacto da IA. As empresas líderes estão emprestando dinheiro umas às outras em padrões circulares, sustentando o faturamento e as avaliações. Quantidades colossais de dinheiro estão entrando. É uma bolha? Claro que é uma bolha. As questões cruciais são como chegamos aqui e o que acontecerá a seguir.

Como chegamos até aqui? Essa história é, entre outras coisas, uma narrativa sobre dois homens que, felizmente, correspondem aos dois principais tipos de personagens da era tecnológica: o imigrante academicamente brilhante (Elon Musk, Sergey Brin, Sundar Pichai, Satya Nadella) e o americano que abandonou a faculdade (Steve Jobs, Bill Gates, Mark Zuckerberg). As empresas fundadas ou dirigidas por esses homens são a primeira, a segunda, a terceira, a quarta, a quinta e a sétima mais valiosas do mundo. Seu valor combinado é de US$ 20,94 trilhões – um sexto de toda a economia mundial.

Vamos começar in medias res. Na primavera de 1993, três nerds visitaram um advogado no Vale do Silício com a intenção de criar uma empresa para fabricar chips de computador. Os homens eram Curtis Priem, Chris Malachowsky e a pessoa que eles escolheram para ser o CEO, Jensen Huang, um engenheiro elétrico nascido em Taiwan com talento para gestão e negócios. Segundo Stephen Witt, em seu livro "Thinking Machine", Malachowsky e Priem possuíam habilidades complementares: um era arquiteto e o outro, engenheiro de chips. Eles queriam criar um novo tipo de chip, otimizado para um setor em rápido crescimento: o de videogames. Seu empregador, a grande empresa de chips LSI Logic, não gostou da ideia, então os três elaboraram um plano de negócios, trabalhando principalmente em uma filial da rede de restaurantes Denny's, aberta 24 horas, que ostentava marcas de tiros de tiroteios. Huang não achava que a nova empresa valesse a pena ser lançada até que houvesse uma chance real de faturar US$ 50 milhões por ano. Após longas sessões no Denny's, mexendo em planilhas, ele finalmente conseguiu fazer os números fecharem. Os três amigos procuraram Jim Gaither, um advogado renomado no Vale do Silício. Gaither preencheu a documentação, mantendo o nome da empresa como NV, abreviação de New Venture (Nova Empreendimento). Malachowsky e Priem se divertiram com isso: eles vinham brincando com nomes de empresas que sugeriam que seu chip deixaria os concorrentes morrendo de inveja. A coincidência era boa demais para resistir. Decidiram chamar a empresa de Nvision. Quando o advogado verificou, descobriu que Nvision já estava em uso. Escolheram um nome alternativo: Nvidia.

Boa escolha de CEO, boa escolha de nome. Um terço de século depois, Huang é o CEO com o mandato mais longo do setor e a Nvidia é a empresa mais valiosa do mundo. A participação da Nvidia no valor do mercado de ações global é historicamente sem precedentes: suas ações representam uma parcela maior dos índices globais do que todo o mercado de ações do Reino Unido.

Huang teve um começo de vida difícil. Ele chegou aos EUA em 1973, aos nove anos, pequeno para a idade e com pouco domínio do inglês. Seus pais, falantes de hokkien de Tainan que haviam emigrado para Bangkok, tentaram ensinar inglês a ele e seus irmãos, fazendo-os aprender dez palavras por dia, escolhidas aleatoriamente do dicionário. Eles enviaram Huang para o Instituto Batista Oneida, no Kentucky, sob a falsa impressão de que se tratava de um internato de luxo. Na verdade, era uma escola reformatória para meninos indisciplinados que o sistema educacional regular dos EUA não conseguia lidar. As habilidades acadêmicas de Huang fizeram com que ele fosse colocado em uma turma com meninos um ano mais velhos. Se você estivesse criando uma fórmula para tornar uma criança alvo de bullying, não encontraria nada melhor. Na sua primeira noite, o colega de quarto de Huang levantou a camisa para lhe mostrar as cicatrizes que tinha acumulado devido a ferimentos de faca. O recém-chegado, que ficou na escola durante as férias porque não tinha para onde ir, recebeu a tarefa de limpar os banheiros.

Isso pode soar como uma narrativa de privação. Huang não a conta dessa forma. Ele ensinou o colega de quarto a ler, e o colega o ensinou a fazer flexões – cem por dia. Os valentões pararam de tentar derrubá-lo da ponte de corda que ele tinha que atravessar a caminho da escola. Huang diz que isso o fortaleceu e, segundo Witt, em um discurso de formatura em 2020, ele “disse que seu tempo na escola foi uma das melhores coisas que já lhe aconteceram”. Depois de dois anos no Kentucky, Huang se mudou para o Oregon, para onde seus pais haviam imigrado. Ele estudou, fez faculdade e se casou lá, antes de começar sua carreira na AMD, empresa de design de microchips do Vale do Silício. Muitas promoções e uma mudança de emprego depois, ele conheceu Malachowsky e Priem por meio da LSI.

A nova empreitada do trio estava longe de ser um sucesso instantâneo. Havia pelo menos 35 empresas competindo para construir um chip especializado para videogames, e era evidente que a maioria delas iria fracassar. Quando o primeiro chip da Nvidia, o NV1, foi um fracasso, parecia que a empresa seria mais uma delas. "Erramos em tudo", disse Huang mais tarde. "Cada decisão que tomamos estava errada." Ele demitiu a maior parte dos funcionários da empresa e apostou tudo no sucesso do projeto do próximo chip, o NV3. (O NV2 foi cancelado antes do lançamento.) Em vez de construir o chip da maneira tradicional – o que não era possível, pois o dinheiro acabaria antes da conclusão – eles usaram um emulador, uma máquina projetada para simular projetos de chips em software em vez de silício, para testá-lo virtualmente. Quando o primeiro chip NV3 real chegou, havia um teste crucial. Se ao menos um dos 3,5 milhões de transistores do chip apresentasse defeito, ele estaria fadado ao fracasso e a Nvidia desapareceria. Mas não apresentou defeito e não desapareceu. “Até hoje, somos o maior usuário de emuladores do mundo”, diz Huang.

Nessa altura, em 1997, Huang já havia feito duas grandes apostas: uma na demanda insaciável dos videogames por gráficos melhores e outra no emulador. Essas apostas bem-sucedidas mantiveram a Nvidia viva e em crescimento. Ele faria mais três. A primeira foi em um tipo de computação conhecido como processamento paralelo. Um chip de computador tradicional, como o que está dentro do laptop que estou usando, funciona com uma Unidade Central de Processamento (CPU), que realiza cálculos em sequência. À medida que os chips se tornaram mais poderosos, o tamanho e a complexidade dos cálculos também aumentaram. Mas os chips ficaram tão pequenos que começaram a esbarrar nas leis da física.

O processamento paralelo, por sua vez, realiza cálculos não em sequência, mas simultaneamente. Em vez de realizar um único cálculo enorme, ele realiza vários cálculos pequenos ao mesmo tempo. No YouTube, você encontra os MythBusters, uma dupla entusiasmada de divulgadores científicos americanos, demonstrando a diferença em uma conferência da Nvidia em 2008 (a demonstração foi encomendada por Huang). Os MythBusters configuraram uma arma robótica para disparar bolas de tinta em uma tela. A primeira execução funciona como uma CPU: o robô dispara uma sequência rápida de bolas de tinta azuis, ajustando a mira após cada disparo para pintar um rosto sorridente. Leva cerca de trinta segundos. Em seguida, eles configuram outra arma robótica, desta vez disparando 1100 bolas de tinta simultaneamente. As armas disparam e, em uma fração de segundo – oitenta milissegundos, para ser preciso – aparece na tela uma cópia da Mona Lisa feita com bolas de tinta. A Mona Lisa instantânea é uma metáfora visual para o funcionamento dos novos chips: em vez de cálculos complexos realizados em sequência, um grande número de cálculos curtos são realizados ao mesmo tempo. Processamento paralelo.

A indústria de videogames adorou os novos chips e exigia uma atualização a cada seis meses para renderizar os ambientes visuais cada vez mais complexos de seus jogos. Acompanhar essa demanda era exigente e caro, mas levou a Nvidia a uma posição de liderança na indústria de chips. Em "The Nvidia Way", Tae Kim descreve a persistência de Huang em se manter à frente da concorrência. "A principal característica de qualquer produto é o cronograma", disse Huang, marcando a diferença entre a elegância da engenharia e a ênfase da Nvidia em "fazer acontecer, entregar o produto". Os chips da empresa eram tão poderosos a essa altura que começou a parecer bizarro que seu único uso fosse permitir que as pessoas se conectassem online e atirassem umas nas outras em cenários de ficção científica cada vez mais complexos e bem renderizados. Nesse ponto, Huang fez outra de suas apostas. Ele incumbiu a Nvidia de desenvolver um novo tipo de arquitetura de chip, à qual deu o nome deliberadamente obscuro de CUDA, uma sigla para Compute Unified Device Architecture (Arquitetura Unificada de Dispositivos de Computação).

O termo não significa muita coisa, o que era parte da intenção – Huang não queria que a concorrência percebesse o que a Nvidia estava fazendo. Seus engenheiros estavam desenvolvendo um novo tipo de arquitetura para um novo tipo de cliente: “médicos, astrônomos, geólogos e outros cientistas – especialistas acadêmicos altamente qualificados, com habilidades em áreas específicas, mas que talvez não soubessem programar”. Na metáfora de Witt, a CPU é como uma faca de cozinha, “uma ferramenta multifuncional e elegante que pode fazer qualquer tipo de corte. Ela pode cortar em juliana, em palitos, picar, fatiar, cortar em cubos ou picar... mas a faca só consegue picar um vegetal por vez”. O processador da Nvidia, que a empresa agora chamava de GPU, ou Unidade de Processamento Gráfico, era mais parecido com um processador de alimentos: “barulhento, pouco delicado e com alto consumo de energia. Ele não consegue cortar estragão em chiffonade ou fazer um corte quadriculado em um tubo de lula. Mas para picar um monte de vegetais rapidamente, a GPU é a ferramenta”. A arquitetura CUDA pegou essa ferramenta e a adaptou para um novo público. Na prática, os jogadores estavam pagando pelos custos de desenvolvimento do chip para os usuários científicos que Huang acreditava que apareceriam. Era uma versão de "se você construir, eles virão".

Eles não vieram, ou não em número suficiente para tornar o CUDA um sucesso. A demanda não decolou, e o preço das ações da empresa também não. Há muitos exemplos na história da tecnologia de invenções à espera de um "aplicativo matador" – uma aplicação ou função que, de repente, confere à invenção um propósito irresistivelmente convincente. O aplicativo matador para o PC, por exemplo, foi a planilha eletrônica: da noite para o dia, uma nova tecnologia que permitia ao usuário experimentar com números e parâmetros e ver o que aconteceria se ajustasse a e b com a intenção de chegar a z. Não é exagero dizer que as planilhas eletrônicas remodelaram o capitalismo na década de 1980, facilitando a execução de múltiplos cenários de negócios alternativos e a continuidade até se chegar a algo que fizesse sentido. Os incríveis novos chips da Nvidia e sua arquitetura CUDA estavam à espera de um aplicativo matador.

A salvação chegou na forma de um ramo da computação pouco popular chamado redes neurais. Este era um campo dedicado à ideia de que os computadores poderiam copiar a estrutura do cérebro criando neurônios artificiais e conectando-os em redes. As primeiras redes neurais eram treinadas em conjuntos de dados rotulados, onde a resposta para cada imagem era conhecida antecipadamente. A rede fazia uma previsão, comparava-a com o rótulo correto e se ajustava usando um algoritmo chamado retropropagação. O grande avanço ocorreu quando os pesquisadores aprenderam a treinar redes com muitas camadas de neurônios artificiais – o chamado "aprendizado profundo". Essas redes profundas conseguiam detectar padrões cada vez mais complexos nos dados, o que levou a um progresso dramático no reconhecimento de imagens e em muitas outras áreas. Um cientista da computação do Google, por exemplo,

alimentou sua rede de aprendizado profundo com uma amostra aleatória de dez milhões de imagens estáticas retiradas do YouTube e deixou que ela decidisse quais padrões ocorriam com frequência suficiente para que a rede os "lembrasse". O modelo foi exposto a tantos vídeos de gatos que desenvolveu, de forma independente, uma imagem composta do rosto de um gato sem intervenção humana. A partir daí, ele passou a identificar gatos com segurança em imagens que não faziam parte do seu conjunto de treinamento.

Três elementos convergiram: algoritmos, conjuntos de dados e hardware. Os cientistas da computação desenvolveram os dois primeiros. Foram os chips da Nvidia que trouxeram o terceiro passo – porque, por coincidência, o processamento paralelo desses chips era perfeitamente adaptado para o novo Eldorado do aprendizado profundo. Múltiplos cálculos ocorrendo simultaneamente era exatamente o que constituía as redes neurais. Essas redes neurais são a tecnologia fundamental para o que antes era chamado de aprendizado de máquina e agora é geralmente referido como IA. (Aprendizado de máquina é um termo mais preciso e útil, na minha opinião, mas isso é assunto para outro dia.)

O cientista-chefe da Nvidia era um homem chamado David Kirk. Como ele contou a Witt:

"Com a computação paralela, tivemos que convencer bastante o Jensen... O mesmo aconteceu com o CUDA. Precisávamos mesmo apresentar um argumento comercial convincente." Mas com a IA, Huang teve uma epifania. "Ele entendeu imediatamente, antes de qualquer outra pessoa... Ele foi o primeiro a enxergar o potencial. Ele realmente foi o primeiro."

Huang raciocinou que, se as redes neurais conseguiam resolver o aprendizado visual, elas tinham o potencial de resolver tudo também. Numa sexta-feira, ele enviou um e-mail para toda a empresa dizendo que a Nvidia não era mais uma empresa de gráficos. Um colega lembrou: "Na segunda-feira de manhã, já éramos uma empresa de IA. Literalmente, foi muito rápido." Isso foi em 2014. Foi a quinta e mais bem-sucedida das cinco apostas de Huang, e aquela que transformou a Nvidia no colosso que domina o planeta hoje.

Logo depois disso, se você fosse um nerd ou algo próximo disso, começaria a ouvir falar de IA. Conversando com pessoas que sabiam mais do que eu sobre tecnologia e economia, eu frequentemente fazia perguntas do tipo "O que vem a seguir?" ou "Qual será a próxima grande novidade?", e cada vez mais as respostas envolviam IA. Lembro-me particularmente de uma conversa com um investidor de tecnologia perspicaz alguns dias após o voto do Brexit, na qual perguntei a ele o que achava que iria acontecer. Esqueci os detalhes da resposta — estávamos tomando martinis —, mas a essência era o avanço da IA ​​na China. O que mais me impressionou foi que eu estava perguntando sobre o Brexit, mas ele considerava a IA tão mais importante que nem lhe passou pela cabeça que era disso que eu estava falando.

Havia, no entanto, um aspecto frustrante nessas conversas, e em praticamente tudo que eu lia sobre IA. As pessoas pareciam convencidas de que seria um grande acontecimento. Mas faltavam detalhes. Era mais fácil sentir o calor do que ver o fogo. Isso continuou sendo verdade mesmo após o triunfo de grande repercussão de uma IA, o AlphaGo, sobre o campeão mundial de Go, Lee Sedol. Os jogos acontecem dentro de um conjunto fixo de parâmetros. Por isso, a ideia de resolvê-los por meio de algoritmos não é surpreendente a priori. O vislumbre mais próximo que tive das novas possibilidades surgiu no cenário improvável de um quarto de hotel em Kobe, em novembro de 2016. Fui acordado por uma mensagem de texto em japonês. Abri o Google Tradutor, esperando obter pelo menos uma versão aproximada da mensagem, e em vez disso encontrei um aviso completo e claro de que um poderoso tsunami havia ocorrido perto da costa de Hyogo, bem ao lado de Kobe. A boa notícia estava no final da mensagem: "Esta é uma mensagem de treinamento". Essa foi minha introdução à nova tradução baseada em redes neurais do Google, que, por uma estranha coincidência, havia sido lançada no Japão naquele mesmo dia. Foi a rede neural que pegou minha captura de tela da mensagem e a transformou de caracteres katakana incompreensíveis em um inglês alarmante. Essa foi uma lição vívida sobre o que as redes neurais podem fazer – mas também foi, pelo menos para mim, uma lição isolada. A vida cotidiana não se encheu repentinamente de novas evidências do poder da IA.

O que me fez, e a grande parte do resto do mundo, despertar para o poder e o potencial da nova tecnologia foi o lançamento, em novembro de 2022, do ChatGPT. O pessoal da OpenAI, empresa que criou o ChatGPT, o via como um lançamento discreto de uma nova interface para o cliente. Em vez disso, foi o lançamento tecnológico de crescimento mais rápido de todos os tempos. A IA passou de um interesse de nicho para o topo das notícias. E lá permaneceu. Esse evento que mudou paradigmas nos leva ao nosso segundo protagonista, o cofundador e chefe da OpenAI, Sam Altman.


Se Huang é o tipo um de magnata da tecnologia moderno, o imigrante academicamente brilhante, Altman é o tipo dois, o americano que abandonou a faculdade. Ele nasceu em 1985, filho de um dermatologista e uma corretora de imóveis. Altman teve uma infância típica de um garoto inteligente na escola particular de elite de St. Louis, com a peculiaridade de ter se assumido gay na adolescência e discursado em uma assembleia escolar sobre o assunto. De lá, ele foi para Stanford e se apaixonou pelo mundo das startups, abandonando o curso no segundo ano para fundar um aplicativo social baseado em localização, o Loopt. O nome não significa nada, mas naquela época, startups de sucesso tendiam a ter dois "O" no nome: Google, Yahoo, Facebook. (E ainda têm: veja Goop, Noom, Zoopla e minha favorita, a "plataforma tecnológica que conecta o ecossistema religioso", Gloo. Em breve, pretendo lançar uma startup de detecção de absurdos chamada Booloocks.)

Mais importante do que a Loopt foi o mundo para o qual ela apresentou Altman. Seu mentor foi um gênio do software britânico-americano chamado Paul Graham, que escreveu um famoso livro didático de programação e depois fez fortuna vendendo uma empresa de internet para o Yahoo. Em 2005, ele e sua esposa, Jessica Livingston, criaram um projeto chamado Y Combinator, com sede em Cambridge, Massachusetts, onde moravam. A ideia era oferecer financiamento, mentoria e apoio a startups. O público-alvo eram jovens universitários brilhantes, e a ideia era que, em vez de fazerem um estágio chato para turbinar o currículo durante o verão, eles poderiam vir para a Y Combinator, que lhes pagaria US$ 6.000 e os colocaria em um programa intensivo de startups, com Graham e sua rede de contatos oferecendo educação, conselhos e oportunidades de networking.

A Y Combinator foi um enorme sucesso, e muitas das empresas que lançou são nomes conhecidos na era da internet: Airbnb, Reddit, Stripe, Dropbox. A principal lição da "incubadora", como a Y Combinator se autodenominava, era que o caráter e o talento do fundador eram mais importantes do que a ideia específica em que ele estava trabalhando. Exemplo número um: Sam Altman. Ele se candidatou para participar da primeira turma de recrutas da Y Combinator. Graham tentou dissuadi-lo por um ano, alegando que, com dezenove anos, ele era muito jovem. Altman não aceitou um não como resposta — uma característica fundamental de sua personalidade. Nesse e em outros aspectos, ele causou um grande impacto em Graham. "Cerca de três minutos depois de conhecê-lo, lembro-me de ter pensado: 'Ah, então era assim que Bill Gates devia ser aos dezenove anos.'" Ele disse certa vez: "Sam é extremamente bom em se tornar poderoso." Caso isso não deixe clara sua opinião sobre Altman: "Você poderia jogá-lo de paraquedas em uma ilha cheia de canibais e, quando ele voltasse em cinco anos, seria o rei."

O vibrante livro "Supremacia", de Parmy Olson, é essencialmente positivo em relação a Altman, enquanto o minucioso e lúcido "O Otimista", de Keach Hagey, é mais ambíguo. Ela faz com que a observação de Graham soe descontraída, jocosa e essencialmente elogiosa. Já o muito mais cético "Império da IA", de Karen Hao, ilustra as palavras de Graham como uma ambição sem princípios tão intensa que chega a ter um toque de sociopatia. Essa dualidade de perspectivas permeia a história de Altman. Em quase todos os momentos, é possível ver suas ações como benignas, ainda que por vezes "avessas ao conflito", de uma forma que gera mal-entendidos. Também é possível vê-lo como uma figura muito mais sombria. No caso daquela infância aparentemente normal, há a versão dele e a versão de sua irmã, Annie, que em 2021, sob a influência de memórias recuperadas por meio de terapia, afirmou no Twitter ter "sofrido abuso sexual, físico, emocional, verbal, financeiro e tecnológico por parte de meus irmãos biológicos, principalmente Sam Altman e um pouco por parte de Jack Altman". A mãe de Altman disse a Hao que as alegações eram "horríveis, profundamente dolorosas e falsas". Ninguém de fora pode julgar essa triste história. Mas a existência de versões radicalmente diferentes dos mesmos eventos é um tema recorrente na vida de Altman.

Isso se aplica até mesmo à fundação da OpenAI. Em 2014, Altman era o rei da ilha canibal. Loopt ainda não havia decolado, mas quando Graham deixou a direção da Y Combinator, escolheu, para surpresa geral, o então desconhecido jovem de 28 anos como seu sucessor. Altman já era incrivelmente rico, graças a um fundo de capital de risco que havia criado, o Hydrazine, que investia nos graduados de destaque da incubadora de startups. Para citar apenas um exemplo, ele possuía 2% da empresa de pagamentos Stripe, que, na época em que este texto foi escrito, valia cerca de US$ 107 bilhões. Ele, por sua própria iniciativa, não era mais motivado por dinheiro, mas por uma antiga ambição de causar impacto no mundo não digital – e, para ser justo, foi isso que ele demonstrou na Y Combinator durante sua gestão.

O interesse de Altman por tecnologias com consequências no mundo físico o levou ao tema da IA. Mais especificamente, o levou à ideia de que uma IA descontrolada poderia representar uma ameaça existencial para a humanidade. Essa ansiedade é amplamente difundida em certos círculos tecnológicos. Os "pessimistas", como são conhecidos, falam sobre a "p(desgraça)", ou a probabilidade de a humanidade ser destruída por uma superinteligência artificial não alinhada aos interesses humanos. Altman, influenciado por essas preocupações, enviou um e-mail para Elon Musk, um pessimista com uma visão "mais paranoica e pessimista" do que outros na indústria (segundo Olson). A ideia era que "alguém que não o Google" desenvolvesse a tecnologia, para que ela "pertencesse ao mundo". Musk achou que "provavelmente valia a pena conversar". O resultado foi uma reunião em um hotel do Vale do Silício, com a presença de Musk (que chegou com uma hora de atraso), Altman, os renomados pesquisadores de IA Ilya Sutskever e Dario Amodei, e o programador estrela do Stripe, Greg Brockman, que buscava um novo desafio. Como resultado dessa reunião, Musk financiou e Altman ajudou a fundar a OpenAI, cujo propósito era desenvolver uma versão segura de IA superinteligente. A nova empresa seria uma organização sem fins lucrativos; sua única função seria "promover a inteligência digital de uma forma que seja mais benéfica para a humanidade como um todo, sem a restrição da necessidade de gerar retorno financeiro". A empresa publicaria suas descobertas de pesquisa – daí o "aberto".

Isso parece claro. Mas não foi. A obsessão primordial de Musk era a necessidade de superar o Google na corrida para desenvolver IA. Uma de suas hiperfixações era Demis Hassabis, o fundador britânico da empresa de IA DeepMind, comprada pelo Google em 2014. Para Musk, Hassabis era, como Hao coloca, "um supervilão que precisava ser detido". (Hassabis ganhou o Prêmio Nobel de Química no ano passado por desvendar o mistério de como as proteínas se dobram. Mas espere aí – talvez seja exatamente isso que um supervilão faria?) A maneira de deter Hassabis era desenvolver IA antes que ele pudesse, e o primeiro passo para isso era atrair talentos. Altman era bom nisso, e a OpenAI logo contou com vários pesquisadores e programadores de destaque, incluindo Sutskever – uma figura especialmente importante porque o software de reconhecimento de imagem que ele ajudou a desenvolver, o AlexNet, foi um dos grandes avanços na área de redes neurais.

Até aí, tudo bem. O problema era que tudo isso era caro. Musk achava que a OpenAI precisava de US$ 1 bilhão para ter alguma chance de competir com o Google. Essa estimativa acabou sendo muito subestimada. Os cientistas da computação estavam começando a descobrir que o tamanho era fundamental na fase de treinamento da IA ​​– o ponto em que os dados eram inseridos nos algoritmos e a rede neural entrava em funcionamento. Na vida civil, "computar" é um verbo. Em IA, é um substantivo, que denota o tamanho do seu poder computacional. Alguns programas de IA provaram ser, uma vez treinados, relativamente compactos – a empresa chinesa DeepSeek, por exemplo, tem um modelo de ponta que funciona em um computador pessoal comum. Conheço algumas pessoas que o executam em seus laptops. Mas chegar a esse ponto, treinar o programa, é outra história, na qual a escala do seu poder computacional é crucial. No mundo da tecnologia, é o exemplo máximo de uma competição em que homens lutam pelo direito de dizer: "o meu é maior".

O do Google era maior. A OpenAI precisava aumentar sua escala. O método de Altman para alcançar esse objetivo foi fechar um acordo com a Microsoft, no qual a gigante do software, tão pouco querida pelos investidores, daria à OpenAI US$ 1 bilhão em financiamento em troca do uso exclusivo dos produtos da OpenAI em seu próprio software e uma participação nos lucros. Para garantir que os investidores não obtivessem lucros exorbitantes com o acordo, os retornos foram limitados a cem vezes o investimento inicial. A Microsoft lucraria apenas US$ 100 bilhões. Além disso, o acordo seria encerrado caso a OpenAI desenvolvesse Inteligência Artificial Geral, sob a condição de que as formas existentes de dinheiro perderiam seu valor.

O acordo seria formalizado por meio de uma nova subsidiária com fins lucrativos da organização sem fins lucrativos matriz. Isso pode parecer estranho, mas a estrutura em que uma empresa com fins lucrativos é controlada por uma entidade sem fins lucrativos não é inédita. A dinamarquesa Novo Nordisk, por exemplo, fabricante dos medicamentos para emagrecimento Ozempic e Wegovy, tem como acionista majoritária uma fundação sem fins lucrativos. Existem outros exemplos. O que é bizarro no acordo da OpenAI é que a organização sem fins lucrativos e a com fins lucrativos têm premissas contraditórias. O que é mais importante: desenvolver uma IA "alinhada" e benigna, para o benefício de toda a humanidade? Ou ganhar enormes quantias de dinheiro o mais rápido possível explorando comercialmente sua nova tecnologia? Quanto à parte "aberta", esqueça — esse aspecto da missão da empresa foi discretamente esquecido. Quaisquer descobertas que a OpenAI pudesse fazer agora eram proprietárias.

Musk ficou furioso. Ele considerou o acordo com a Microsoft uma traição à visão e ao propósito da empresa. Pouco tempo depois, no final de 2018, ele abandonou a empresa de forma descontrolada (como dizem os gamers); mais tarde, anunciou a criação de uma concorrente, a xAI. Essa empresa agora é dona do que era o Twitter e está treinando sua inteligência artificial com seus dados. A alternativa de Musk à empresa de Altman é uma IA treinada com bots de pornografia, nazistas e spam, com forte ênfase em reproduzir sua própria visão de mundo. Que maravilha.

A IA havia se transformado em uma corrida. Um dos componentes-chave dessa corrida era o talento, área em que a empresa tinha uma posição forte, e outro era o financiamento, que era uma luta constante. Para atrair atenção e, consequentemente, financiamento, a empresa precisava de ações impactantes – eventos de grande repercussão, como o desenvolvimento do AlphaGo pela DeepMind. Altman se voltou para os jogos online multiplayer, que, devido à sua fluidez, complexidade e à imprevisibilidade do comportamento humano, são significativamente mais difíceis para os computadores do que jogos com regras finitas, como xadrez e Go. O jogo escolhido foi uma competição online multijogador chamada Defence of the Ancients 2, universalmente abreviada para Dota 2. Em 2017, a OpenAI desenvolveu um programa capaz de derrotar um jogador profissional de Dota em uma partida individual. Em 2019, ele já conseguia jogar com uma equipe completa de cinco jogadores e vencer equipes de cinco profissionais. Uma conquista notável, com um porém: quase ninguém percebeu ou se importou. A próxima jogada da empresa, em 2019, foi anunciar que a segunda versão de seu produto principal, o GPT-2, tinha um potencial tão grande para causar danos que a empresa precisou restringir seu lançamento. A capacidade do software de gerar texto atraiu uma atenção considerável no mundo da tecnologia, sem, no entanto, causar um impacto real na opinião pública.

Isso aconteceu em 30 de novembro de 2022, com o lançamento de uma interface para o consumidor de uma versão recente do software da empresa. O software subjacente era o GPT-3, um modelo treinado com quinhentas vezes mais poder computacional do que o GPT-2. A interface – basicamente um invólucro, ou vitrine, para o modelo subjacente – chamava-se ChatGPT. Não havia nada no programa que os modelos existentes já não pudessem fazer, razão pela qual ninguém na OpenAI esperava o que aconteceu a seguir. Poucas horas após o que deveria ser um teste discreto, os comentários no tweet de lançamento de Altman eram, nas palavras de Hagey, "capturas de tela cada vez mais entusiasmadas de pessoas pedindo ao bot para fazer a lição de casa, localizar o clitóris e lhes dizer o sentido da vida". Em dois meses, o ChatGPT atingiu cem milhões de usuários, "tornando-se o produto de tecnologia de consumo de crescimento mais rápido da história".

Foi nesse ponto que tudo explodiu. O valor das dez maiores empresas do mundo é de US$ 25,6 trilhões. Desse total, US$ 15,1 trilhões foram acumulados desde 30 de novembro de 2022 e estão diretamente ligados ao boom da IA. A tecnologia da Nvidia foi o primeiro fator a impulsionar essa explosão – seu chip mais poderoso, o H200, é indispensável para desenvolvedores de IA de ponta. Um único H200 é vendido por entre US$ 30.000 e US$ 40.000, dependendo da configuração. A empresa vale mais de onze vezes o seu valor no dia do lançamento do ChatGPT.

Depois dos chips da Nvidia, o segundo grande fator que impulsionou o boom foi a propaganda criada por Sam Altman e a OpenAI. Mas espere aí – não é esse o cara que se preocupava com a possibilidade da IA ​​destruir a humanidade? O mesmo cara que disse: "A IA provavelmente, muito provavelmente, levará ao fim do mundo" e "o pior cenário seria o apagão para todos nós". Sabe, o pessimista? Bem, sim, e não é como se as pessoas não tivessem percebido. Era parte de um padrão em que Altman dizia coisas diferentes para pessoas diferentes. Na sexta-feira, 17 de novembro de 2023, o conselho da OpenAI, acusando Altman de não ser "consistentemente sincero" em suas comunicações, mas sem dar mais detalhes, o demitiu. Foi um choque. Quando um funcionário disse que a saída de Altman poderia significar a morte da empresa, Helen Toner, membro do conselho, respondeu: "Isso seria, na verdade, coerente com a missão da empresa". Verdade – embora não fosse isso que os funcionários da OpenAI, muitos dos quais poderiam ganhar uma quantia enorme de dinheiro com a comercialização de seu trabalho, queriam ouvir.

A reação foi imediata. A Microsoft ofereceu-se para contratar Altman e qualquer outro membro da OpenAI que quisesse se juntar a ele. Mais de setecentos dos 770 funcionários da OpenAI assinaram uma petição pedindo a reintegração de Altman. Na terça-feira, 21 de novembro, quatro dias após ser demitido, Altman foi reintegrado e os membros do conselho que queriam demiti-lo foram afastados. Um novo presidente foi nomeado, o renomado especialista em ética Larry Summers. Sutskever, pesquisador principal da OpenAI e membro do conselho, renunciou e fundou uma nova empresa, a Safe Superintelligence. Amodei, outro pesquisador principal, já havia saído, questionando o compromisso de Altman com a segurança da IA: ele fundou a empresa Anthropic, também dedicada à IA segura. Isso significa que três dos principais envolvidos na reunião do Vale do Silício que levou à criação da OpenAI – Musk, Sutskever e Amodei – entraram em conflito com Altman. Para cada um deles, a questão era se ele acreditava no que havia dito sobre a importância da segurança no desenvolvimento da IA. No processo que Musk acabou movendo, ele acusou Altman de ter espelhado suas opiniões numa tentativa de ganhar sua confiança e seu financiamento.

Lá está a dualidade novamente. O bom Sam, o mau Sam. Continuamos encontrando esses momentos na história de Altman. Em 2023, a OpenAI abordou Scarlett Johansson para que ela fornecesse a voz para uma interface do ChatGPT (ela havia dublado a androide inteligente no filme Ela, de Spike Jonze). Ela recusou. Quando o software foi lançado, sua voz soava muito parecida com a de Johansson. Altman comemorou o lançamento com um tweet de uma palavra: "ela". (Ele é muito sofisticado para usar letras maiúsculas.) Quando Johansson protestou, a OpenAI divulgou um comunicado: "Escolhemos a dubladora da Sky antes de qualquer contato com a Sra. Johansson." Mas... de acordo com Johansson, você estava entrando em contato com o agente dela dois dias antes do lançamento. Bobagem ou sinistro? Quando a empresa lançou um aplicativo de criação de imagens que produziria imagens no estilo do renomado estúdio japonês de animação Studio Ghibli, Altman falou sobre a "amplitude de usos criativos" possibilitados pela geração de imagens por IA. Mas o mestre do Ghibli, Hayao Miyazaki, que na opinião de muitos (inclusive a minha) é o maior expoente vivo da animação, afirmou que a arte gerada por IA é "um insulto à própria vida" e acrescentou: "Eu jamais desejaria incorporar essa tecnologia ao meu trabalho". Altman não pode considerar que digitar algumas palavras em um gerador de imagens – "J.D. Vance beijando um sapo no estilo do Studio Ghibli" – seja uma forma de criatividade. Seus assessores certamente teriam lhe contado a opinião de Miyazaki, caso ele já não a conhecesse. Ao dizer o que disse, Altman estaria demonstrando o entusiasmo juvenil de um multibilionário de 40 anos – ou seus comentários seriam apenas uma provocação sarcástica?

Quanto à adesão de Altman ao pessimismo, há duas maneiras de encarar isso. Ele pode ter acreditado nisso em algum momento. Mas falar sobre o risco existencial que a IA representa para a humanidade também é, sejamos francos, uma ferramenta de marketing maravilhosa. Essa tecnologia é poderosa – tão poderosa – poderosa demais – pode até nos matar! Venham, venham, e peçam para ela criar um pôster com os queijos do mundo em ordem crescente de poder – antes que ela mate todo mundo! Nossos magnatas da tecnologia gostam da ideia de serem Thomas Edison, inventores-empresários geniais, mas muitas vezes têm mais em comum com P.T. Barnum, gênio do marketing e da propaganda. Altman poderia competir de igual para igual com Barnum, e eu não arriscaria um palpite.

Além de ser uma ferramenta de marketing excelente, o pessimismo também é uma ótima distração dos danos reais que a IA está causando aqui e agora. Uma das estratégias características de Altman é clamar, em voz alta e com frequência, pela regulamentação da IA. Mas existe uma distinção entre segurança da IA, que é hipotética, e danos causados ​​pela IA, que estão acontecendo agora. Para começar, muitos dos dados usados ​​para treinar modelos de IA são roubados — inclusive, por acaso, dos meus próprios dados. Só sei disso porque meus livros estão em uma lista de obras que foram usadas ilegalmente como dados de treinamento. O trabalho de muitas outras pessoas foi roubado sem qualquer prova que o comprove.

E há também a tendência dos modelos de IA de, nas palavras de Hagey, "inventarem coisas, discriminarem mulheres e minorias e produzirem conteúdo tóxico". Um modelo treinado em conjuntos de dados que incorporam padrões históricos de discriminação e preconceito inevitavelmente replicará esses mesmos padrões. O processo de usar o feedback humano para ajustar e aprimorar a saída dos modelos é descrito vividamente por Hao: envolve o uso extensivo de mão de obra estrangeira mal remunerada e é exploratório por si só, além de propenso a introduzir outras formas de preconceito. (A correção excessiva do preconceito na saída da IA ​​foi o que levou o modelo Gemini do Google a exibir aos usuários imagens de mulheres negras quando solicitado a mostrar papas ou vikings típicos.) A IA consome quantidades inconcebíveis de energia, grande parte dela na busca por resultados obviamente triviais, e não está claro quando essa demanda diminuirá. Sutskever afirmou: "Acho bastante provável que não demore muito para que toda a superfície da Terra esteja coberta por centros de dados e usinas de energia." Não é um opositor da IA ​​falando – é alguém que está trabalhando arduamente para criar o futuro da IA.


Então, o que acontece a seguir? A grande questão é o que acontecerá quando a bolha estourar e o que isso significa para o futuro da IA ​​e, por extensão, para a humanidade. Jeff Bezos falou sobre a IA ser uma "bolha industrial", semelhante ao enorme investimento de capital absorvido na criação das ferrovias, em vez de uma bolha financeira, baseada em pura especulação, que não deixa nada para trás quando estoura. Isso me parece razoável.

Existem quatro possibilidades principais. A primeira é que a IA seja uma grande farsa. Grandes Modelos de Linguagem – os atuais líderes de mercado, graças à OpenAI e seus concorrentes – revelam-se com limitações insuperáveis. As pessoas perceberam que os modelos não aprendem com a entrada de dados e têm uma tendência a "alucinar". (Essa palavra, aliás, é outra estratégia de marketing disfarçada. Falar em "alucinações" nos distrai do fato de que as IAs erram o tempo todo. A implicação é que os erros são um efeito colateral de serem sencientes – porque apenas seres sencientes podem alucinar. As IAs não são sencientes e não podem alucinar, assim como uma geladeira ou uma torradeira. Elas também não podem mentir, porque isso envolve intenção. O que elas podem fazer é errar.) Todos desistem da IA ​​e toda a história desaparece. Este me parece o cenário menos provável, devido aos vários impactos que a IA já está causando.

Cenário número dois: alguém constrói uma superinteligência descontrolada que destrói a humanidade. Evitar isso foi, não nos esqueçamos, o motivo por trás da criação da OpenAI. O cenário apocalíptico me parece improvável, por razões ligadas à questão da senciência. As IAs podem imitar intenções, mas não podem possuí-las. Então, por que se dariam ao trabalho de nos matar? Novamente, uma geladeira pode matar você (há uma morte memorável por geladeira em um romance de A.S. Byatt), mas não pode fazer isso de propósito.

Terceiro cenário: a IA leva à "singularidade", o ponto em que os computadores se tornam mais inteligentes que os seres humanos; aprendem a se autoprogramar e a se autoaperfeiçoar; fazem isso em alta velocidade e em grande escala; e conduzem a humanidade a uma nova era de, para usar o termo da moda, abundância. A inteligência artificial geral, ou superinteligência artificial, cria uma nova era de energia barata, descoberta de medicamentos, dessalinização, fim da fome, e muito mais. “Embora aconteça gradualmente, triunfos surpreendentes – como a solução do problema climático, o estabelecimento de uma colônia espacial e a descoberta de toda a física – eventualmente se tornarão comuns.” Essa é uma citação de um ensaio de Altman publicado no ano passado, intitulado “A Era da Inteligência”:

Eis uma maneira limitada de encarar a história da humanidade: após milhares de anos de descobertas científicas e progresso tecnológico cumulativos, descobrimos como derreter areia, adicionar algumas impurezas, organizá-la com uma precisão impressionante em uma escala extraordinariamente pequena dentro de chips de computador, passar energia por ela e obter sistemas capazes de criar inteligência artificial cada vez mais sofisticada. Isso pode vir a ser o fato mais importante de toda a história até agora.

Quarto cenário: a IA acaba sendo o que Arvind Narayanan e Sayash Kapoor chamam de “tecnologia normal”. É uma invenção importante, assim como a eletricidade ou a internet, mas não representa uma ruptura radical na história da humanidade. Isso se deve em parte ao fato de a inteligência artificial ser inerentemente limitada e em parte aos "gargalos", obstáculos humanos à adoção da tecnologia. Algumas coisas permanecem as mesmas, enquanto outras mudam radicalmente. Alguns empregos, especialmente os de nível inicial em escritórios, são automatizados. Processos administrativos em logística e áreas afins tornam-se mais eficientes. Algumas formas de trabalho se tornam mais valiosas e outras menos. Há avanços significativos em alguns campos, como a descoberta de medicamentos. Outras áreas permanecem praticamente intocadas, e há muitas áreas em que a IA representa uma estranha combinação de utilidade surpreendente e profunda falta de confiabilidade.

A última dessas opções – a "tecnologia normal" – parece-me a mais provável, principalmente porque é a versão que já está, em certa medida, presente. Algumas formas de desigualdade já estão sendo ampliadas pela IA – a desigualdade entre capital e trabalho, para começar. Os jovens já estão percebendo o impacto da automação no emprego de nível inicial. Os salários de freelancers em algumas áreas da economia já estão diminuindo. Se você tivesse que escolher um único texto para resumir as últimas décadas em economia política, seria "a quem tem, mais lhe será dado". Se eu tivesse que apostar, diria que essa tendência continuará. Mas sabe de uma coisa? Uma das coisas interessantes sobre IA é que, ao contrário de praticamente todas as outras áreas da política e da economia, vamos obter uma resposta clara. "É difícil até imaginar hoje o que teremos descoberto até 2035", escreveu Altman. Até 2035, ou estaremos extintos, ou à beira de uma prosperidade inimaginável para toda a humanidade, ou algo parecido, só que ainda maior. Prepare a pipoca. Ou espere até que seu mordomo robô possa fazer isso por você.

Nenhum comentário:

Postar um comentário

O guia essencial da Jacobin

A Jacobin tem divulgado conteúdo socialista em ritmo acelerado desde 2010. Eis aqui um guia prático para algumas das obras mais importantes ...