Simon Torracinta
Boston Review
Ilustração de um livro de economia de 1934. Imagem: Ross Griff |
Thinking Like an Economist: How Efficiency Replaced Equality in U.S. Public Policy
Elizabeth Popp Berman
Princeton University Press, $35 (cloth)
Cogs and Monsters: What Economics Is, and What It Should Be
Princeton University Press, $35 (cloth)
Cogs and Monsters: What Economics Is, and What It Should Be
Diane Coyle
Princeton University Press, $24.95 (cloth)
What’s Wrong with Economics? A Primer for the Perplexed
Princeton University Press, $24.95 (cloth)
What’s Wrong with Economics? A Primer for the Perplexed
Robert Skidelsky
Yale University Press, $25 (cloth)
"Aqueles que podem, fazem ciência", observou certa vez o economista Paul Samuelson. "Quem não pode, tagarela sobre metodologia." Até bem recentemente, essa parecia ser a atitude dominante entre os principais economistas, mas uma mudança radical ocorreu quando o sistema financeiro global começou a desmoronar em 2007. Na década e meia desde então — anos dolorosos de recuperação lenta, salários reais estagnados, desigualdade crescente, e revolta populista — a conversa reflexiva explodiu. Por que o crash não foi amplamente previsto? A culpa seria da "hipótese do mercado eficiente"? As lições da Grande Depressão foram esquecidas? E por que questões centrais sobre finanças, poder, desigualdade e capitalismo ainda estão ausentes do Economics 101?
Os debates mais visíveis centraram-se na macroeconomia — o estudo das características brutas da economia como um todo. Em jogo estão algumas das preocupações fundamentais do campo: o poder do gasto público e da criação de dinheiro, o papel dos bancos e os riscos de instrumentos financeiros complexos, a relação entre emprego, salários, inflação e taxas de juros, e a natureza e necessidade de crescimento. Dado o papel que os macromodelos desempenham no banco central e nos gastos públicos, essas não são questões meramente acadêmicas, mas questões urgentes de política pública — desde a resposta à pandemia até o Build Back Better e as novas guerras inflacionárias.
No entanto, todo esse Sturm und Drang macroeconômico obscureceu a unidade básica dos métodos microeconômicos empregados pela grande maioria dos economistas atuantes hoje, seja na academia, no governo ou na indústria. Abra um livro introdutório best-seller como Principles of Economics do professor de Harvard N. Gregory Mankiw (agora em sua nona edição), e os primeiros “princípios” que encontramos não são os fundamentos do crescimento ou do emprego, mas sim “custo de oportunidade, tomada de decisão marginal, o papel dos incentivos, os ganhos do comércio e a eficiência das alocações de mercado” — todas ideias microeconômicas. Muito mais do que quaisquer princípios centrais da teoria macroeconômica, é esse conjunto central de princípios microeconômicos que define e une a profissão econômica moderna. É também o que distingue os métodos convencionais, às vezes chamados de “neoclássicos”, das várias heterodoxias — marxista, austríaca, pós-keynesiana, ecológica — que a maioria dos economistas acadêmicos ignora cuidadosamente.
Embora algumas de suas raízes remontem a séculos, a microeconomia como a conhecemos nasceu nas décadas de 1930 e 1940, quando uma abordagem totalmente formalista e dedutiva para modelar o comportamento do mercado gradualmente, mas com firmeza, deslocou seus rivais historicistas e institucionalistas na profissão anglo-americana. Durante a Segunda Guerra Mundial, dezenas de economistas foram recrutados para aplicar modelos de otimização ao planejamento de guerra e, no pós-guerra, essa mudança foi ainda mais consolidada pela hegemonia global de técnicas intensamente matematizadas (uma tendência iniciada pelo próprio Samuelson). Essa revolução provou ser excepcionalmente durável — muito mais, na verdade, do que a “revolução keynesiana” na macroeconomia que inicialmente se desenrolou na mesma época.
Dada a enorme influência do pensamento econômico na vida moderna, é estranho que esses fundamentos microeconômicos tenham escapado amplamente ao escrutínio público. Três livros recentes ajudam a esclarecer as coisas. Cada um corteja livremente o desprezo de Samuelson, mostrando como a metodologia microeconômica estrutura não apenas a teoria e a prática da economia, mas as próprias instituições da governança americana. Diante dos desastres concatenados do presente, a economia terá de ser refeita, sugerem esses autores — por dentro e por fora.
Os alvos de Skidelsky podem ser agrupados em três características principais do pensamento econômico contemporâneo: sua intensa matematização, seu retrato caricatural da psicologia humana e seu isolamento das outras ciências sociais. Alguns economistas, admite Skidelsky, podem objetar que ele apresenta uma caricatura própria. Eles estão certos, em certo sentido: ele dá mais atenção à teoria econômica do que à prática econômica, que mudou significativamente nas últimas décadas. Por outro lado, retruca Skidelsky, “é a caricatura que rege os livros didáticos” — e os livros didáticos importam. Eles funcionam, em particular, como instrumentos de doutrinação. Os estudantes poderiam resistir melhor ao “deslize para a ideologia”, sugere Skidelsky maliciosamente, se pressionassem seus professores universitários a defender os “modelos de brinquedo” que seus livros lhes lançam.
Considere primeiro a questão da confiança excessiva na matemática. Críticas nessa direção têm pelo menos um século, mas Skidelsky (seguindo Philip Mirowski, entre outros) encontra um tema unificador: a economia sofre de um grave caso de “inveja da física”. Para uma primeira aproximação, a técnica fundamental do pensamento econômico moderno é gerar modelos altamente simplificados de fenômenos de interesse, reduzindo a tremenda complexidade das economias realmente existentes a um formalismo matemático preciso e quantificável – assim como os físicos fazem para o mundo natural.
À medida que essa técnica decolou no século XX, grande parte da teoria econômica tornou-se ainda menos parecida com a física e mais parecida com a matemática pura: o objetivo era formular teoremas — quanto mais surpreendentes, melhor — e, mais importante, para prová-los, raciocinando por uma cadeia de consequências lógicas inatacáveis a partir de algumas suposições básicas (assim como um matemático pode provar um teorema em geometria ou teoria dos números). Uma das principais conquistas dessa abordagem axiomática é a moderna teoria do equilíbrio geral desenvolvida por Kenneth Arrow, Gérard Debreu e Lionel McKenzie na década de 1950, que demonstra como uma economia de mercado, em condições ideais, alcança a alocação perfeita de recursos. Assim como os matemáticos tinham seu “teorema fundamental da álgebra”, os economistas da metade do século desenvolveram seus próprios “teoremas fundamentais da economia do bem-estar”.
Nem todos os modelos econômicos são tão abstratos; outros estão mais próximos do terreno, examinando o comportamento de uma empresa sob determinados preços e restrições de oferta, digamos, ou indivíduos em um mercado de trabalho. De qualquer maneira, Skidelsky demonstra, a teorização econômica muitas vezes se preocupa menos com o desempenho do modelo do que com o rigor de sua lógica, até mesmo com sua elegância formal. (Sociologicamente falando, isso ocorre em parte porque a matematização dobrou como um mecanismo de classificação: para decidir quem consegue um emprego ou estabilidade, basta escolher o candidato que faz a matemática mais sofisticada.) Um modelo pode começar com suposições radicalmente insustentáveis, mas isso não é um ponto negativo, desde que seja logicamente consistente, esteticamente agradável em sua simplicidade e faça previsões precisas, como Milton Friedman argumentou em seu famoso artigo sobre “A Metodologia da Economia Positiva” (1953). A aquisição da realidade, continua o argumento, sempre pode ser melhorada por meio de revisões posteriores.
Para Skidelsky, o problema fundamental com essa metodologia é que, por imitar as explicações físicas do mundo natural, ela assume falsamente que regularidades semelhantes a leis também governam o mundo social – ou pelo menos que os modelos que assumem tal regularidade são “bons o suficiente”. (Sobre essas questões, Skidelsky curiosamente ignora o valioso estudo de Mary Morgan de 2012, The World in the Model: How Economists Work and Think.) Além disso, os pressupostos ideais dos modelos econômicos muitas vezes fazem um trabalho ideológico sutil ao reforçar o fundamentalismo laissez-faire e combinar os usos descritivos e preditivos dos modelos com seu papel prescritivo nas políticas públicas. Como disse certa vez o economista Frank Knight, o equilíbrio só pode ser deduzido sob suposições tão “heróicas” que têm pouca semelhança com a realidade. No entanto, quando as condições do mundo real fogem dessas suposições, muitos economistas agem como se a culpa fosse do mundo, não do modelo. Para eles, a questão é que os mercados devem ser deixados em paz, ou mesmo criados em domínios onde ainda não existem, de modo a deixar o mundo mais alinhado com o modelo, e não o modelo mais alinhado com o mundo.
Essa objeção não é nova, é claro. Os economistas tipicamente retrucam que o equilíbrio funciona como uma heurística útil, ou que alguns pesquisadores são simplesmente melhores do que outros - menos propensos a escorregar para a ideologia, mais propensos a usar modelos criteriosamente. “Os maus economistas, é claro, fazem má economia; mas não se deve confundir uma reclamação sobre qualidade com uma reclamação sobre metodologia”, entoou Paul Krugman em seu ensaio de 1998 “Two Cheers for Formalism”. O que esse argumento não percebe é que os riscos de uma má economia costumam ser muito maiores do que uma física ruim: estar errado sobre as ondas gravitacionais pode custar sua estabilidade, mas estar errado sobre o salário mínimo pode condenar dezenas de milhões à pobreza. O formalismo per se pode nem sempre ser um problema (embora possa ser quando exclui outras abordagens), mas a enorme influência social e política que tem certamente é. Aqueles investidos no rigor lógico do equilíbrio podem - e muitos o fazem - tentar fazer o mundo se comportar mais como a equação, por bem ou por mal.
Dados esses riscos, Skidelsky pensa que a reflexão metodológica explícita, longe da “tagarelice” condenada por Samuelson, é necessária para se proteger contra o exagero perigoso e a distorção ideológica. “A autoridade da economia deriva em grande parte de sua opacidade”, escreve Skidelsky. É o equilíbrio, ele pergunta, “uma propriedade necessária de um sistema de mercado, um referencial, um requisito lógico para previsão quantitativa ou um ideal matemático: bonito de se ver, mas de pouca relevância prática?” Mesmo quando tentam ser transparentes, os livros didáticos e os economistas ativos oferecem respostas muito diferentes. À luz do estrangulamento que a economia exerce sobre as políticas públicas, as implicações dessa ambigüidade central não são apenas filosóficas: são também políticas.
A imagem não é muito mais otimista, pensa Skidelsky, em domínios mais aplicados da microeconomia. (Embora ele não a mencione, esta categoria responde pela grande maioria das pesquisas de economistas acadêmicos hoje: a teoria por si só é agora mais relegada a livros didáticos do que a periódicos profissionais.) O problema é que a economia como um todo, e mesmo muitos segmentos menores dela, não podem ser submetidos ao tipo de isolamento experimental empreendido nas ciências físicas. As proposições econômicas, portanto, não estão sujeitas ao mesmo grau de falsificação que as físicas — apesar das ferramentas estatísticas sofisticadas da econometria moderna, por mais que tentem separar a correlação da causa. Mesmo quando a necessidade de revisão da teoria é admitida, ela é buscada de forma muito incremental, da forma mais conservadora possível. “Com o passar do tempo, as qualificações, as restrições e as exceções se acumularam”, disse certa vez o economista heterodoxo Piero Sraffa, até que “comeram, se não tudo, certamente a maior parte da teoria”. No entanto, com falhas manifestas explicadas como "atritos" menores no modelo, Skidelsky observa, "a teoria central" é protegida "de ataques". A economia, em outras palavras, gosta demais de seus epiciclos: há muito ela está atrasada para a revolução.
Além do mais, na medida em que descobertas empíricas robustas surgiram nas últimas décadas, os resultados muitas vezes estão em desacordo com as previsões da teoria microeconômica. O salário mínimo é um exemplo. Modelos de equilíbrio abstrato preveem que mínimos mais altos aumentam o desemprego. Quando o trabalho empírico começou a questionar essa presunção, a indignação de alguns economistas foi severa. “A relação inversa entre a quantidade demandada e o preço é a proposição central da ciência econômica”, trovejou o Prêmio Nobel James Buchanan no Wall Street Journal em 1996: "Assim como nenhum físico afirmaria que 'a água sobe', nenhum economista que se preze alegaria que aumentos no salário mínimo aumentam o emprego". No entanto, nas décadas seguintes, a pesquisa empírica falhou consistentemente em encontrar evidências para essa relação supostamente auto-evidente. Como devemos entender essa divergência entre teoria e realidade? Skidelsky acha que devemos concluir que "não há 'leis da economia' válidas em todos os tempos e lugares. Na melhor das hipóteses, as teorias podem levar a previsões aproximadamente confiáveis em períodos de tempo em que outras coisas permanecem as mesmas." Este pode ser o caso em circunstâncias muito especiais e limitadas, mas não pode ser verdade durante um longo período ou em um alto nível de generalidade.
O segundo alvo principal de What's Wrong with Economics? será mais familiar para os leitores em geral: o individualismo metodológico completo do campo e sua caricatura altamente estilizada e maximizadora de utilidade do Homo economicus. Os economistas se orgulham da artificialidade dessa construção, que justificam por sua utilidade para a modelagem. Na definição do Prêmio Nobel Thomas Sargent, uma pessoa é meramente um “problema de otimização estocástica, intertemporal e restrito”. Para Skidelsky, problemas críticos surgem quando perguntamos se essa “criatura desagradável” é simplesmente uma ferramenta teórica ou uma forma ideal a que os mortais de carne e osso devem aspirar. Tal como acontece com o equilíbrio, os livros didáticos e muitos economistas profissionais alternam entre respostas contraditórias. O quebra-cabeça também não foi resolvido pela ascensão da economia comportamental, apesar de seus engenhosos experimentos psicológicos demonstrarem como a racionalidade humana é “limitada” por uma variedade de vieses cognitivos. Falar de “aversão à perda” e “a falácia do custo irrecuperável” ainda pode servir para reificar um ideal platônico de comportamento racional. Para Skidelsky, isso é uma ilusão perigosa, pois sugere que podemos calcular nossa saída para decisões difíceis ou até mesmo deduzir nossa saída para um desacordo de uma vez por todas. Na realidade, "não há como escapar das escolhas morais".
Essas profundas questões metodológicas não tornam o conhecimento econômico totalmente inútil, sugere Skidelsky. Mas eles significam a economia como a conhecemos pode ter que ser descartada. “Para quais mundos o estudo da economia agrega valor único”, ele pergunta, “para quais mundos ele agrega aproximadamente a mesma quantidade de valor que outras ciências sociais, e para quais mundos ele não agrega nenhum valor, e mesmo diminui isso?” Skidelsky acredita claramente que este terceiro caso é verdadeiro em muitos mundos da vida pública. Em vez disso, deveríamos adotar uma atitude mais provisória, aberta e flexível em relação aos fenômenos econômicos e tratar a economia como (apenas) outra ciência social, em vez de uma supostamente purificada da incerteza por suas proezas lógicas. Concretamente, isso significa que devemos abandonar os sonhos de uma ciência imaculada da vida econômica – e parar de ceder àqueles que afirmam falar em seu nome. Mais abstratamente, no lugar de uma disciplina que negligencia o nível “mesoeconômico” – as instituições, empresas, sindicatos, sistemas bancários, movimentos sociais, plataformas digitais, estados e outras entidades sociais que moldam nosso comportamento – Skidelsky propõe uma abordagem “que é mais modesta em sua epistemologia e mais rica em sua ontologia”.
Cogs and Monsters adapta palestras que Coyle deu na última década, e se nota. Os leitores que olharem além da repetição ocasional e da falta de objetivo estrutural, no entanto, encontrarão reflexões valiosas sobre o estado do campo e “as responsabilidades públicas do economista”. Coyle é previsivelmente defensivo de sua disciplina, cansado dos “espantalhos” atacados pelos críticos, mas o livro está cheio de anedotas esclarecedoras sobre a lacuna entre teoria e prática. Seu principal interesse é o que acontece quando modelos elegantes no papel são descuidadamente soltos pelo mundo.
Para seu crédito, Coyle está disposta a apontar o dedo para trechos de seu próprio campo. O principal problema, ela afirma, é que os economistas falharam amplamente em entender como eles moldam os próprios sistemas que estudam. Tomemos o modelo de Black-Scholes para a precificação de opções de ações (o tema do Nobel de 1997). Como mostraram sociólogos das finanças como Donald MacKenzie, essas ideias remodelaram os mercados financeiros à sua própria imagem: à medida que mais e mais traders seguiam o modelo, as avaliações reais correspondiam cada vez mais às suas previsões, aparentemente confirmando sua validade. Enquanto esses ajustes circulares se transformaram em um ciclo de destruição, os reguladores blasé fecharam os olhos para os fundamentos. O resultado foi que o risco sistêmico explodiu no mercado global de derivativos, ajudando a colocar o sistema financeiro global de joelhos em 2007-8.
Por que os modelos não podem ser ajustados para lidar com esses problemas ou antecipar consequências não intencionais? O problema é a hegemonia da base microeconômica sobre a qual os modelos são construídos. “O economista que acomoda a realidade, usando regras de ouro sem ‘microfundamentos’ – ou seja, relatos teóricos de ações no nível de cada indivíduo – será frequentemente criticado por ad hoc-ery por seus pares”, escreve Coyle. Periódicos de prestígio – que podem fazer ou quebrar uma carreira acadêmica – reforçam a mesma atitude. Ecoando Skidelsky, Coyle afirma que o campo deveria abandonar sua utopia de razão pura e, em vez disso, abraçar a natureza ad hoc de todas as aproximações da realidade. Isso significa abrir mais espaço para narrativas plausíveis, em vez de provas herméticas, e emprestar métodos qualitativos de ciências sociais vizinhas, como a sociologia e a antropologia. Afinal, como costuma-se dizer que Keynes (erroneamente!) observou, “é melhor estar aproximadamente certo do que exatamente errado”.
Onde Coyle se afasta de outros críticos é em sua afirmação de que grande parte dessa transformação já ocorreu. “A maioria dos economistas”, ela escreve, “faz pesquisa microeconômica aplicada, onde conjuntos de dados, técnicas econométricas, poder computacional e um animado debate metodológico sobre inferência causal significam que houve uma revolução efetiva no conhecimento e na prática desde a década de 1980”.
Em um nível, Coyle está correto: por muitas métricas, a profissão hoje realmente tem pouca semelhança com o mainstream neoclássico de meados do século. A parcela de publicações dedicadas ao trabalho empírico e aplicado aumentou constantemente desde a década de 1990; agora ultrapassa 60% em áreas como economia do trabalho, finanças públicas e economia do desenvolvimento. Os objetos de estudo também se expandiram significativamente; agora variam de identidade, cultura e desigualdade a mudanças climáticas, mobilidade social e expectativa de vida. Os ventos políticos também mudaram. Economistas proeminentes e convencionais em universidades de elite agora criticam livremente o libertarianismo econômico, como quando Suresh Naidu, Dani Rodrik e Gabriel Zucman repudiaram "slogans simplórios de 'mercados funcionam'" nestas páginas, três anos atrás. Apesar da caricatura pública às vezes merecida de “Econ 101”, essas mudanças começaram a se refletir no ensino, especialmente desde 2008. A própria Coyle, em seu trabalho com a tentativa do coletivo CORE de reconstruir o currículo universitário tradicional de economia, tem desempenhado um papel de liderança em tais esforços.
O livro apresenta uma contra-história de tipos do neoliberalismo, embora Berman raramente use o termo. A história de origem convencional se concentra em um pequeno grupo de intelectuais de direita que se reuniram em Mont Pèlerin, na Suíça, em 1947, em oposição ao crescente estado de bem-estar social do pós-guerra, e montaram uma onda de esforços de relações públicas apoiados por doadores para cargos no governo de Ronald Reagan e Margaret Thatcher. Estudos mais recentes expandiram o quadro, da Europa Central (na turbulência pós-imperial após a Primeira Guerra Mundial, da qual emergiram vários neoliberais importantes) ao Sul Global (onde uma onda de nações reconfigurou as relações de mercado-estado na sequência de crises de dívida no final dos anos 1970). No entanto, com algumas exceções notáveis, este trabalho ainda se concentra principalmente na direita e principalmente nos intelectuais. Berman adota uma abordagem diferente em ambas as frentes. Seu ponto de partida é a forma dominante de formulação de políticas nos Estados Unidos hoje – adotada por tecnocratas em ambos os principais partidos – e seu objeto de estudo não é um corpo intelectual de trabalho, mas um “estilo de raciocínio” particular que permeia as instituições do governo moderno, aquele que valoriza a “eficiência” acima de tudo.
Esse estilo será familiar para qualquer um que tenha assistido a um debate presidencial. Programas universais, ouvimos dizer, são menos eficientes do que políticas de teste de recursos porque subsidiam serviços para pessoas que podem pagar por eles. As emissões de carbono são tratadas de forma mais eficiente por meio de medidas de cap-and-trade do quepor mandatos rígidos. É melhor ter setores competitivos de energia e transporte do que introduzir regulamentação mais ineficiente. E como sabemos tudo isso? É o que diz aqui neste relatório, escrito por economistas apartidários.
Na visão de Berman, essas posições são todas produtos do que ela chama de estilo econômico, que “começa com conceitos microeconômicos básicos, como incentivos, várias formas de eficiência e externalidades” e emprega alguns padrões de pensamento característicos: “usar modelos para simplificar, quantificar, pesar custos e benefícios e pensar na margem.” Acima de tudo, o estilo econômico exibe “uma profunda apreciação dos mercados como alocadores eficientes de recursos”, tanto que considera a eficiência a principal métrica de uma boa política. Embora ganhe prestígio por afiliação com graduados de universidades de elite, não é necessariamente derivado de pesquisa acadêmica de ponta. Em vez disso, como disse um pioneiro, “as ferramentas de análise que usamos são os conceitos mais simples e fundamentais da teoria econômica [que] a maioria de nós aprendeu no segundo ano”. Em outras palavras, precisamente as histórias pedagógicas just-so que Skidelsky critica.
Como e quando surgiu esse estilo? Berman traça a conjuntura chave para a década de 1960, décadas antes do apogeu do neoliberalismo sob Reagan. Foi durante esse período que dois grupos de economistas — analistas de sistemas prodígios da RAND Corporation, de um lado, economistas industriais da academia de elite, de outro — entraram no aparato do Estado, difundiram suas ideias, treinaram muitos outros e gradualmente mas inexoravelmente alteraram os mecanismos fundamentais da governança americana. Longe de ser uma ideologia estranha, idealizada por intelectuais de direita e imposta de fora, o estilo econômico nasceu no coração do estado democrático liberal de meados do século. A maioria de seus partidários se via como liberal (no sentido moderno, e não no sentido clássico), e todos eles admitiam a importância de uma ciência política neutra e isenta de valores. Eles não pretendiam reverter o governo, mas buscavam melhorar seu funcionamento com a imagem tecnocrática da eficiência, usando ferramentas microeconômicas para isso.
O alto escalão militar recusou suas recomendações estratégicas, mas a análise de sistemas logo ganhou o favor de suas aplicações às prioridades de gastos - uma preocupação crescente à medida que os orçamentos de defesa explodiam na era da Guerra Fria. Quando o presidente John F. Kennedy nomeou Robert McNamara, já famoso por trazer técnicas de gerenciamento estatístico para a Ford Motor Company, para liderar o Departamento de Defesa em 1961, McNamara encheu o Pentágono com todo um quadro de analistas da RAND. Eles decidiram aplicar a análise de sistemas a todo o orçamento de defesa em um programa que batizaram de Sistema de Planejamento-Programação-Orçamento (Planning-Programming-Budgeting System, ou PPBS). Abordagens orçamentárias convencionais foram viradas de cabeça para baixo. Em vez do método tradicional de somar os gastos de cada ramo e divisão, o PPBS começou com um conjunto de objetivos militares amplos e depois identificou a jusante a “combinação de equipamentos, homens, instalações e suprimentos” para alcançá-los com a melhor relação custo-benefício. Por mais prosaica que essa abordagem possa parecer hoje, ela exigiu uma transformação completa do Pentágono e um exército de novos analistas para fazer as medições, benchmarking e previsões necessárias. Em 1968, cerca de 1.000 funcionários trabalhavam em tempo integral para gerenciar e implementar o PPBS.
Em pouco tempo, o estilo econômico se estenderia muito além dos orçamentos de defesa. Em 1965, quando as pressões fiscais da escalada da Guerra do Vietnã ao lado da Grande Sociedade começaram a pesar, o presidente Lyndon Johnson viu no PPBS uma maneira de controlar os gastos em todos os setores e determinou seu uso em todos os departamentos e agências federais por ordem executiva. Embora esse estilo de orçamento nunca tenha sido totalmente implementado devido à lentidão burocrática e acabou sendo revogado por Nixon, a equipe inicialmente recrutada para executá-lo, argumenta Berman, foi essencial para disseminar o estilo econômico em todo o governo federal. Em primeira instância, cada departamento e agência foi obrigado a criar um “escritório de planejamento de políticas” (PPO) para monitoramento e implementação. Esses escritórios, que permaneceram mesmo após o fim da PBBS, eram predominantemente formados por PhDs em economia recentes recém-contratados e serviriam como “cabeças de ponte para o raciocínio econômico”. O caso equivalia a um enorme programa de engenharia social, reconfigurando a cultura organizacional de todo o governo federal.
Incentivos institucionais garantiram que as mudanças permanecessem. À medida que as sucessivas administrações presidenciais reequilibravam os gastos, as lutas pelo financiamento desencadearam uma corrida armamentista analítica; agências rivais contrataram economistas para defender seu território. Enquanto isso, para evitar depender dos números do poder executivo, o Congresso abriu seu próprio Congressional Budget Office (CBO) em 1974 e reorientou o Government Accounting Office para a análise de custo-benefício. Tudo isso gerou uma demanda constante por novos analistas, e as universidades aderiram. Entre 1967 e 1972, uma dúzia de novos programas acadêmicos foram estabelecidos na novíssima disciplina de “políticas públicas”, que enfatizava “microeconomia, macroeconomia, estatística... e elementos de pesquisa operacional e análise de decisão” modelados no protótipo RAND. O diretor fundador do programa de Duke foi enfático: “havia um mercado para produtos razoavelmente bem definidos — pessoas treinadas para fazer análises como as feitas na RAND!” Para não ficar atrás, a RAND lançou seu próprio Graduate Institute for Policy Studies em 1970.
Além de produzir um novo tipo de profissional, esses desenvolvimentos também levaram à criação de toda uma nova ecologia de instituições que vendem análises econômicas ao governo. O ímpeto veio dos escritórios de PPO premium colocados na coleta e avaliação de dados, mostra Berman. Em 1967, o secretário assistente de planejamento e avaliação, William Gorham, outro ex-aluno da RAND e indicado pelo LBJ, conseguiu que 1% do financiamento para a legislação de saúde infantil fosse reservado para avaliar a política. A mudança rapidamente se tornou uma prática padrão e logo centenas de milhões de dólares estavam disponíveis para pesquisas de avaliação em todo o governo federal. Muito disso seria contratado para novas organizações de pesquisa de políticas - o Urban Institute, MRDC e Mathematica (não confundir com o software) - que foram modeladas ou fortemente influenciadas pela RAND. E quem melhor para formar sua crescente equipe do que graduados em economia e políticas públicas?
Seria difícil exagerar o impacto que esse novo regime teve em todos os aspectos da governança americana. De forma sistemática e persuasiva, Berman documenta como isso afetou quase todas as principais áreas políticas do final dos anos 1960 e 1970. O efeito foi desmantelar a filosofia social expansiva refletida na histórica legislação da Grande Sociedade aprovada em 1964 e 1965 – em saúde, moradia, direitos civis, educação e pobreza – e substituí-la por uma lógica econômica estreita que valorizava a eficiência acima de tudo. Como Berman observa maliciosamente, não houve “pontuação” do projeto de lei do Medicare de 1965 pelo CBO: o escritório ainda não existia.
Tome educação. A Lei do Ensino Superior de 1965 priorizou a ajuda institucional direta como um bem público, especialmente em bolsas para universidades públicas. Mas, em 1969, o escritório analítico do Departamento de Saúde, Educação e Bem-Estar (HEW), liderado por Alice Rivlin, indicada por Johnson e PhD em economia de Harvard, argumentou que seria mais eficiente direcionar ajuda a indivíduos que usam empréstimos estudantis (na época não amplamente usado). A sociedade não apenas colheria ganhos de produtividade com o aumento do poder aquisitivo dos graduados universitários, mas o governo não estaria mais subsidiando as mensalidades dos alunos que pudessem pagar. O trabalho de Rivlin serviria como o projeto intelectual para a Lei de Reautorização do Ensino Superior de Nixon, de 1972, que desviou permanentemente a ajuda federal para empréstimos - colocando em movimento a moderna corrida armamentista de mensalidades. Um padrão semelhante se desenrolou no Departamento de Habitação e Desenvolvimento Urbano, cujos economistas militaram com sucesso para reorientar a política federal para longe do financiamento habitacional público no início dos anos 1970 e em direção à solução “eficiente” de vales familiares de baixa renda para habitação de mercado (atual Seção 8 ).
Ainda mais importante foi a arena-chave dos cuidados de saúde. Com base na análise concluída sob Rivlin, o HEW de Nixon lançou um experimento de $ 80 milhões - supervisionado pela RAND - testando a teoria econômica do "risco moral" (a ideia de que indivíduos totalmente segurados contra custos de saúde "exagerariam" os cuidados). Os resultados provaram ser politicamente úteis. Em resposta à pressão do senador Ted Kennedy por uma expansão universal da cobertura do Medicare no início dos anos 1970, Nixon fez seus economistas HEW elaborarem um plano alternativo baseado na competição de mercado, mandatos de empregadores privados e compartilhamento substancial de custos para evitar risco moral. Rivlin, tendo se mudado para a liberal Brookings Institution, protestou no New York Times contra o analfabetismo econômico da posição do trabalho organizado de que o seguro nacional de saúde deveria “fornecer cuidados gratuitos para todos sem qualquer compartilhamento de custos”, mas suas observações sobre o plano de Nixon foram muito mais quentes. O seguro universal de saúde nunca esteve tão perto de ser aprovado no Congresso quanto no início dos anos 1970 – a própria Rivlin achava que era “virtualmente certa” –, mas as propostas de Nixon tiveram sucesso em evitá-la. No lugar do seguro público universal, os Estados Unidos obtiveram co-pagamentos e planos de saúde baseados no emprego.
O segundo grupo que Berman segue são economistas de organização industrial (I/O), que estudam a relação entre empresas e mercados. Ao contrário dos analistas da RAND, eles vieram principalmente de Harvard e da Universidade de Chicago. O grupo de Harvard enfatizou questões como o poder de monopólio, enquanto seus rivais em Chicago tendiam a se concentrar nos preços, mas “o que eles compartilhavam era tão importante quanto o que não compartilhavam”, argumenta Berman. O denominador comum era a teoria neoclássica do equilíbrio parcial (expressa na linguagem da microeconomia) e um compromisso com a “eficiência alocativa como o principal objetivo da governança de mercado”. Essa orientação anulou a sabedoria predominante do sistema regulatório e jurídico existente, que havia priorizado a estabilidade e os esforços antitruste em face da “concorrência ruinosa”. Apesar das divergências teóricas, observa Berman, “as redes de I/O liberais e conservadoras se sobrepunham consideravelmente”.
Seu impacto mais pronunciado foi no sistema jurídico, onde foram pioneiros no subcampo de “direito e economia”. Harvard tinha figuras como Donald F. Turner, chefe da divisão antitruste do Departamento de Justiça de LBJ, e seu vice, o futuro juiz da Suprema Corte, Stephen Breyer. A nova abordagem foi ainda mais avançada em Chicago, que abrigava o Journal of Law and Economics (fundado em 1958) e figuras como Robert Bork (um crítico ferrenho da fiscalização antitruste e posteriormente o controverso candidato de Reagan à Suprema Corte), Ronald Coase (embora um economista, autor do artigo jurídico mais citado de todos os tempos) e Richard Posner (o principal estudioso de direito e economia das décadas seguintes). Juntos, esses homens disseminaram o estilo econômico por toda a elite acadêmica da década de 1960. Talvez de forma ainda mais influente, os currículos mudaram. O pensamento jurídico da metade do século já teve pouca utilidade para ideias econômicas; em 1973, no entanto, as aulas de teoria econômica eram uma exigência em 15 das 22 melhores faculdades de direito do país.
O impacto também não se limitou à academia. Figuras-chave de I/O começaram a assumir cargos administrativos no Departamento de Justiça e na Comissão Federal de Comércio no final da década de 1960 e lá permaneceram durante a década seguinte e além. Sob sua liderança, os casos passaram a ser conduzidos mais com base em questões de eficiência, em vez de violações legais ou concentração de mercado per se. Ao mesmo tempo, o estilo econômico floresceu na Brookings Institution, de centro-esquerda, associada a Harvard, e no conservador American Enterprise Institute (AEI), ambos com programas de pesquisa ativos sobre governança e regulamentação de mercado liderados por analistas econômicos. Enquanto isso, à medida que os argumentos econômicos se tornavam cada vez mais proeminentes nos casos jurídicos antitruste, os tribunais também lhes davam peso crescente — a ponto de quaisquer prioridades conflitantes se tornarem legalmente inadmissíveis. Em meados da década de 1970, o centro de gravidade mudou de Harvard para Chicago e Brookings para AEI, mas a eficiência continuou sendo o summum bonum da avaliação de políticas. Um dos resultados dessa trajetória foi a desregulamentação maciça do setor de transportes no final dos anos 1970, realizada sob as administrações de Ford e Carter de dentro da burocracia federal, na qual Breyer desempenhou um papel de liderança.
Entre as muitas vítimas está uma ambiciosa política ambiental. Após uma emenda de 1977 à Lei do Ar Limpo permitindo compensações de poluição, o PPO da EPA, liderado pelo ex-consultor da McKinsey Bill Drayton, argumentou que as metas de redução geral não eram econômicas. Em vez disso, as empresas devem ser autorizadas a contar as reduções em algumas partes de uma fábrica contra emissões estáveis ou crescentes em outros lugares. Este foi o primeiro passo na mercantilização dos direitos de poluição que, por fim, levou a abordagens cap-and-trade para a regulamentação do ozônio; os economistas propuseram a mesma abordagem para o clima por anos, levando a um fracasso espetacular de implementação nos Estados Unidos e a um impacto insignificante nas emissões na Europa até o momento. Como reiterou recentemente o Painel Intergovernamental sobre Mudanças Climáticas, os custos desse fracasso abrangente foram assombrosos.
Yale University Press, $25 (cloth)
"Aqueles que podem, fazem ciência", observou certa vez o economista Paul Samuelson. "Quem não pode, tagarela sobre metodologia." Até bem recentemente, essa parecia ser a atitude dominante entre os principais economistas, mas uma mudança radical ocorreu quando o sistema financeiro global começou a desmoronar em 2007. Na década e meia desde então — anos dolorosos de recuperação lenta, salários reais estagnados, desigualdade crescente, e revolta populista — a conversa reflexiva explodiu. Por que o crash não foi amplamente previsto? A culpa seria da "hipótese do mercado eficiente"? As lições da Grande Depressão foram esquecidas? E por que questões centrais sobre finanças, poder, desigualdade e capitalismo ainda estão ausentes do Economics 101?
Os debates mais visíveis centraram-se na macroeconomia — o estudo das características brutas da economia como um todo. Em jogo estão algumas das preocupações fundamentais do campo: o poder do gasto público e da criação de dinheiro, o papel dos bancos e os riscos de instrumentos financeiros complexos, a relação entre emprego, salários, inflação e taxas de juros, e a natureza e necessidade de crescimento. Dado o papel que os macromodelos desempenham no banco central e nos gastos públicos, essas não são questões meramente acadêmicas, mas questões urgentes de política pública — desde a resposta à pandemia até o Build Back Better e as novas guerras inflacionárias.
No entanto, todo esse Sturm und Drang macroeconômico obscureceu a unidade básica dos métodos microeconômicos empregados pela grande maioria dos economistas atuantes hoje, seja na academia, no governo ou na indústria. Abra um livro introdutório best-seller como Principles of Economics do professor de Harvard N. Gregory Mankiw (agora em sua nona edição), e os primeiros “princípios” que encontramos não são os fundamentos do crescimento ou do emprego, mas sim “custo de oportunidade, tomada de decisão marginal, o papel dos incentivos, os ganhos do comércio e a eficiência das alocações de mercado” — todas ideias microeconômicas. Muito mais do que quaisquer princípios centrais da teoria macroeconômica, é esse conjunto central de princípios microeconômicos que define e une a profissão econômica moderna. É também o que distingue os métodos convencionais, às vezes chamados de “neoclássicos”, das várias heterodoxias — marxista, austríaca, pós-keynesiana, ecológica — que a maioria dos economistas acadêmicos ignora cuidadosamente.
Embora algumas de suas raízes remontem a séculos, a microeconomia como a conhecemos nasceu nas décadas de 1930 e 1940, quando uma abordagem totalmente formalista e dedutiva para modelar o comportamento do mercado gradualmente, mas com firmeza, deslocou seus rivais historicistas e institucionalistas na profissão anglo-americana. Durante a Segunda Guerra Mundial, dezenas de economistas foram recrutados para aplicar modelos de otimização ao planejamento de guerra e, no pós-guerra, essa mudança foi ainda mais consolidada pela hegemonia global de técnicas intensamente matematizadas (uma tendência iniciada pelo próprio Samuelson). Essa revolução provou ser excepcionalmente durável — muito mais, na verdade, do que a “revolução keynesiana” na macroeconomia que inicialmente se desenrolou na mesma época.
Dada a enorme influência do pensamento econômico na vida moderna, é estranho que esses fundamentos microeconômicos tenham escapado amplamente ao escrutínio público. Três livros recentes ajudam a esclarecer as coisas. Cada um corteja livremente o desprezo de Samuelson, mostrando como a metodologia microeconômica estrutura não apenas a teoria e a prática da economia, mas as próprias instituições da governança americana. Diante dos desastres concatenados do presente, a economia terá de ser refeita, sugerem esses autores — por dentro e por fora.
Para uma visão geral acessível, o livro do historiador Robert Skidelsky, What’s Wrong with Economics? A Primer for the Perplexed é o melhor lugar para começar. Estimado biógrafo de John Maynard Keynes, Skidelsky há muito é um observador perspicaz do cenário econômico e desempenhou um papel importante na revitalização das ideias keynesianas na última década. No entanto, em contraste com trabalhos anteriores como Money and Government (2018), que procurou reimaginar o paradigma macroeconômico, este livro mergulha nos fundamentos microeconômicos. Embora leitores mais experientes encontrem aqui pouco de original ou surpreendente, a virtude do livro reside em sua síntese incisiva e altamente legível de material que nem sempre é reunido em um só lugar. Deve ser leitura obrigatória para qualquer pessoa nova no campo, estudantes e leitores em geral.
Os alvos de Skidelsky podem ser agrupados em três características principais do pensamento econômico contemporâneo: sua intensa matematização, seu retrato caricatural da psicologia humana e seu isolamento das outras ciências sociais. Alguns economistas, admite Skidelsky, podem objetar que ele apresenta uma caricatura própria. Eles estão certos, em certo sentido: ele dá mais atenção à teoria econômica do que à prática econômica, que mudou significativamente nas últimas décadas. Por outro lado, retruca Skidelsky, “é a caricatura que rege os livros didáticos” — e os livros didáticos importam. Eles funcionam, em particular, como instrumentos de doutrinação. Os estudantes poderiam resistir melhor ao “deslize para a ideologia”, sugere Skidelsky maliciosamente, se pressionassem seus professores universitários a defender os “modelos de brinquedo” que seus livros lhes lançam.
Considere primeiro a questão da confiança excessiva na matemática. Críticas nessa direção têm pelo menos um século, mas Skidelsky (seguindo Philip Mirowski, entre outros) encontra um tema unificador: a economia sofre de um grave caso de “inveja da física”. Para uma primeira aproximação, a técnica fundamental do pensamento econômico moderno é gerar modelos altamente simplificados de fenômenos de interesse, reduzindo a tremenda complexidade das economias realmente existentes a um formalismo matemático preciso e quantificável – assim como os físicos fazem para o mundo natural.
À medida que essa técnica decolou no século XX, grande parte da teoria econômica tornou-se ainda menos parecida com a física e mais parecida com a matemática pura: o objetivo era formular teoremas — quanto mais surpreendentes, melhor — e, mais importante, para prová-los, raciocinando por uma cadeia de consequências lógicas inatacáveis a partir de algumas suposições básicas (assim como um matemático pode provar um teorema em geometria ou teoria dos números). Uma das principais conquistas dessa abordagem axiomática é a moderna teoria do equilíbrio geral desenvolvida por Kenneth Arrow, Gérard Debreu e Lionel McKenzie na década de 1950, que demonstra como uma economia de mercado, em condições ideais, alcança a alocação perfeita de recursos. Assim como os matemáticos tinham seu “teorema fundamental da álgebra”, os economistas da metade do século desenvolveram seus próprios “teoremas fundamentais da economia do bem-estar”.
Nem todos os modelos econômicos são tão abstratos; outros estão mais próximos do terreno, examinando o comportamento de uma empresa sob determinados preços e restrições de oferta, digamos, ou indivíduos em um mercado de trabalho. De qualquer maneira, Skidelsky demonstra, a teorização econômica muitas vezes se preocupa menos com o desempenho do modelo do que com o rigor de sua lógica, até mesmo com sua elegância formal. (Sociologicamente falando, isso ocorre em parte porque a matematização dobrou como um mecanismo de classificação: para decidir quem consegue um emprego ou estabilidade, basta escolher o candidato que faz a matemática mais sofisticada.) Um modelo pode começar com suposições radicalmente insustentáveis, mas isso não é um ponto negativo, desde que seja logicamente consistente, esteticamente agradável em sua simplicidade e faça previsões precisas, como Milton Friedman argumentou em seu famoso artigo sobre “A Metodologia da Economia Positiva” (1953). A aquisição da realidade, continua o argumento, sempre pode ser melhorada por meio de revisões posteriores.
Para Skidelsky, o problema fundamental com essa metodologia é que, por imitar as explicações físicas do mundo natural, ela assume falsamente que regularidades semelhantes a leis também governam o mundo social – ou pelo menos que os modelos que assumem tal regularidade são “bons o suficiente”. (Sobre essas questões, Skidelsky curiosamente ignora o valioso estudo de Mary Morgan de 2012, The World in the Model: How Economists Work and Think.) Além disso, os pressupostos ideais dos modelos econômicos muitas vezes fazem um trabalho ideológico sutil ao reforçar o fundamentalismo laissez-faire e combinar os usos descritivos e preditivos dos modelos com seu papel prescritivo nas políticas públicas. Como disse certa vez o economista Frank Knight, o equilíbrio só pode ser deduzido sob suposições tão “heróicas” que têm pouca semelhança com a realidade. No entanto, quando as condições do mundo real fogem dessas suposições, muitos economistas agem como se a culpa fosse do mundo, não do modelo. Para eles, a questão é que os mercados devem ser deixados em paz, ou mesmo criados em domínios onde ainda não existem, de modo a deixar o mundo mais alinhado com o modelo, e não o modelo mais alinhado com o mundo.
Essa objeção não é nova, é claro. Os economistas tipicamente retrucam que o equilíbrio funciona como uma heurística útil, ou que alguns pesquisadores são simplesmente melhores do que outros - menos propensos a escorregar para a ideologia, mais propensos a usar modelos criteriosamente. “Os maus economistas, é claro, fazem má economia; mas não se deve confundir uma reclamação sobre qualidade com uma reclamação sobre metodologia”, entoou Paul Krugman em seu ensaio de 1998 “Two Cheers for Formalism”. O que esse argumento não percebe é que os riscos de uma má economia costumam ser muito maiores do que uma física ruim: estar errado sobre as ondas gravitacionais pode custar sua estabilidade, mas estar errado sobre o salário mínimo pode condenar dezenas de milhões à pobreza. O formalismo per se pode nem sempre ser um problema (embora possa ser quando exclui outras abordagens), mas a enorme influência social e política que tem certamente é. Aqueles investidos no rigor lógico do equilíbrio podem - e muitos o fazem - tentar fazer o mundo se comportar mais como a equação, por bem ou por mal.
Dados esses riscos, Skidelsky pensa que a reflexão metodológica explícita, longe da “tagarelice” condenada por Samuelson, é necessária para se proteger contra o exagero perigoso e a distorção ideológica. “A autoridade da economia deriva em grande parte de sua opacidade”, escreve Skidelsky. É o equilíbrio, ele pergunta, “uma propriedade necessária de um sistema de mercado, um referencial, um requisito lógico para previsão quantitativa ou um ideal matemático: bonito de se ver, mas de pouca relevância prática?” Mesmo quando tentam ser transparentes, os livros didáticos e os economistas ativos oferecem respostas muito diferentes. À luz do estrangulamento que a economia exerce sobre as políticas públicas, as implicações dessa ambigüidade central não são apenas filosóficas: são também políticas.
A imagem não é muito mais otimista, pensa Skidelsky, em domínios mais aplicados da microeconomia. (Embora ele não a mencione, esta categoria responde pela grande maioria das pesquisas de economistas acadêmicos hoje: a teoria por si só é agora mais relegada a livros didáticos do que a periódicos profissionais.) O problema é que a economia como um todo, e mesmo muitos segmentos menores dela, não podem ser submetidos ao tipo de isolamento experimental empreendido nas ciências físicas. As proposições econômicas, portanto, não estão sujeitas ao mesmo grau de falsificação que as físicas — apesar das ferramentas estatísticas sofisticadas da econometria moderna, por mais que tentem separar a correlação da causa. Mesmo quando a necessidade de revisão da teoria é admitida, ela é buscada de forma muito incremental, da forma mais conservadora possível. “Com o passar do tempo, as qualificações, as restrições e as exceções se acumularam”, disse certa vez o economista heterodoxo Piero Sraffa, até que “comeram, se não tudo, certamente a maior parte da teoria”. No entanto, com falhas manifestas explicadas como "atritos" menores no modelo, Skidelsky observa, "a teoria central" é protegida "de ataques". A economia, em outras palavras, gosta demais de seus epiciclos: há muito ela está atrasada para a revolução.
Além do mais, na medida em que descobertas empíricas robustas surgiram nas últimas décadas, os resultados muitas vezes estão em desacordo com as previsões da teoria microeconômica. O salário mínimo é um exemplo. Modelos de equilíbrio abstrato preveem que mínimos mais altos aumentam o desemprego. Quando o trabalho empírico começou a questionar essa presunção, a indignação de alguns economistas foi severa. “A relação inversa entre a quantidade demandada e o preço é a proposição central da ciência econômica”, trovejou o Prêmio Nobel James Buchanan no Wall Street Journal em 1996: "Assim como nenhum físico afirmaria que 'a água sobe', nenhum economista que se preze alegaria que aumentos no salário mínimo aumentam o emprego". No entanto, nas décadas seguintes, a pesquisa empírica falhou consistentemente em encontrar evidências para essa relação supostamente auto-evidente. Como devemos entender essa divergência entre teoria e realidade? Skidelsky acha que devemos concluir que "não há 'leis da economia' válidas em todos os tempos e lugares. Na melhor das hipóteses, as teorias podem levar a previsões aproximadamente confiáveis em períodos de tempo em que outras coisas permanecem as mesmas." Este pode ser o caso em circunstâncias muito especiais e limitadas, mas não pode ser verdade durante um longo período ou em um alto nível de generalidade.
O segundo alvo principal de What's Wrong with Economics? será mais familiar para os leitores em geral: o individualismo metodológico completo do campo e sua caricatura altamente estilizada e maximizadora de utilidade do Homo economicus. Os economistas se orgulham da artificialidade dessa construção, que justificam por sua utilidade para a modelagem. Na definição do Prêmio Nobel Thomas Sargent, uma pessoa é meramente um “problema de otimização estocástica, intertemporal e restrito”. Para Skidelsky, problemas críticos surgem quando perguntamos se essa “criatura desagradável” é simplesmente uma ferramenta teórica ou uma forma ideal a que os mortais de carne e osso devem aspirar. Tal como acontece com o equilíbrio, os livros didáticos e muitos economistas profissionais alternam entre respostas contraditórias. O quebra-cabeça também não foi resolvido pela ascensão da economia comportamental, apesar de seus engenhosos experimentos psicológicos demonstrarem como a racionalidade humana é “limitada” por uma variedade de vieses cognitivos. Falar de “aversão à perda” e “a falácia do custo irrecuperável” ainda pode servir para reificar um ideal platônico de comportamento racional. Para Skidelsky, isso é uma ilusão perigosa, pois sugere que podemos calcular nossa saída para decisões difíceis ou até mesmo deduzir nossa saída para um desacordo de uma vez por todas. Na realidade, "não há como escapar das escolhas morais".
Essas profundas questões metodológicas não tornam o conhecimento econômico totalmente inútil, sugere Skidelsky. Mas eles significam a economia como a conhecemos pode ter que ser descartada. “Para quais mundos o estudo da economia agrega valor único”, ele pergunta, “para quais mundos ele agrega aproximadamente a mesma quantidade de valor que outras ciências sociais, e para quais mundos ele não agrega nenhum valor, e mesmo diminui isso?” Skidelsky acredita claramente que este terceiro caso é verdadeiro em muitos mundos da vida pública. Em vez disso, deveríamos adotar uma atitude mais provisória, aberta e flexível em relação aos fenômenos econômicos e tratar a economia como (apenas) outra ciência social, em vez de uma supostamente purificada da incerteza por suas proezas lógicas. Concretamente, isso significa que devemos abandonar os sonhos de uma ciência imaculada da vida econômica – e parar de ceder àqueles que afirmam falar em seu nome. Mais abstratamente, no lugar de uma disciplina que negligencia o nível “mesoeconômico” – as instituições, empresas, sindicatos, sistemas bancários, movimentos sociais, plataformas digitais, estados e outras entidades sociais que moldam nosso comportamento – Skidelsky propõe uma abordagem “que é mais modesta em sua epistemologia e mais rica em sua ontologia”.
Isso nos leva à terceira crítica de Skidelsky: a economia isolou-se da sociologia, da ciência política, da ética e da história – em detrimento dela e nosso. Os argumentos de Skidelsky aqui se inspiram no que ele vê como um passado perdido e mais rico da economia política. Envolver a sociologia (os insights de Max Weber, digamos) e formas mais antigas de história econômica abriria espaço, ele argumenta, para uma análise econômica mais específica do contexto, bem como um holismo metodológico que considera sistematicamente as propriedades emergentes das instituições sociais. Reviver a obrigatoriedade de história do pensamento econômico em cursos de graduação exporia os alunos a metodologias radicalmente diferentes. Finalmente, um envolvimento mais sério com a ética reorientaria a economia da satisfação de desejos individuais teoricamente ilimitados para “o fim da pobreza absoluta e da doença”.
A modéstia radical, a transparência e o pluralismo que Skidelsky pede certamente seriam bem-vindos. Mas em um mundo onde os modelos microeconômicos estão sendo codificados nos algoritmos que governam cada vez mais nossa vida social e econômica, qual a probabilidade de que essas virtudes apareçam? Nesse ponto, Cogs and Monsters: What Economics Is, and What It Should Be, da economista britânica Diane Coyle, oferece uma avaliação mais realista.
O que diferencia o livro de Coyle de outras críticas recentes é sua perspectiva interna. Depois de obter seu doutorado em economia em Harvard em 1985 - o auge de um renascimento monetarista, ela lembra, bem como a revolução das expectativas racionais, quando todos estavam dispostos a "microfundar" a macroeconomia - Coyle conseguiu um emprego no Tesouro do Reino Unido na véspera de uma desregulamentação financeira maciça. Ela trabalhou vários anos como economista do governo antes de passar duas décadas no jornalismo financeiro e, por fim, ingressar na academia. Ao longo do caminho, ela escreveu regularmente para um público amplo; seus outros livros incluem The Soulful Science (2007) e GDP: A Brief but Affectionate History (2014).
Cogs and Monsters adapta palestras que Coyle deu na última década, e se nota. Os leitores que olharem além da repetição ocasional e da falta de objetivo estrutural, no entanto, encontrarão reflexões valiosas sobre o estado do campo e “as responsabilidades públicas do economista”. Coyle é previsivelmente defensivo de sua disciplina, cansado dos “espantalhos” atacados pelos críticos, mas o livro está cheio de anedotas esclarecedoras sobre a lacuna entre teoria e prática. Seu principal interesse é o que acontece quando modelos elegantes no papel são descuidadamente soltos pelo mundo.
Para seu crédito, Coyle está disposta a apontar o dedo para trechos de seu próprio campo. O principal problema, ela afirma, é que os economistas falharam amplamente em entender como eles moldam os próprios sistemas que estudam. Tomemos o modelo de Black-Scholes para a precificação de opções de ações (o tema do Nobel de 1997). Como mostraram sociólogos das finanças como Donald MacKenzie, essas ideias remodelaram os mercados financeiros à sua própria imagem: à medida que mais e mais traders seguiam o modelo, as avaliações reais correspondiam cada vez mais às suas previsões, aparentemente confirmando sua validade. Enquanto esses ajustes circulares se transformaram em um ciclo de destruição, os reguladores blasé fecharam os olhos para os fundamentos. O resultado foi que o risco sistêmico explodiu no mercado global de derivativos, ajudando a colocar o sistema financeiro global de joelhos em 2007-8.
Coyle argumenta que esse problema vai muito além das finanças. Ao adotar a “perspectiva de um forasteiro objetivo e onisciente”, os economistas em muitos domínios aplicados – especialmente a política pública – falham em explicar sua própria agência dentro do sistema. Os formuladores de políticas não apenas observam o mundo; eles intervêm nele. E como a economia real está repleta de ciclos de feedback e causalidade bidirecional, os modelos que não levam em consideração o papel dos formuladores de políticas – e como as pessoas podem responder às suas intervenções – estão destinados a ser enganosos.
Por que os modelos não podem ser ajustados para lidar com esses problemas ou antecipar consequências não intencionais? O problema é a hegemonia da base microeconômica sobre a qual os modelos são construídos. “O economista que acomoda a realidade, usando regras de ouro sem ‘microfundamentos’ – ou seja, relatos teóricos de ações no nível de cada indivíduo – será frequentemente criticado por ad hoc-ery por seus pares”, escreve Coyle. Periódicos de prestígio – que podem fazer ou quebrar uma carreira acadêmica – reforçam a mesma atitude. Ecoando Skidelsky, Coyle afirma que o campo deveria abandonar sua utopia de razão pura e, em vez disso, abraçar a natureza ad hoc de todas as aproximações da realidade. Isso significa abrir mais espaço para narrativas plausíveis, em vez de provas herméticas, e emprestar métodos qualitativos de ciências sociais vizinhas, como a sociologia e a antropologia. Afinal, como costuma-se dizer que Keynes (erroneamente!) observou, “é melhor estar aproximadamente certo do que exatamente errado”.
Onde Coyle se afasta de outros críticos é em sua afirmação de que grande parte dessa transformação já ocorreu. “A maioria dos economistas”, ela escreve, “faz pesquisa microeconômica aplicada, onde conjuntos de dados, técnicas econométricas, poder computacional e um animado debate metodológico sobre inferência causal significam que houve uma revolução efetiva no conhecimento e na prática desde a década de 1980”.
Em um nível, Coyle está correto: por muitas métricas, a profissão hoje realmente tem pouca semelhança com o mainstream neoclássico de meados do século. A parcela de publicações dedicadas ao trabalho empírico e aplicado aumentou constantemente desde a década de 1990; agora ultrapassa 60% em áreas como economia do trabalho, finanças públicas e economia do desenvolvimento. Os objetos de estudo também se expandiram significativamente; agora variam de identidade, cultura e desigualdade a mudanças climáticas, mobilidade social e expectativa de vida. Os ventos políticos também mudaram. Economistas proeminentes e convencionais em universidades de elite agora criticam livremente o libertarianismo econômico, como quando Suresh Naidu, Dani Rodrik e Gabriel Zucman repudiaram "slogans simplórios de 'mercados funcionam'" nestas páginas, três anos atrás. Apesar da caricatura pública às vezes merecida de “Econ 101”, essas mudanças começaram a se refletir no ensino, especialmente desde 2008. A própria Coyle, em seu trabalho com a tentativa do coletivo CORE de reconstruir o currículo universitário tradicional de economia, tem desempenhado um papel de liderança em tais esforços.
Há muita coisa encorajadora aqui, mas Coyle falha em perguntar se esta virada é tão revolucionária quanto parece. A superfície certamente mudou, mas em muitos aspectos a estrutura profunda abaixo permanece a mesma. Por um lado, a virada para o big data não eliminou o uso de modelos que ainda dependem predominantemente de fundamentos microeconômicos. Por outro lado, o fetiche da matematização ainda serve para expulsar um escrutínio epistêmico e político mais profundo, mesmo que agora opere de maneira mais estatística do que axiomática. Veja o trabalho altamente influente e divulgado do economista de Harvard, Raj Chetty - garoto-propaganda da revolução empírica, a quem Coyle cita com aprovação. Com rigor analítico e precisão causal, o laboratório de Chetty extrai grandes quantidades de dados para analisar a mobilidade social em níveis de granularidade sem precedentes. No entanto, apesar de toda essa proeza técnica, seu trabalho equivale a uma confirmação altamente sofisticada do óbvio: aqueles nascidos em desvantagem social raramente escapam disso. (Não importa que os reformadores sociais, socialistas e os próprios pobres tenham dito isso por séculos. Seus argumentos eram tendenciosos e anedóticos, devemos acreditar, mas os de Chetty contam como alta ciência graças à bênção da inferência causal.) Esse tipo de trabalho pode servir para cutucar a política nas margens – um crédito fiscal aqui, um voucher ali – mas, como argumentou o economista Marshall Steinbaum, ele permanece lamentavelmente inadequado diante das estruturas mais profundas responsáveis por tais resultados.
Essa possibilidade está logo abaixo da superfície de outro dos argumentos de Coyle: que a microeconomia aplicada do presente é certamente inadequada para as economias digitais do futuro. As “engrenagens” de seu título referem-se aos “indivíduos com interesse próprio assumidos pela economia dominante, interagindo como agentes independentes e calculistas em contextos definidos” – o Homo economicus espetado por Skidelsky. Os “monstros”, em contraste, são os “fenômenos de bola de neve, socialmente influenciados e sem amarras da economia digital”. Com alguma urgência, Coyle adverte que o kit de ferramentas microeconômico padrão, que trata todos e tudo como uma engrenagem, “está inadvertidamente criando monstros, fenômenos emergentes que não possui as ferramentas para entender”. Plataformas como Uber e Airbnb exibem efeitos de rede que não podem ser reduzidos a interações individuais, e a aceleração da mudança tecnológica está levando as pessoas a mudar rapidamente suas “preferências” ao longo do tempo.
Esses desenvolvimentos, adverte Coyle, tornam ainda mais difícil “sustentar a ideia de que especialistas econômicos podem ficar de fora da sociedade olhando para baixo com objetividade benigna, puxando alavancas”. Mesmo indicadores marcantes como o PIB parecem ter perdido sua utilidade. Para entender e administrar totalmente esse admirável mundo novo, sugere Coyle, alguns pressupostos microeconômicos centrais podem precisar ser descartados, e os formuladores de políticas podem precisar reconceber seu objetivo como coordenar as “regras do jogo” ou estabelecer “pontos focais”, em vez de cutucar o comportamento individual.
Ao longo do livro, Coyle é agradavelmente honesta sobre as deficiências de sua disciplina, consciente de sua capacidade de reinvenção e profundamente pensativa sobre alguns dos desafios que enfrentamos. Mesmo assim, seu título não pode deixar de evocar outros monstros, talvez mais assustadores - colapso ecológico, pandemias mortais, estagnação secular, desigualdade crescente, ressurgimento autoritário - que sua análise relega para as margens quando os menciona. Sua atribuição loquaz de polarização política ao “fracasso de algumas pessoas e lugares em experimentar melhorias econômicas” exibe uma característica de obtusidade política de grande parte da profissão. Logo na primeira página, Cogs and Monsters responde sem rodeios aos críticos pós-2008 da economia com a retorta de que ela “se tornou mais bem-sucedida do que nunca em termos de sua influência na formulação de políticas, ou mais materialmente em termos de renda que os graduados em economia podem ganhar." O fato de essas serem as primeiras defesas do campo que essa autora reformista pode reunir indica o quão profundo é o problema.
Embora Skidelsky e Coyle ofereçam reflexões penetrantes sobre teoria e prática econômica, nenhum deles tem muito a dizer sobre seu poder institucional. Para isso, é indispensável o livro Thinking Like an Economist: How Efficiency Replaced Equality in U.S. Public Policy, da socióloga Elizabeth Popp Berman. Profundamente pesquisado e poderosamente argumentado, é facilmente um dos estudos mais importantes da governança americana em muitos anos.
O livro apresenta uma contra-história de tipos do neoliberalismo, embora Berman raramente use o termo. A história de origem convencional se concentra em um pequeno grupo de intelectuais de direita que se reuniram em Mont Pèlerin, na Suíça, em 1947, em oposição ao crescente estado de bem-estar social do pós-guerra, e montaram uma onda de esforços de relações públicas apoiados por doadores para cargos no governo de Ronald Reagan e Margaret Thatcher. Estudos mais recentes expandiram o quadro, da Europa Central (na turbulência pós-imperial após a Primeira Guerra Mundial, da qual emergiram vários neoliberais importantes) ao Sul Global (onde uma onda de nações reconfigurou as relações de mercado-estado na sequência de crises de dívida no final dos anos 1970). No entanto, com algumas exceções notáveis, este trabalho ainda se concentra principalmente na direita e principalmente nos intelectuais. Berman adota uma abordagem diferente em ambas as frentes. Seu ponto de partida é a forma dominante de formulação de políticas nos Estados Unidos hoje – adotada por tecnocratas em ambos os principais partidos – e seu objeto de estudo não é um corpo intelectual de trabalho, mas um “estilo de raciocínio” particular que permeia as instituições do governo moderno, aquele que valoriza a “eficiência” acima de tudo.
Esse estilo será familiar para qualquer um que tenha assistido a um debate presidencial. Programas universais, ouvimos dizer, são menos eficientes do que políticas de teste de recursos porque subsidiam serviços para pessoas que podem pagar por eles. As emissões de carbono são tratadas de forma mais eficiente por meio de medidas de cap-and-trade do quepor mandatos rígidos. É melhor ter setores competitivos de energia e transporte do que introduzir regulamentação mais ineficiente. E como sabemos tudo isso? É o que diz aqui neste relatório, escrito por economistas apartidários.
Na visão de Berman, essas posições são todas produtos do que ela chama de estilo econômico, que “começa com conceitos microeconômicos básicos, como incentivos, várias formas de eficiência e externalidades” e emprega alguns padrões de pensamento característicos: “usar modelos para simplificar, quantificar, pesar custos e benefícios e pensar na margem.” Acima de tudo, o estilo econômico exibe “uma profunda apreciação dos mercados como alocadores eficientes de recursos”, tanto que considera a eficiência a principal métrica de uma boa política. Embora ganhe prestígio por afiliação com graduados de universidades de elite, não é necessariamente derivado de pesquisa acadêmica de ponta. Em vez disso, como disse um pioneiro, “as ferramentas de análise que usamos são os conceitos mais simples e fundamentais da teoria econômica [que] a maioria de nós aprendeu no segundo ano”. Em outras palavras, precisamente as histórias pedagógicas just-so que Skidelsky critica.
Como e quando surgiu esse estilo? Berman traça a conjuntura chave para a década de 1960, décadas antes do apogeu do neoliberalismo sob Reagan. Foi durante esse período que dois grupos de economistas — analistas de sistemas prodígios da RAND Corporation, de um lado, economistas industriais da academia de elite, de outro — entraram no aparato do Estado, difundiram suas ideias, treinaram muitos outros e gradualmente mas inexoravelmente alteraram os mecanismos fundamentais da governança americana. Longe de ser uma ideologia estranha, idealizada por intelectuais de direita e imposta de fora, o estilo econômico nasceu no coração do estado democrático liberal de meados do século. A maioria de seus partidários se via como liberal (no sentido moderno, e não no sentido clássico), e todos eles admitiam a importância de uma ciência política neutra e isenta de valores. Eles não pretendiam reverter o governo, mas buscavam melhorar seu funcionamento com a imagem tecnocrática da eficiência, usando ferramentas microeconômicas para isso.
O primeiro desses dois grupos surgiu da RAND, o think tank de Santa Monica criado no final da Segunda Guerra Mundial. Embora a RAND inicialmente se concentrasse na defesa, seus ambiciosos pesquisadores – muitos deles economistas – tornaram-se pioneiros em um modo de pensar que apelidaram de “análise de sistemas”. A ideia básica era usar ferramentas derivadas de pesquisa operacional e análise de custo-benefício para desenvolver uma abordagem racional para todos os “problemas de escolha” – não apenas para aviões bombardeiros, mas para qualquer objetivo concebível do governo. A microeconomia oferecia a estrutura ideal para esse empreendimento, argumentaram os analistas da RAND Charles Hitch e Roland McKean em The Economics of Defense in the Nuclear Age (1960), dada sua preocupação “com a alocação de recursos – escolha de doutrinas, equipamentos, técnicas etc. para aproveitar ao máximo os recursos disponíveis”.
O alto escalão militar recusou suas recomendações estratégicas, mas a análise de sistemas logo ganhou o favor de suas aplicações às prioridades de gastos - uma preocupação crescente à medida que os orçamentos de defesa explodiam na era da Guerra Fria. Quando o presidente John F. Kennedy nomeou Robert McNamara, já famoso por trazer técnicas de gerenciamento estatístico para a Ford Motor Company, para liderar o Departamento de Defesa em 1961, McNamara encheu o Pentágono com todo um quadro de analistas da RAND. Eles decidiram aplicar a análise de sistemas a todo o orçamento de defesa em um programa que batizaram de Sistema de Planejamento-Programação-Orçamento (Planning-Programming-Budgeting System, ou PPBS). Abordagens orçamentárias convencionais foram viradas de cabeça para baixo. Em vez do método tradicional de somar os gastos de cada ramo e divisão, o PPBS começou com um conjunto de objetivos militares amplos e depois identificou a jusante a “combinação de equipamentos, homens, instalações e suprimentos” para alcançá-los com a melhor relação custo-benefício. Por mais prosaica que essa abordagem possa parecer hoje, ela exigiu uma transformação completa do Pentágono e um exército de novos analistas para fazer as medições, benchmarking e previsões necessárias. Em 1968, cerca de 1.000 funcionários trabalhavam em tempo integral para gerenciar e implementar o PPBS.
Em pouco tempo, o estilo econômico se estenderia muito além dos orçamentos de defesa. Em 1965, quando as pressões fiscais da escalada da Guerra do Vietnã ao lado da Grande Sociedade começaram a pesar, o presidente Lyndon Johnson viu no PPBS uma maneira de controlar os gastos em todos os setores e determinou seu uso em todos os departamentos e agências federais por ordem executiva. Embora esse estilo de orçamento nunca tenha sido totalmente implementado devido à lentidão burocrática e acabou sendo revogado por Nixon, a equipe inicialmente recrutada para executá-lo, argumenta Berman, foi essencial para disseminar o estilo econômico em todo o governo federal. Em primeira instância, cada departamento e agência foi obrigado a criar um “escritório de planejamento de políticas” (PPO) para monitoramento e implementação. Esses escritórios, que permaneceram mesmo após o fim da PBBS, eram predominantemente formados por PhDs em economia recentes recém-contratados e serviriam como “cabeças de ponte para o raciocínio econômico”. O caso equivalia a um enorme programa de engenharia social, reconfigurando a cultura organizacional de todo o governo federal.
Incentivos institucionais garantiram que as mudanças permanecessem. À medida que as sucessivas administrações presidenciais reequilibravam os gastos, as lutas pelo financiamento desencadearam uma corrida armamentista analítica; agências rivais contrataram economistas para defender seu território. Enquanto isso, para evitar depender dos números do poder executivo, o Congresso abriu seu próprio Congressional Budget Office (CBO) em 1974 e reorientou o Government Accounting Office para a análise de custo-benefício. Tudo isso gerou uma demanda constante por novos analistas, e as universidades aderiram. Entre 1967 e 1972, uma dúzia de novos programas acadêmicos foram estabelecidos na novíssima disciplina de “políticas públicas”, que enfatizava “microeconomia, macroeconomia, estatística... e elementos de pesquisa operacional e análise de decisão” modelados no protótipo RAND. O diretor fundador do programa de Duke foi enfático: “havia um mercado para produtos razoavelmente bem definidos — pessoas treinadas para fazer análises como as feitas na RAND!” Para não ficar atrás, a RAND lançou seu próprio Graduate Institute for Policy Studies em 1970.
Além de produzir um novo tipo de profissional, esses desenvolvimentos também levaram à criação de toda uma nova ecologia de instituições que vendem análises econômicas ao governo. O ímpeto veio dos escritórios de PPO premium colocados na coleta e avaliação de dados, mostra Berman. Em 1967, o secretário assistente de planejamento e avaliação, William Gorham, outro ex-aluno da RAND e indicado pelo LBJ, conseguiu que 1% do financiamento para a legislação de saúde infantil fosse reservado para avaliar a política. A mudança rapidamente se tornou uma prática padrão e logo centenas de milhões de dólares estavam disponíveis para pesquisas de avaliação em todo o governo federal. Muito disso seria contratado para novas organizações de pesquisa de políticas - o Urban Institute, MRDC e Mathematica (não confundir com o software) - que foram modeladas ou fortemente influenciadas pela RAND. E quem melhor para formar sua crescente equipe do que graduados em economia e políticas públicas?
Seria difícil exagerar o impacto que esse novo regime teve em todos os aspectos da governança americana. De forma sistemática e persuasiva, Berman documenta como isso afetou quase todas as principais áreas políticas do final dos anos 1960 e 1970. O efeito foi desmantelar a filosofia social expansiva refletida na histórica legislação da Grande Sociedade aprovada em 1964 e 1965 – em saúde, moradia, direitos civis, educação e pobreza – e substituí-la por uma lógica econômica estreita que valorizava a eficiência acima de tudo. Como Berman observa maliciosamente, não houve “pontuação” do projeto de lei do Medicare de 1965 pelo CBO: o escritório ainda não existia.
Tome educação. A Lei do Ensino Superior de 1965 priorizou a ajuda institucional direta como um bem público, especialmente em bolsas para universidades públicas. Mas, em 1969, o escritório analítico do Departamento de Saúde, Educação e Bem-Estar (HEW), liderado por Alice Rivlin, indicada por Johnson e PhD em economia de Harvard, argumentou que seria mais eficiente direcionar ajuda a indivíduos que usam empréstimos estudantis (na época não amplamente usado). A sociedade não apenas colheria ganhos de produtividade com o aumento do poder aquisitivo dos graduados universitários, mas o governo não estaria mais subsidiando as mensalidades dos alunos que pudessem pagar. O trabalho de Rivlin serviria como o projeto intelectual para a Lei de Reautorização do Ensino Superior de Nixon, de 1972, que desviou permanentemente a ajuda federal para empréstimos - colocando em movimento a moderna corrida armamentista de mensalidades. Um padrão semelhante se desenrolou no Departamento de Habitação e Desenvolvimento Urbano, cujos economistas militaram com sucesso para reorientar a política federal para longe do financiamento habitacional público no início dos anos 1970 e em direção à solução “eficiente” de vales familiares de baixa renda para habitação de mercado (atual Seção 8 ).
Ainda mais importante foi a arena-chave dos cuidados de saúde. Com base na análise concluída sob Rivlin, o HEW de Nixon lançou um experimento de $ 80 milhões - supervisionado pela RAND - testando a teoria econômica do "risco moral" (a ideia de que indivíduos totalmente segurados contra custos de saúde "exagerariam" os cuidados). Os resultados provaram ser politicamente úteis. Em resposta à pressão do senador Ted Kennedy por uma expansão universal da cobertura do Medicare no início dos anos 1970, Nixon fez seus economistas HEW elaborarem um plano alternativo baseado na competição de mercado, mandatos de empregadores privados e compartilhamento substancial de custos para evitar risco moral. Rivlin, tendo se mudado para a liberal Brookings Institution, protestou no New York Times contra o analfabetismo econômico da posição do trabalho organizado de que o seguro nacional de saúde deveria “fornecer cuidados gratuitos para todos sem qualquer compartilhamento de custos”, mas suas observações sobre o plano de Nixon foram muito mais quentes. O seguro universal de saúde nunca esteve tão perto de ser aprovado no Congresso quanto no início dos anos 1970 – a própria Rivlin achava que era “virtualmente certa” –, mas as propostas de Nixon tiveram sucesso em evitá-la. No lugar do seguro público universal, os Estados Unidos obtiveram co-pagamentos e planos de saúde baseados no emprego.
O segundo grupo que Berman segue são economistas de organização industrial (I/O), que estudam a relação entre empresas e mercados. Ao contrário dos analistas da RAND, eles vieram principalmente de Harvard e da Universidade de Chicago. O grupo de Harvard enfatizou questões como o poder de monopólio, enquanto seus rivais em Chicago tendiam a se concentrar nos preços, mas “o que eles compartilhavam era tão importante quanto o que não compartilhavam”, argumenta Berman. O denominador comum era a teoria neoclássica do equilíbrio parcial (expressa na linguagem da microeconomia) e um compromisso com a “eficiência alocativa como o principal objetivo da governança de mercado”. Essa orientação anulou a sabedoria predominante do sistema regulatório e jurídico existente, que havia priorizado a estabilidade e os esforços antitruste em face da “concorrência ruinosa”. Apesar das divergências teóricas, observa Berman, “as redes de I/O liberais e conservadoras se sobrepunham consideravelmente”.
Seu impacto mais pronunciado foi no sistema jurídico, onde foram pioneiros no subcampo de “direito e economia”. Harvard tinha figuras como Donald F. Turner, chefe da divisão antitruste do Departamento de Justiça de LBJ, e seu vice, o futuro juiz da Suprema Corte, Stephen Breyer. A nova abordagem foi ainda mais avançada em Chicago, que abrigava o Journal of Law and Economics (fundado em 1958) e figuras como Robert Bork (um crítico ferrenho da fiscalização antitruste e posteriormente o controverso candidato de Reagan à Suprema Corte), Ronald Coase (embora um economista, autor do artigo jurídico mais citado de todos os tempos) e Richard Posner (o principal estudioso de direito e economia das décadas seguintes). Juntos, esses homens disseminaram o estilo econômico por toda a elite acadêmica da década de 1960. Talvez de forma ainda mais influente, os currículos mudaram. O pensamento jurídico da metade do século já teve pouca utilidade para ideias econômicas; em 1973, no entanto, as aulas de teoria econômica eram uma exigência em 15 das 22 melhores faculdades de direito do país.
O impacto também não se limitou à academia. Figuras-chave de I/O começaram a assumir cargos administrativos no Departamento de Justiça e na Comissão Federal de Comércio no final da década de 1960 e lá permaneceram durante a década seguinte e além. Sob sua liderança, os casos passaram a ser conduzidos mais com base em questões de eficiência, em vez de violações legais ou concentração de mercado per se. Ao mesmo tempo, o estilo econômico floresceu na Brookings Institution, de centro-esquerda, associada a Harvard, e no conservador American Enterprise Institute (AEI), ambos com programas de pesquisa ativos sobre governança e regulamentação de mercado liderados por analistas econômicos. Enquanto isso, à medida que os argumentos econômicos se tornavam cada vez mais proeminentes nos casos jurídicos antitruste, os tribunais também lhes davam peso crescente — a ponto de quaisquer prioridades conflitantes se tornarem legalmente inadmissíveis. Em meados da década de 1970, o centro de gravidade mudou de Harvard para Chicago e Brookings para AEI, mas a eficiência continuou sendo o summum bonum da avaliação de políticas. Um dos resultados dessa trajetória foi a desregulamentação maciça do setor de transportes no final dos anos 1970, realizada sob as administrações de Ford e Carter de dentro da burocracia federal, na qual Breyer desempenhou um papel de liderança.
Outro efeito foi transformar a regulamentação em áreas onde ela não foi eliminada. Uma série de projetos de lei aprovados entre 1966 e 1973 instituiu importantes novos regimes regulatórios, desde ar e água até segurança ocupacional e proteção ambiental. Suspeitando do aperto dos economistas sobre a burocracia federal, os partidários liberais no Congresso projetaram intencionalmente esses projetos de lei com mandatos legais estritos e inflexíveis, alegando que abordagens mais brandas estariam abertas à captura regulatória pela indústria; peças-chave da legislação chegaram ao ponto de proibir totalmente as considerações de custo. No entanto, o estilo econômico não foi derrotado tão facilmente. Uma decisão judicial histórica em 1971 concluiu que um requisito fundamental da Lei de Política Ambiental Nacional - que as agências executivas emitam declarações de impacto ambiental sobre suas atividades - também exigia uma análise econômica de custo-benefício. Movimentos sucessivos do governo Nixon e Carter centralizaram esse sistema, exigindo que as agências executassem suas análises na Casa Branca. Na esteira desses desenvolvimentos, grupos industriais inundaram o governo com dados demonstrando os altos custos desta ou daquela proposta, e as agências responderam com seus próprios contra-argumentos econômicos. O resultado foi um papel cada vez mais hegemônico para o estilo econômico, mesmo na aplicação de legislação explicitamente escrita para evitá-lo.
Entre as muitas vítimas está uma ambiciosa política ambiental. Após uma emenda de 1977 à Lei do Ar Limpo permitindo compensações de poluição, o PPO da EPA, liderado pelo ex-consultor da McKinsey Bill Drayton, argumentou que as metas de redução geral não eram econômicas. Em vez disso, as empresas devem ser autorizadas a contar as reduções em algumas partes de uma fábrica contra emissões estáveis ou crescentes em outros lugares. Este foi o primeiro passo na mercantilização dos direitos de poluição que, por fim, levou a abordagens cap-and-trade para a regulamentação do ozônio; os economistas propuseram a mesma abordagem para o clima por anos, levando a um fracasso espetacular de implementação nos Estados Unidos e a um impacto insignificante nas emissões na Europa até o momento. Como reiterou recentemente o Painel Intergovernamental sobre Mudanças Climáticas, os custos desse fracasso abrangente foram assombrosos.
A hegemonia institucional do estilo econômico perdura até hoje. Os efeitos foram profundos. Foi a institucionalização do estilo econômico pelos democratas – “por meio de estruturas legais, regras administrativas e mudanças organizacionais” – que cimentou a guinada para a direita do partido, conclui Berman, restringindo sua capacidade de fazer políticas significativas nos governos Clinton e Obama. Na verdade, como Berman detalha em um capítulo sobre o governo Reagan, os conservadores eram manejadores muito mais oportunistas do estilo econômico do que os liberais, adotando sua análise quando se alinhava com valores preexistentes (digamos, sobre a desregulamentação), mas deixando de lado em áreas onde não o fazia (bem-estar e meio ambiente). Como em tantas outras dinâmicas na política americana, essa assimetria estratégica empurrou o resultado cada vez mais para a direita. Reunida, a história de Berman oferece uma moral política condenatória: o sonho liberal de governança racional produziu seus próprios monstros.
Berman termina o livro abordando diretamente os progressistas. Reformas ambiciosas – como o Medicare for All ou um Green New Deal – só serão alcançadas, ela insiste, “desnaturalizando” e deslocando parcialmente o estilo econômico. O “artifício” de sua neutralidade obscurece o fato de que a eficiência tornou-se “um valor próprio”. Reconhecer isso forçaria a eficiência a competir com outros valores no domínio político – entre eles equidade, igualdade e justiça. Isso exigiria não apenas o desenvolvimento de formas alternativas de especialização, mas também a eliminação dos “pontos de veto” legais e institucionais que dão poder ao estilo econômico. Em suma, os democratas devem se tornar mais parecidos com os republicanos em um aspecto crucial: “quando nossos valores se alinham com os da economia, devemos abraçar as muitas ferramentas úteis que ela tem a oferecer. Mas quando eles entram em conflito, devemos estar dispostos a advogar — sem desculpas — por alternativas”.
Com consideravelmente mais concretude do que Skidelsky ou Coyle, Berman detalha precisamente como a economia contribuiu para nosso mal-estar atual. Não é apenas que os modelos simplificam demais a realidade, que os políticos muitas vezes acatam alegações de expertise econômica neutra, ou que essa expertise em si pode se transformar em ideologia. O problema é muito mais fundamental: uma versão perigosamente simplificada de ideias microeconômicas é legal e institucionalmente tecida no próprio tecido da governança americana, em grande parte invisível e inexplicável ao público.
No entanto, a força do argumento de Berman é lamentavelmente enfraquecida ao evitar uma crítica da própria eficiência. Para usar a linguagem bayesiana que se tornou de rigueur na economia profissional, um leitor com diferentes “prioridades” políticas poderia ler sua história como o triunfo constante e bem-vindo da análise tecnocrática sobre a irracionalidade bárbara. Deste ponto de vista, o entrincheiramento do estilo econômico é nada menos que uma marcha para a perfeição, e apelar para ele oportunisticamente só pode ser a expressão de uma perigosa vontade de poder.
Na realidade, “eficiência” dificilmente é a medida objetiva que muitos consideram ser. A discussão de Coyle sobre economias digitais oferece um exemplo. Pelas contas oficiais, a Internet deu uma contribuição negativa para o crescimento do PIB dos EUA no início de 2010, no exato momento em que a banda larga e a tecnologia móvel explodiram — uma observação que deve nos dar uma pista sobre a construção social de fatos econômicos supostamente “neutros”. Quer se trate de indicadores econômicos ou parâmetros-chave do modelo, como taxas de desconto, quanto mais a caixa preta é aberta, menos naturais e objetivos os cálculos de eficiência começam a parecer — como qualquer economista do governo sob pressão política para "empilhar o baralho" de um custo-benefício exercício pode lhe dizer.
Além disso, como apontam Skidelsky e Coyle, há valores em jogo. Uma medida padrão, chamada de bem-estar ou eficiência de Kaldor-Hicks, presume que as comparações interpessoais de utilidade são impossíveis. Quem pode dizer que o preço relatado de US$ 500 milhões do iate de Jeff Bezos representa menos utilidade para ele do que um aumento salarial para seus 1,3 milhão de funcionários? Quando se tornou ortodoxia na década de 1930, essa proibição de comparação interpessoal efetivamente excluiu qualquer discussão sobre redistribuição de renda. Como escreve Coyle, “a economia restringiu sua capacidade de avaliar o bem-estar social ao considerar situações em que há vencedores e perdedores — que é quase todos os contextos políticos — fora de alcance”.
O que é pode ser feito? Como libertar o Estado da prisão da eficiência? Se a história servir de guia, é improvável que a mudança ocorra dentro da disciplina, apesar das melhores intenções dos economistas reformistas. Em vez disso, alguma esperança para uma transformação mais radical pode residir na repolitização da expertise já em andamento. O ideal tecnocrático que transformou a economia em uma “ciência” de governo sem valor parece estar entrando em colapso. Certamente, o terreno que se abre foi ocupado por muita paranóia, conspiração e irracionalismo, mas a economia radical da vida pública tem uma responsabilidade considerável pelo deslocamento social que trouxe à existência essas forças obscuras. Como Berman nos ajuda a entender, essa transformação foi moldada por escolhas políticas, e as instituições nunca são esculpidas em pedra. A alteração do curso exigirá a mais abrangente reengenharia de governança em mais de cinquenta anos, mas há pouca alternativa: os monstros já estão aqui.
Simon Torracinta
Simon Torracinta é doutorando em História da Ciência e Medicina na Universidade de Yale. Seus textos também apareceram em n+1 e The New Inquiry.
No entanto, a força do argumento de Berman é lamentavelmente enfraquecida ao evitar uma crítica da própria eficiência. Para usar a linguagem bayesiana que se tornou de rigueur na economia profissional, um leitor com diferentes “prioridades” políticas poderia ler sua história como o triunfo constante e bem-vindo da análise tecnocrática sobre a irracionalidade bárbara. Deste ponto de vista, o entrincheiramento do estilo econômico é nada menos que uma marcha para a perfeição, e apelar para ele oportunisticamente só pode ser a expressão de uma perigosa vontade de poder.
Na realidade, “eficiência” dificilmente é a medida objetiva que muitos consideram ser. A discussão de Coyle sobre economias digitais oferece um exemplo. Pelas contas oficiais, a Internet deu uma contribuição negativa para o crescimento do PIB dos EUA no início de 2010, no exato momento em que a banda larga e a tecnologia móvel explodiram — uma observação que deve nos dar uma pista sobre a construção social de fatos econômicos supostamente “neutros”. Quer se trate de indicadores econômicos ou parâmetros-chave do modelo, como taxas de desconto, quanto mais a caixa preta é aberta, menos naturais e objetivos os cálculos de eficiência começam a parecer — como qualquer economista do governo sob pressão política para "empilhar o baralho" de um custo-benefício exercício pode lhe dizer.
Além disso, como apontam Skidelsky e Coyle, há valores em jogo. Uma medida padrão, chamada de bem-estar ou eficiência de Kaldor-Hicks, presume que as comparações interpessoais de utilidade são impossíveis. Quem pode dizer que o preço relatado de US$ 500 milhões do iate de Jeff Bezos representa menos utilidade para ele do que um aumento salarial para seus 1,3 milhão de funcionários? Quando se tornou ortodoxia na década de 1930, essa proibição de comparação interpessoal efetivamente excluiu qualquer discussão sobre redistribuição de renda. Como escreve Coyle, “a economia restringiu sua capacidade de avaliar o bem-estar social ao considerar situações em que há vencedores e perdedores — que é quase todos os contextos políticos — fora de alcance”.
O que é pode ser feito? Como libertar o Estado da prisão da eficiência? Se a história servir de guia, é improvável que a mudança ocorra dentro da disciplina, apesar das melhores intenções dos economistas reformistas. Em vez disso, alguma esperança para uma transformação mais radical pode residir na repolitização da expertise já em andamento. O ideal tecnocrático que transformou a economia em uma “ciência” de governo sem valor parece estar entrando em colapso. Certamente, o terreno que se abre foi ocupado por muita paranóia, conspiração e irracionalismo, mas a economia radical da vida pública tem uma responsabilidade considerável pelo deslocamento social que trouxe à existência essas forças obscuras. Como Berman nos ajuda a entender, essa transformação foi moldada por escolhas políticas, e as instituições nunca são esculpidas em pedra. A alteração do curso exigirá a mais abrangente reengenharia de governança em mais de cinquenta anos, mas há pouca alternativa: os monstros já estão aqui.
Simon Torracinta
Simon Torracinta é doutorando em História da Ciência e Medicina na Universidade de Yale. Seus textos também apareceram em n+1 e The New Inquiry.
Nenhum comentário:
Postar um comentário