O MACROECONOMISTA COMO CIENTISTA E ENGENHEIRO

NBER WORKING PAPER SERIES O MACROECONOMISTA COMO CIENTISTA E ENGENHEIRO N. Gregory Mankiw Texto para Discussão 12349 http://www.nber.org/papers/w1234...
0 downloads 0 Views 209KB Size
NBER WORKING PAPER SERIES

O MACROECONOMISTA COMO CIENTISTA E ENGENHEIRO N. Gregory Mankiw Texto para Discussão 12349 http://www.nber.org/papers/w12349

NATIONAL BUREAU OF ECONOMIC RESEARCH (Bureau Nacional de Pesquisas Econômicas)

1050 Massachusetts Avenue Cambridge, MA 02138 Junho de 2006

N. Gregory Mankiw é Professor de Economia, titular da cadeira Robert M. Beren da Universidade de Harvard, em Cambridge, MA. É grato a Steven Braun, James Hines, Donald Marron, David Romer, Andrei Shleifer, Timothy Taylor, Michael Waldman e Noam Yuchtman pelos valiosos comentários. Os pontos de vista aqui expressos são os do autor e não refletem necessariamente os do Bureau Nacional de Pesquisas Econômicas. Tradução (em outubro/2008) de Renato Mayer e revisão de Claudio Monteiro Considera, professor da UFF

O Macroeconomista como Cientista e Engenheiro N. Gregory Mankiw Texto para Discussão NBER nº 12349 Junho de 2006

RESUMO Este ensaio apresenta uma breve história da macroeconomia, junto com uma avaliação do que se pôde aprender nas últimas décadas. Baseia-se na premissa de que este campo evoluiu pelos esforços de dois tipos de macroeconomistas: aqueles que entendem o campo como um tipo de engenharia e aqueles que o vêem mais como uma ciência. Embora os primeiros macroeconomistas fossem engenheiros voltados para a solução de problemas práticos, os macroeconomistas têm, mais recentemente, se centrado em desenvolver um ferramental analítico e em estabelecer princípios teóricos. Essas ferramentas e princípios, no entanto, têm-se mostrado lentas para encontrar seu caminho em aplicações. À medida que o campo da macroeconomia tem evoluído, um tema recorrente é a interação, às vezes produtiva, às vezes não, entre os cientistas e os engenheiros.

N. Gregory Mankiw Departamento de Economia Universidade de Harvard Cambridge, MA 02138 e NBER [email protected]

2

Economistas gostam de posar como cientistas. Sei, porque faço o mesmo com freqüência. Quando dou aulas para graduandos, descrevo muito conscientemente o campo da economia como o de uma ciência, de modo que nenhum aluno comece o curso achando que está embarcando em alguma iniciativa acadêmica meia amorfa. Nossos colegas do departamento de física do campus acham divertido que os vejamos como primos próximos, mas somos rápidos em lembrar a qualquer um disposto a ouvir que os economistas formulam teorias com precisão matemática, coletam enormes conjuntos de dados, tanto sobre o comportamento individual como agregado, e exploram as técnicas estatísticas mais sofisticadas para emitir julgamentos empíricos livres de vieses e de ideologias (ou pelo menos assim imaginamos). Tendo passado recentemente dois anos na qualidade de assessor econômico, a um tempo em que a economia dos EUA lutava para sair de uma recessão, vem-me à memória que o subcampo da macroeconomia não nasceu como uma ciência, mas, principalmente, como um tipo de engenharia. Deus pôs os macroeconomistas na terra não para propor e testar teorias elegantes, mas para solucionar problemas práticos. Os problemas que Ele nos deu, ademais, não eram modestos em sua dimensão. O problema que deu origem ao nosso campo – a Grande Depressão dos anos 1930 – foi uma virada para baixo em uma escala sem precedentes, incluindo rendas tão contraídas e desemprego tão espalhado que não é exagero dizer que a viabilidade do sistema capitalista foi posta em questão. Este ensaio oferece uma breve história da macroeconomia, junto com uma avaliação do que aprendemos nesse meio tempo. Minha premissa é que o campo deve sua evolução aos esforços de dois tipos de macroeconomistas: aqueles que entendem o campo como um tipo de engenharia e aqueles que o vêem mais como uma ciência. Os engenheiros são, em primeiro lugar e primordialmente, solucionadores de problemas. Em contraste, o objetivo dos cientistas é entender como o mundo funciona. A ênfase de pesquisa dos macroeconomistas variou no tempo por entre essas duas motivações. Enquanto os primeiros macroeconomistas eram engenheiros buscando a solução de problemas práticos, os macroeconomistas das últimas décadas têm-se mostrado mais interessados em desenvolver ferramentas analíticas e em estabelecer princípios teóricos. Essas ferramentas e princípios, no entanto, têm-se mostrado lentas para encontrar seu caminho em aplicações. À medida que o campo da macroeconomia tem evoluído, um tema recorrente é a interação, às vezes produtiva, às vezes não, entre os cientistas e os engenheiros. A substancial falta de conexão entre a ciência e a engenharia da macroeconomia deveria se impor como um elemento de humildade para todos nós que trabalhamos neste campo. Para evitar qualquer tipo de confusão, devo dizer logo no início que a história que vou contar não tem bandidos nem mocinhos. Nem cientistas, nem engenheiros alegam uma virtude superior. A história também não é uma de pensadores profundos e bombeiros hidráulicos simplistas. Os professores de ciências tipicamente não são melhores na resolução de problemas de engenharia do que os professores de engenharia na solução de problemas científicos. Em ambos os casos, os problemas que se apresentam são difíceis, tanto quanto intelectualmente instigantes. 3

Assim como o mundo necessita tanto de cientistas como de engenheiros, carece de macroeconomistas de ambos os padrões. Mas eu acredito que a disciplina avançaria com mais suavidade e com mais frutos se os macroeconomistas tivessem sempre em mente que o seu campo tem feições duais. A revolução keynesiana A palavra “macroeconomia” apareceu pela primeira vez na literatura acadêmica nos anos quarenta. Na verdade, os tópicos de que trata a macroeconomia – inflação, desemprego, crescimento econômico, o ciclo de negócios e a política monetária e fiscal – vinham há muito intrigando os economistas. No século dezoito, por exemplo, David Hume (1752) escreveu sobre os efeitos de curto prazo e de longo prazo das injeções de moeda; sua análise assemelha-se notavelmente em muitos pontos com a que hoje poderia ser atribuída a um moderno economista monetário ou membro do banco central. Em 1927, Arthur Pigou publicou um livro intitulado Flutuações da Indústria, no qual buscava uma explicação para o ciclo de negócios. Não obstante, o campo da macroeconomia enquanto área distinta e ativa de investigação surgiu somente nas sombras da Grande Depressão. Nada como uma crise para direcionar a mente em determinado sentido. A Grande Depressão teve um impacto profundo naqueles que a viveram. Em 1933, o índice de desemprego dos EUA alcançou 25 por cento e o PIB real estava 31 por cento abaixo do nível de 1929. Todas as flutuações subseqüentes da economia americana não passaram de marolas em mar calmo comparadas com este tsunami. Ensaios autobiográficos de proeminentes economistas desta época, como Lawrence Klein, Franco Modigliani, Paul Samuelson, Roberto Solow e James Tobin, confirmam que a Depressão foi o evento chave motivador de suas carreiras. (Breit e Hirsch, 2004) A Teoria Geral, de John Maynard Keynes, foi o ponto focal das discussões no seio da profissão sobre como compreender aqueles fenômenos em curso. Todos esses cinco Prêmios Nobel o confirmam em primeira mão. Tobin relata a seguinte reação da Universidade de Harvard, onde estudava no final dos anos 30 e início dos 40: “O corpo sênior da faculdade mostrou-se hostil em sua maioria...Os mais jovens, porém, assim como os que ensinavam aos graduandos, estavam entusiasmados com o livro de Keynes”. Como é comum nesses casos, eram os jovens que enxergavam mais longe que os velhos o impacto das novas idéias. Keynes, juntamente com Marshall, tornou-se o economista mais freqüentemente citado nas revistas de economia nos anos 30 e foi o segundo mais citado na década de quarenta, depois de Hicks (Quandt, 1976). Tal influência persistiu por muitos e muitos anos. Ainda no período de 1966 a 1986, Keynes figurava em 14° lugar em citações, embora tivesse morrido duas décadas antes de começarem esses anos. (Garfield, 1990) A revolução keynesiana influenciou não apenas a pesquisa econômica, mas também a pedagogia. O livro-texto clássico de Samuelson, Economia, foi publicado pela primeira vez em 1948 e sua organização refletia a percepção do autor do que a profissão tinha a oferecer ao leitor leigo. Oferta e demanda, que hoje são o coração do ensino de economia para calouros, não eram tratadas a não ser a partir da página 447 do livro que continha 608 páginas. A macroeconomia vinha em primeiro lugar, incluindo conceitos como o 4

multiplicador da política fiscal e o paradoxo da poupança. Samuelson escreveu (na página 253): “Embora grande parte desta análise se deva a um economista inglês, John Maynard Keynes, ... seus fundamentos amplos estão hoje cada vez mais aceitos por economistas de todas as escolas de pensamento”. Quando um economista moderno lê A Teoria Geral, essa experiência pode parecer tanto estimulante quanto frustrante. De um lado, o livro é o trabalho de uma grande cabeça pensante aplicado a um problema social cuja vigência e amplitude não pode ser questionada. De outro, embora o livro seja extensivo em sua análise, parece de algum modo incompleto do ponto de vista lógico. Há muitas linhas não devidamente amarradas. O leitor fica-se perguntando: qual, precisamente, é o modelo econômico que junta todas essas peças? Tão logo Keynes publicou A Teoria Geral, uma geração de macroeconomistas pôs mãos à obra para responder a esta questão, transformando sua visão ampla em um modelo mais simples e mais concreto. Uma das primeiras e mais influentes tentativas foi o modelo IS-LM proposto por John Hicks, então (1937) com 33 anos de idade. Franco Modigliani, tratou, aos 26 anos de idade (1944), de ampliar e explicar o modelo de uma forma mais completa. Até hoje, o modelo IS-LM permanece como a interpretação de Keynes oferecida nos livros-texto de macroeconomia de nível intermediário mais largamente utilizados. Alguns críticos keynesianos do modelo IS-LM alegam que este simplifica excessivamente a visão econômica formulada por Keynes na Teoria Geral. Isso até certo grau pode ser verdade. A questão toda do modelo era que simplificava uma linha de argumento que seria difícil de seguir de outra maneira. A linha divisória entre a simplificação e o seu excesso é, muitas vezes, difícil de identificar. Enquanto teóricos como Hicks e Modigliani desenvolviam modelos keynesianos adequados para o quadro-negro das salas de aula, econometristas, tais como Klein, trabalhavam em modelos mais aplicados que pudessem ser trazidos aos dados e utilizados para análises de políticas. Ao longo do tempo, na expectativa de tornarem-se mais realistas, os modelos foram ficando maiores e acabaram por incluir centenas de variáveis e equações. Por volta dos anos sessenta, havia vários modelos que concorriam entre si, cada qual baseado na percepção dos keynesianos proeminentes do momento, tais como o Modelo Wharton, associado a Klein, o modelo DRI (Data Resource, Inc.), associado à figura de Otto Eckstein, e o modelo MPS (MIT – Penn – Social Science Research Council), associado a Albert Ando e Modigliani. Esses modelos foram largamente utilizados para previsão e análise de políticas. Assim, por exemplo, o modelo MPS foi mantido pelo Federal Reserve por muitos e muitos anos e se tornaria o precursor do modelo FRB/US, ainda hoje em uso pelo pessoal do Fed. Embora tais modelos difiram em alguns detalhes, suas similitudes são mais marcantes do que suas diferenças. Todos têm uma estrutura essencialmente keynesiana. No fundo da mente de cada construtor de modelo abriga-se o mesmo modelo simples ensinado hoje aos alunos das faculdades: uma curva IS relacionando as condições financeiras e a política fiscal aos componentes do PIB, uma curva LM determinando as taxas de juros como o preço que equilibra a oferta e a demanda de moeda e um tipo de

5

curva de Phillips que descreve como o nível de preço responde ao longo do tempo às variações na economia. É um fato científico que A Teoria Geral foi um tremendo sucesso. A revolução inspirada pela obra atraiu muitas das melhores cabeças jovens da época. Seus prodigiosos resultados abriram uma nova via de compreensão das flutuações econômicas de curto prazo. Refletindo sobre esses acontecimentos, Samuelson (1988) fez um sumário sucinto e decisivo: “A revolução keynesiana foi o fato mais significativo ocorrido na ciência econômica do século XX”. Este sentimento é compartilhado por muitos economistas de sua geração. E, no entanto, a revolução keynesiana não pode ser entendida meramente como um avanço científico. Keynes e os construtores de modelos keynesianas tinham, em grande medida, a perspectiva dos engenheiros. Estavam motivados por problemas do mundo real e, uma vez formuladas as suas teorias, ansiosos por pô-las em prática. Até a sua morte, em 1946, o próprio Keynes esteve extremamente envolvido em dar assessoria de políticas. O mesmo se aplica aos primeiros keynesianos americanos. Tobin, Solow e Eckstein desviavam tempo de seus empreendimentos acadêmicos nos anos 60 para trabalhar no Conselho de Assessores Econômicos (CEA). O corte nos impostos de Kennedy, aprovado afinal em 1964, foi, em grande medida, o resultado direto de um consenso keynesiano que se desenvolveu e dos modelos que o incorporavam. Os novos clássicos No final dos anos sessenta, começam a aparecer fissuras no consenso keynesiano. Estas fissuras foram crescendo e se transformando em rachaduras, as quais fariam ruir o consenso macroeconômico, assim como minar a confiança nos modelos econométricos correntes. Em seu lugar, reemergeria uma visão mais clássica da economia. A primeira onda da nova economia clássica foi o monetarismo e seu formulador mais notável, Milton Friedman. A obra anterior de Friedman (1957) sobre a hipótese de renda permanente não tratava diretamente da moeda ou do ciclo de negócios, mas tinha, com toda a certeza, implicações para a teoria do ciclo de negócios. Era, em parte, um ataque à função consumo de Keynes, a qual provia o fundamento para os multiplicadores de política fiscal, centrais à teoria keynesiana e às suas recomendações de política. Se a propensão marginal a consumir fora da renda transitória é pequena, conforme sugerido pela teoria de Friedman, então a política fiscal teria um impacto sobre a renda de equilíbrio consideravelmente menor do que acreditavam muitos keynesianos. A História Monetária dos Estados Unidos, de Friedman e Schwartz (1963) centrava-se mais diretamente na questão do ciclo de negócios e solapou, também, o consenso keynesiano. Muitos keynesianos viam a economia como inerentemente volátil, constantemente bafejada pelos volúveis “estados de espírito” dos investidores. Friedman e Schwartz sugeriam que a instabilidade econômica devia-se não aos atores privados, mas antes, a políticas monetárias ineptas. A implicação era que os formuladores de políticas deveriam se contentar em não causar danos, adotando simples normas de política. Embora a regra proposta por Friedman de crescimento estável dos agregados econômicos encontre, 6

hoje, poucos adeptos, foi uma primeira precursora dos regimes de metas de inflação atualmente em voga em tantos bancos centrais espalhados pelo mundo. O Discurso Presidencial de Friedman à Associação Econômica Americana (AEA), em 1968, juntamente com Phelps (1968), visou o elo mais fraco do modelo keynesiano: a curva de “trade-off” entre inflação e desemprego. Ao menos desde Samuelson e Solow (1960), algum tipo de curva de Phillips passara a fazer parte do consenso keynesiano, ainda que não fosse um argumento endossado pelo próprio Keynes. Samuelson e Solow compreenderam a fragilidade teórica deste “trade-off” e seu texto estava recheado de advertências quanto a porque os “trade-offs” poderiam ser diferentes no curto e no longo prazo. No entanto, a literatura subseqüente esqueceu tais advertências com muita facilidade. A curva de Phillips fornecia um meio conveniente de completar o modelo keynesiano, o qual sempre apresentara dificuldades em explicar porque os preços deixavam de equilibrar os mercados e como o nível de preços se ajustava ao longo do tempo. Friedman argumentava que o “trade-off” entre inflação e desemprego não se manteria no longo prazo, quando os princípios clássicos prevaleceriam e a moeda se mostraria neutra. O “trade-off” apareceria nos dados porque, no curto prazo, a inflação é, com freqüência, uma inflação não antecipada e, como tal, poderia baixar o desemprego. O mecanismo particular sugerido por Friedman era o da ilusão monetária por parte dos trabalhadores. Para o desenvolvimento da macroeconomia, o mais importante é que Friedman colocou as expectativas no centro do cenário. Isso preparou o caminho para a segunda onda da nova economia clássica; a revolução das expectativas racionais. Em uma série de artigos de grande influência, Robert Lucas estendeu e ampliou o argumento de Friedman. Em sua “Avaliação da Política Econométrica: uma Crítica” (1976), Lucas argumentou que os modelos keynesianos de aceitação geral mostravam-se inúteis para fins de análise de política porque deixavam de considerar seriamente as expectativas; como conseqüência, as relações empíricas estimadas que fundamentavam tais modelos se romperiam caso fosse implementada uma política alternativa. Lucas (1973) propôs também uma teoria do ciclo de negócios baseada em hipóteses de informação imperfeita, expectativas racionais e “market clearing”∗. Nessa teoria, a política monetária só tem importância enquanto surpreende as pessoas e lhes causa alguma confusão acerca dos preços relativos. Barro (1977) apresentou evidências de que este modelo era consistente com os dados de séries temporais para a economia dos EUA. Sargent e Wallace (1975) ressaltaram um corolário chave de política: uma vez que é impossível surpreender sistematicamente os agentes racionais, uma política monetária sistemática que pretenda estabilizar a economia está condenada ao fracasso.



(N.T.: A expressão em inglês consta de inúmeros textos da literatura em português, razão por que foi deixada no original. Refere-se à premissa de que os mercados caminham sempre rumo ao ponto em que a quantidade ofertada iguala a quantidade demandada e que este equilíbrio se dá via o mecanismo de preços. Em síntese, que os mercados acabam por eliminar sobras ou excessos.)

7

A terceira onda da nova economia clássica foi a das teorias do real ciclo de negócios de Kydland e Prescott (1982) e Long e Plosser (1983). Assim como as teorias de Friedman e Lucas, estas se assentavam na hipótese de que os preços se ajustam instantaneamente de modo a equilibrar e limpar de excessos os mercados – uma diferença radical em relação à teorização keynesiana. Ao contrário, porém, de seus predecessores novos clássicos, as teorias do ciclo real de negócios omitiam o papel da política monetária, tanto da não antecipada como de qualquer outra, na explicação das flutuações econômicas. A ênfase se deslocava para o papel dos choques aleatórios sobre a tecnologia e da substituição intertemporal no consumo e no lazer provocada por esses choques. Como conseqüência dessas três ondas de uma nova economia clássica, o campo da macroeconomia tornou-se cada vez mais rigoroso e cada vez mais vinculado aos instrumentos da microeconomia. Os modelos do ciclo real de negócios eram exemplos específicos e dinâmicos da teoria do equilíbrio geral de Arrow-Debreu. Na verdade, isso era um dos principais fatores de sua atratividade. Com o passar do tempo, os que propunham esse tipo de trabalho foram se afastando da hipótese de que o ciclo de negócios é determinado por forças reais, em oposição às monetárias, e começaram a enfatizar as contribuições metodológicas desta linha de trabalho. Atualmente, muitos macroeconomistas originários da nova tradição clássica se contentam em admitir a hipótese keynesiana de rigidez de preços, desde que essa hipótese esteja embutida em um modelo adequadamente rigoroso no qual os agentes econômicos sejam racionais e tenham expectativas futuras. Devido a essa mudança na ênfase, a terminologia evoluiu e esse tipo de trabalho passou agora a receber o nome de teoria “do equilíbrio geral estocástico dinâmico”. Mas eu já estou me adiantando na história. Ao tempo em que as três ondas novo-clássicas começaram a dar na praia, nos anos 1970 e 1980, um dos seus objetivos era o de demolir os velhos modelos macroeconômicos keynesianos enquanto uma questão de ciência e uma questão de engenharia. Em seu artigo “Depois da Macroeconomia Keynesiana”, Sargent e Lucas (1979) escreveram: “Para uso em política, o fato central é que as recomendações keynesianas não possuem embasamento mais sólido, num sentido científico, do que as recomendações dos economistas nãokeynesianos ou, para tal propósito, do que as dos não-economistas”. Embora Sargent e Lucas considerassem que a engenharia keynesiana se baseava em uma ciência deficiente, sabiam que a nova escola clássica não dispunha ainda (em torno de 1979) de um modelo pronto que se pudesse transladar a Washington: “Julgamos os melhores modelos de equilíbrio atualmente existentes como protótipos de futuros modelos mais aprimorados, os quais irão, e assim esperamos, mostrar-se como de uso prático na formulação de políticas”. Conjeturavam também que tais modelos estariam disponíveis “com sorte, em dez anos”. Mais tarde, voltarei à questão se essa perspectiva se concretizou conforme eles esperavam. Como essas citações dão a entender os engajados no movimento novo-clássico não eram tímidos acerca de suas intenções e nem modestos a respeito de suas realizações. Lucas afirmou de uma maneira ainda mais curta e grossa em um artigo de 1980, intitulado “A Morte da Economia Keynesiana”: “Não é mais possível encontrar bons economistas, com menos de quarenta anos, que se identificam ou aos seus escritos como ‘keynesianos’. O fato é que as pessoas até levam a mal se são referidas como ‘keynesianas’. Nos seminários de pesquisadores, ninguém mais leva a sério a teorização keynesiana; o público 8

começa a cochichar e a rir baixinho um para o outro.” E, no entanto, naquele mesmo momento em que Lucas escrevia alegremente o elogio fúnebre da economia keynesiana, a profissão estava às vésperas de saudar uma geração de “neokeynesianos”. Os neokeynesianos Economistas atraídos pelo tratamento keynesiano do ciclo de negócios mostraramse desde sempre pouco à vontade com a questão dos microfundamentos. De fato, um artigo de 1946 de Klein, um dos primeiros a utilizar o termo “macroeconomia”, começa da seguinte forma: “Muitos dos modelos matemáticos de sistemas econômicos construídos recentemente, em particular os das teorias de ciclos de negócios, relacionam-se de modo vago e remoto ao comportamento dos indivíduos ou das firmas, base de todas as teorias de comportamento econômico”. Todos os economistas modernos são, até certo ponto, clássicos. Todos nós ensinamos aos nossos alunos conceitos como otimização, equilíbrio e eficiência do mercado. Como reconciliar essas duas visões da economia – uma fundada na mão invisível de Adam Smith e nas curvas de oferta e demanda de Alfred Marshall, a outra baseada na análise de Keynes de uma economia padecendo de demanda agregada insuficiente – tem sido uma questão profunda e incômoda desde que a macroeconomia começou como campo separado de estudo. Os primeiros keynesianos, como Samuelson, Modigliani e Tobin, julgavam ter reconciliado essas visões naquilo que é, por vezes, chamado de “síntese neoclássicakeynesiana”. Esses economistas acreditavam que a teoria clássica de Smith e Marshall estava certa no longo prazo, mas que a mão invisível poderia ficar paralisada no curto prazo descrito por Keynes. O horizonte de tempo importava porque alguns preços – notadamente, o preço do trabalho – ajustavam-se muito lentamente ao longo do tempo. Os primeiros keynesianos acreditavam que os modelos clássicos descreviam o equilíbrio rumo ao qual a economia evoluía gradualmente, mas que os modelos keynesianos ofereciam a melhor descrição da economia num determinado momento de tempo no qual os preços eram justificadamente dados como predeterminados. A síntese neoclássica-keynesiana é coerente, mas também vaga e incompleta. Enquanto os novos economistas clássicos respondiam a essas deficiências, rejeitando a síntese e partindo de bases novas, os economistas neokeynesianos consideravam que havia muito a ser preservado. Seu objetivo era usar o ferramental da microeconomia para conferir maior precisão aos ajustes menos claros a que chegaram os primeiros keynesianos. A síntese neoclássica-keynesiana era como uma casa construída nos anos quarenta: os novos clássicos a viam como ultrapassada em sua funcionalidade e concluíam que era melhor derrubá-la, ao passo que os neokeynesianos miravam com admiração o trabalho artesanal daqueles tempos e percebiam ali uma oportunidade para uma bela reforma. A primeira onda de pesquisas a merecer devidamente o nome de “neokeynesiana “é a que se deu na área do desequilíbrio geral (Barro e Grossman, 1971; Malinvaud, 1977). Essas teorias pretendiam utilizar os instrumentos da análise de equilíbrio geral para compreender a alocação de recursos resultante quando os mercados não liquidam eventuais excedentes. Salários e preços são considerados como dados. O foco estava voltado para como o fracasso de um mercado em liquidar excessos repercute na oferta e na demanda em 9

mercados correlatos. De acordo com essas teorias, a economia pode-se encontrar em um entre vários regimes, dependendo de quais mercados estão experimentando excesso de oferta e quais experimentando excesso de demanda. O regime mais interessante – no sentido de melhor corresponder ao que observamos nos períodos de retração da economia – é o assim chamado regime “keynesiano”, no qual tanto o mercado de bens como o mercado de trabalho exibem excesso de oferta. No regime keynesiano, o desemprego cresce porque a demanda de mão-de-obra está baixa demais para assegurar o pleno emprego ao nível vigente dos salários; a demanda de mão-de-obra está baixa porque as empresas não conseguem vender tudo o que desejam aos preços vigentes; e a demanda pela produção das empresas é inadequada porque os fregueses estão desempregados. Recessões e depressões resultam de um círculo vicioso de demanda insuficiente e um estímulo à demanda pode ter efeitos multiplicadores. A segunda onda de pesquisas neokeynesianas visava explorar como o conceito de expectativas racionais poderia ser usado em modelos, sem a hipótese do “market clearing”. Tal tarefa pretendia, até certo ponto, responder à conclusão de Sargent e Wallace de que a política monetária era irrelevante, demonstrando como uma política monetária sistemática teria potencial para estabilizar a economia, a despeito das expectativas racionais (Fischer, 1977). Numa certa medida, essa atitude era motivada pelo desejo de encontrar um modelo empiricamente realista de dinâmica da inflação (Taylor, 1980). O calcanhar de Aquiles dessa linha de trabalho residia em que pressupunha uma forma de contratação de mão-deobra, a qual, talvez justificável em termos empíricos, era difícil de ajustar aos princípios da microeconomia. Como boa parte da tradição keynesiana se baseava na premissa de que os salários e os preços caem para que os mercados se equilibrem, a terceira onda de pesquisas neokeynesianas buscou explicar por que se dava tal fato. Diversas hipóteses foram exploradas: que as firmas enfrentam “custos de menu”∗ quando decidem alterar seus preços; que as firmas pagam “salários de eficiência” acima do nível de equilíbrio do mercado aos seus trabalhadores para aumentar a produtividade do trabalho; que os fatores formadores de salários e preços desviam-se da racionalidade perfeita. Mankiw (1985) e Akerlof e Yellen (1985) indicaram que, quando as empresas detêm poder de mercado, há grandes diferenças entre os cálculos privados e os de custo-benefício social com relação ao ajuste de preços, de modo que um equilíbrio com preços rígidos poderia ser racional (ou quase racional) do ponto de vista privado e muito custoso do ponto de vista social. Blanchard e Kiyotaki (1987) demonstraram que parte dessa divergência entre incentivos privados e sociais decorre de uma externalidade da demanda agregada: quando uma empresa reduz seus preços, ela aumenta os saldos reais em moeda e, por conseguinte, a demanda pelos produtos de todas as outras firmas. Ball e Romer (1990) estabeleceram uma forte complementaridade entre as rigidezes real e nominal, de modo que qualquer razão



(N.T.: Custos de menu são custos para empresas decorrentes da atualização de suas listas de preços, catálogos e outros materiais que surgem quando os preços variam em uma economia. São, em verdade, custos de transação, e as empresas resistem, por vezes, a alterá-los, levando a uma certa rigidez dos preços. O autor, Greg Mankiw, tem um conhecido artigo publicado a respeito e parece nutrir uma preferência por essa terminologia.)

10

para se evitar mudanças nos preços relativos exacerbaria a lentidão de resposta dos preços nominais. Numa visão retrospectiva, percebe-se que essas variadas contribuições dos neokeynesianos se relacionavam entre si e eram mais complementares do que pareciam na época, até mesmo para as pessoas que trabalhavam nelas. Por exemplo, existe a tentação de considerar os trabalhos iniciais sobre o desequilíbrio geral como um beco sem saída – um programa de pesquisa que semeou as sementes de sua própria morte com a hipótese de preços predeterminados. E, de fato, essa linha de trabalho é raramente encontrada nas listas de leitura de hoje em dia. No entanto, pode-se perceber uma progressão de idéias correlatas acerca de como a economia funciona quando preços não se modificam instantaneamente de modo a equilibrar a oferta e a demanda. Verifica-se, por exemplo, uma relação interessante, embora raramente assinalada, entre a primeira e a terceira onda da economia neokeynesiana. Em especial, pode-se ver que a terceira onda estabelece a centralidade do regime keynesiano tratado na primeira onda. Quando as empresas detêm poder de mercado, cobram preços acima do custo marginal, de modo que estão sempre querendo vender mais aos preços vigentes. Num certo sentido, se todas as empresas detêm algum grau de poder de mercado, então os mercados de produtos recaem tipicamente numa situação de excesso de oferta. Esta teoria do mercado de produtos casa-se com freqüência à teoria do mercado de trabalho com salários acima do ponto de equilíbrio, tal como o modelo de salários de eficiência. Neste caso, o regime “keynesiano” de excesso generalizado de oferta não é apenas uma condição possível da economia, mas claramente, uma condição típica. A meu juízo, essas três ondas de pesquisa neokeynesiana agregaram-se a uma coerente teoria microeconômica do fracasso da mão invisível em funcionar para os fenômenos macroeconômicos de curto prazo. Compreendemos como os mercados interagem quando há rigidez nos preços, o papel desempenhado pelas expectativas e os incentivos que os formadores de preços confrontam quando escolhem alterar ou não os preços. Como questão de ciência, pode-se dizer que houve grande êxito nesta linha de pesquisa (embora eu, enquanto participante, não possa alegar total objetividade). O trabalho não era revolucionário, mas também não se propunha a sê-lo. Era, ao invés, contra-revolucionário, pois sua meta era defender a essência da síntese neoclássicakeynesiana do assalto dos novos clássicos. Esse trabalho deu certo também do ponto de vista da engenharia? Ajudou os formuladores de política a conceber políticas melhores para lidar com o ciclo de negócios? O julgamento aqui deve ser menos positivo, um tópico, aliás, ao qual voltarei de passagem. Contudo, é de se assinalar que os neokeynesianos eram, por temperamento, mais inclinados a se tornarem engenheiros macroeconômicos do que os economistas que trabalhavam dentro da nova tradição clássica. Dentre os líderes da nova escola clássica, nenhum (tanto quanto eu saiba) deixou alguma vez a academia para aceitar um emprego relevante em termos de política pública. Em contraste, o movimento neokeynesiano, tanto quanto a geração anterior de keynesianos, estava cheio de gente disposta a trocar alguns anos da torre de marfim por uma temporada na capital do país. Os exemplos incluem 11

Stanley Fischer, Larry Summers, Joseph Stiglitz, Janet Yellen, John Taylor, Richard Clarida, Ben Bernanke e eu mesmo. Desses economistas, os primeiros quatro vieram para Washington nos anos Clinton e os últimos quatro na era Bush. A divisão dos economistas entre os novos clássicos e os neokeynesianos não é, fundamentalmente, uma divisão entre a esquerda e a direita. Num grau bem maior, é uma separação entre cientistas puros e engenheiros econômicos. Digressão e vitríolo A teoria e a prática do crescimento de longo prazo estão fora do escopo deste ensaio, mas cabe ressaltar que esses tópicos ocuparam grande parte da atenção dos macroeconomistas durante a década de 1990. Essa linha de trabalho desviou para si a atenção, antes voltada às flutuações de curto prazo, as quais dominaram o campo da macroeconomia desde o berço, meio século atrás. Há várias razões para a emergência do crescimento como uma área relevante de pesquisa. Em primeiro lugar, uma série de artigos de Paul Romer (1986) e outros apresentou um novo conjunto de idéias e ferramentas para analisar o que, seguramente, era um dos temas mais atraentes na economia – o imenso hiato entre as nações ricas e pobres. Em segundo, novos dados comparativos país a país foram disponibilizados, o que permitiu um exame sistemático da validade de teorias alternativas (Summers e Heston, 1991). Em terceiro, nos anos 1990 a economia dos EUA estava vivendo o seu mais prolongado período de expansão na história. Assim como os primeiros keynesianos se sentiram atraídos pelo campo pela sua relevância imediata para a saúde da nação, a economia dos anos noventa sugeria a uma geração de estudantes que a problemática do ciclo de negócios já não tinha grande importância prática. Existe ainda uma quarta razão, um pouco mais complicada, pela qual os macroeconomistas que desabrochavam profissionalmente nos anos 1990 se sentiram mais atraídos pelo estudo do crescimento de longo prazo do que pelas flutuações de curto prazo: a tensão entre as perspectivas de mundo dos novos clássicos e dos neokeynesianos. Enquanto Lucas, o economista líder dos novos clássicos, proclamava que “as pessoas já não levavam mais a sério a teorização keynesiana”, proeminentes keynesianos assumiam igualmente postura paternalista para com seus colegas novos clássicos. Em seu Discurso Presidencial na AEA, Solow (1980) classificou de “estupidamente restritiva” a atitude dos economistas novos clássicos de descartar a priori a existência de rigidez nos salários e nos preços e a possibilidade de que os mercados não consigam eliminar seus excedentes. Ele assim se pronunciou: “Lembro de ter lido uma vez que ainda não se compreendia como a girafa conseguia bombear um volume de sangue adequado até o topo de sua cabeça; mas é difícil imaginar que alguém concluísse a partir daí, que as girafas não têm pescoço comprido”. Numa entrevista com Arjo Klamer (1984), alguns anos mais tarde, Lucas observou: “Não acho que Solow, em particular, tenha alguma vez tentado tratar dessas questões, exceto fazendo piadas”. Na sua própria entrevista, no mesmo volume, Solow explicou sua recusa em partir para o enfrentamento com os novos economistas clássicos: “Suponha que alguém se sente exatamente onde você está sentado agora e anuncia que é Napoleão 12

Bonaparte. A última coisa que eu vou querer com essa pessoa é entrar numa discussão técnica sobre a tática de cavalaria na Batalha de Austerlitz. Se eu fizer isso, estarei tacitamente aceitando o jogo de que ela é Napoleão Bonaparte.” Numa certa medida, essa disputa reflete as diferentes óticas dos protagonistas quanto ao objetivo do campo de estudo. Lucas parece queixar-se de que Solow atribui pouco valor ao maior rigor analítico que a nova macroeconomia clássica apresenta. Solow, por seu turno, parece queixar-se de que Lucas não considera a patente falta de realidade de suas hipóteses de mercados que se equilibram. Ambos têm razão. Do ponto de vista da ciência, o maior rigor apresentados pelos novos clássicos é muito atrativo. Mas, do ponto de vista da engenharia, o custo deste rigor adicional parece excessivo. Eu estou abordando a natureza deste debate, não apenas porque ele reflete a tensão subjacente entre cientistas e engenheiros, mas também porque ajuda a explicar as escolhas feitas pela geração seguinte de economistas. Este vitríolo entre gigantes intelectuais atrai a atenção (de uma forma muito parecida a dos freqüentadores de bar diante de uma luta de box, quando ficam instigando os participantes). Mas não se mostrou saudável para o campo da macroeconomia. Não surpreende que muitos jovens economistas tenham escolhido evitar alinhar-se com algum dos lados nessa disputa, focando sua atenção em outros tópicos que não as flutuações econômicas. Uma nova síntese ou uma trégua? Um velho adágio diz que a ciência progride a cada funeral. Hoje, com os benefícios de uma expectativa de vida mais longa, seria mais correto (ainda que menos expressivo) dizer que a ciência progride a cada aposentadoria. Na macroeconomia, à medida que a geração mais antiga de protagonistas se aposentou ou caminhou para a aposentadoria, houve uma substituição por uma geração mais jovem de economistas, a qual adotou um padrão de maior civilidade. Ao mesmo tempo, um novo consenso surgiu quanto ao melhor meio de compreender as flutuações econômicas. Marvin Goodfriend e Robert King (1997) batizaram esse consenso de “a nova síntese neoclássica”. Este modelo de síntese tem sido largamente aplicado na pesquisa de políticas monetárias (Clarida, Gali e Gertler, 1999, e McCallum e Nelson, 1999). O tratamento mais extensivo desta nova síntese é o monumental (em ambos os sentidos da palavra) tratado de Michael Woodford (2003). De modo similar à síntese neoclássica-keynesiana da geração anterior, a nova síntese busca fundir os pontos fortes das abordagens concorrentes que a precederam. Dos modelos dos novos clássicos, ela tira os instrumentos da teoria do equilíbrio geral estocástico dinâmico. Preferências, restrições e otimização representam o ponto de partida e a análise se constrói a partir desses fundamentos microeconômicos. Dos modelos neokeyesianos, utiliza as rigidezes nominais e as usa para explicar por que a política monetária produz efeitos reais no curto prazo. A abordagem mais comum é supor firmas em regime de concorrência monopolística que alteram os preços apenas intermitentemente, resultando numa dinâmica de preço às vezes denominada de curva de Phillips neokeynesiana. A essência da síntese é a visão de que a economia é um sistema de equilíbrio geral dinâmico que se desvia do ótimo de Pareto devido a preços rígidos (e, talvez, a algumas outras imperfeições do mercado). 13

Descrever o surgimento deste consenso como um grande progresso é uma idéia tentadora. E, em algumas das questões, foi assim mesmo. Mas há também uma maneira menos otimista de encarar o estado atual da arte. O que talvez tenha ocorrido não tenha sido tanto uma síntese, mas uma trégua entre combatentes intelectuais, seguida de uma retirada para salvar as aparências de ambos os lados. Tanto os novos clássicos como os neokeynesianos podem olhar para esta nova síntese e clamar vitória e, ao mesmo tempo ignorar a derrota mais profunda que jaz sob a superfície. A alma desta nova síntese – um sistema de equilíbrio geral dinâmico com rigidezes nominais – é precisamente o que se encontra nos primeiros modelos keynesianos. Hicks, por exemplo, propôs um modelo IS-LM numa tentativa de encaixar as idéias de Keynes em um cenário de equilíbrio geral. (Recorde-se que Hicks ganhou o Prêmio Nobel de 1972, juntamente com Kenneth Arrow, pelas contribuições à teoria do equilíbrio geral.) Klein, Modigliani e os outros construtores de modelos buscavam trazer aquele sistema de equilíbrio geral para os dados de modo a terem em mãos uma política mais aperfeiçoada. Em grande medida, a nova síntese retoma a agenda de investigações e pesquisas abandonada pela profissão nos anos setenta, sob a pressão dos novos clássicos. Tendo o benefício, hoje, de uma visão retrospectiva, fica claro que os novos economistas clássicos prometeram mais do que poderiam entregar. Seu objetivo declarado era descartar a teorização keynesiana e substituí-la por modelos de “market clearing”, aplicados aos dados de maneira convincente e, assim, utilizados para análise e recomendações de política. Por esse critério, o movimento fracassou. Por outro lado, ajudou a desenvolver ferramentas analíticas que agora estão sendo usadas para desenvolver outra geração de modelos, os quais pressupõem rigidez de preços e, em vários aspectos, assemelham-se aos modelos contra os quais investiam os novos clássicos. Nesse ponto, os neokeynesianos podem reivindicar certa recuperação de terreno. A nova síntese descarta o pressuposto do “market-clearing”, chamado por Solow de “estupidamente restritivo” e que a pesquisa neokeynesiana sobre rigidez de preços tratava de solapar. Mas os neokeynesianos podem ser criticados por terem mordido a isca dos novos clássicos e, por conseguinte, adentrado por uma linha de investigação que se demonstrou demasiadamente abstrata e não suficientemente prática. Paul Krugman (2000) faz a seguinte avaliação do programa de investigações e pesquisas dos neokeynesianos: “É possível explicar como a rigidez de preços poderia ocorrer. Contudo, previsões que tenham utilidade sobre quando esta rigidez vai ocorrer e quando não, ou modelos que partam dos custos de menu para uma curva realista de Phillips, nada disso parece estar à vista”. Embora na qualidade de apoiador daquela linha de trabalho, devo admitir que há elementos de verdade em tal afirmativa. A perspectiva dos Bancos Centrais Se Deus pôs os economistas na terra para resolver problemas práticos, então São Pedro nos julgará, em última instância, pelas nossas contribuições à engenharia econômica. Cabe, portanto, a pergunta: a evolução da teoria do ciclo de negócios nas últimas décadas melhorou a concepção da política econômica? Ou, traçando uma meta mais modesta, os avanços na ciência macroeconômica alteraram o modo como a política econômica é 14

analisada e discutida pelos economistas profissionais envolvidos no processo de formulação de políticas? Um local para encontrar respostas a essas perguntas é o atraente livro de memórias, Meu Período no Fed, de Laurence Meyer. Em 1996, Meyer deixou seu emprego de professor de economia na Universidade de Washington e, proeminente consultor de economia, foi servir por seis anos como governador do Federal Reserve. Seu livro abre uma janela para como os economistas que alcançam postos máximos de decisão em política monetária vêem o seu trabalho e as abordagens de que lançam mão ao analisar a economia. O livro deixa o leitor com uma impressão muito clara: os desenvolvimentos recentes da teoria do ciclo de negócios, sancionados tanto pelos novos clássicos como pelos neokeynesianos, tiveram impacto próximo a zero na formulação prática de políticas. A análise de Meyer das flutuações econômicas e da política monetária é inteligente e nuançada, mas não guarda qualquer traço da teoria macroeconômica moderna. Pode parecer muitíssimo familiar a alguém que tenha sido instruído na síntese neoclássicakeynesiana, prevalecente em torno de 1970, e que tenha ignorado a literatura acadêmica desde então. Se fosse idiossincrática, a visão de mundo de Meyer poderia ser facilmente descartada, mas não é. Ao contrário, é típica dos economistas com posições de mando nos bancos centrais espalhados pelo mundo. É moda entre os acadêmicos acreditar que a instituição banco central tem sido fortemente influenciada pela literatura “rules-vs-discretion”∗, em particular pelos trabalhos sobre inconsistência temporal que começaram com Kydland e Prescott (1977). Duas mudanças institucionais são, com freqüência, relacionadas a aquelas contribuições acadêmicas: a crescente independência dos bancos centrais (em países como, por exemplo, a Nova Zelândia) e a adoção de metas de inflação como um regime de política de muitos bancos centrais. Essas mudanças institucionais são consideradas, então, como vinculadas a aperfeiçoamentos na política monetária. Segundo essa linha de argumentação, deveríamos agradecer a Kydland e Prescott pela inflação baixa e estável de que desfrutaram tantos países ao longo das duas últimas décadas. Essa visão auto-congratulatória incorre em dois problemas. O primeiro é que as mudanças institucionais que temos observado têm uma conexão, na melhor das hipóteses, longínqua com as questões levantadas na literatura teórica. Um banco central independente não é o mesmo que um banco central que se atém a regras. O Federal Reserve dos EUA dispõe há muito tempo de um alto grau de independência sem jamais ter-se comprometido com regras de política. E mesmo a prática de metas de inflação está mais próxima de uma declaração de intenções e de meio de comunicação com o público do que de um compromisso de aceitação de determinada regra de política. Bem Bernanke chamou esta postura de “discrição com restrições”.



(N.T.: O termo é mantido em inglês na literatura corrente. Refere-se à postura dos agentes responsáveis por políticas públicas, quando seguem determinadas regras preestabelecidas de procedimento face a eventos [por exemplo, ajuda em casos de calamidade pública] ou, alternativamente, dispõem de suficiente margem, discricionária, para conceber a melhor resposta de política diante de determinadas circunstâncias.)

15

O segundo e mais importante problema é que essas mudanças institucionais não estão necessariamente vinculadas aos aperfeiçoamentos verificados na política monetária. Laurence Vall e Niamh Sheridan (2005) estudaram uma amostra ampla de países e demonstraram que a adoção de metas de inflação não ajuda a explicar a tendência recente de inflação baixa e estável. A política monetária melhorou naqueles países que adotaram metas de inflação, como também nos que não as adotaram. Essa melhora em escala mundial dos resultados da inflação pode ter ocorrido porque a economia mundial não se viu às voltas com choques de oferta tão adversos quanto aqueles vividos nos anos 1970 ou porque os banqueiros centrais aprenderam com a experiência daqueles anos que uma inflação elevada deveria ser evitada com persistência. Mas as evidências indicam que metas de inflação não se constituem em si num pré-requisito para uma boa política monetária. O Fed ao tempo de Greenspan é um desses casos. Segundo Alan Blinder e Ricardo Reis (2005), Alan Greenspan tem o justo direito de reivindicar “ter sido o maior banqueiro central que o mundo já conheceu”. De fato, segundo a maioria dos relatos, a política monetária funcionou de forma notável sob seu comando. E, no entanto, durante o seu período ao timão do Fed, Greenspan evitou qualquer tipo de anúncio de regra de política, dando maior valor à flexibilidade do que ao compromisso. Foi assim que Greenspan (2003) defendeu a sua decisão: “Alguns críticos têm argumentado que esta maneira de tratar a política escapa demasiadamente à disciplina: depende de julgamento, é aparentemente discricionária e difícil de explicar. O Federal Reserve, segundo eles, deveria procurar ser mais formal em suas operações, amarrando suas ações às recomendações e prescrições de regras formais de política. Que se fossem seguidas essas diretrizes, isso levaria a uma melhoria no desempenho da economia é, todavia, algo extremamente duvidoso... As regras, por sua própria natureza, são simples e quando incertezas significativas e cambiantes estão presentes no ambiente econômico, elas não podem substituir paradigmas de administração de riscos, os quais são muito mais adequados ao processo de decisão de políticas”. Não obstante, a despeito da aversão de Greenspan por regras de política, a inflação esteve baixa e estável durante sua permanência como presidente do Fed. Greenspan prova, contradizendo Kydland e Prescott, que os bancos centrais podem gerar resultados desejáveis quando dispõem de e manejam substanciais poderes discricionários. A perspectiva da política fiscal Outro local para buscar o impacto prático da teoria macroeconômica é a análise da política fiscal. Os cortes promovidos por Bush em impostos nos anos de 2001 e 2003 oferecem um bom estudo de caso, em parte porque se trata de uma tentativa de criar um grande estímulo fiscal para combater uma recessão e, em parte, porque, como presidente por dois anos, do Conselho de Assessores Econômicos (CEA), sinto-me familiarizado com boa parte da análise econômica que fundamentou tal política. Para dizer a verdade, havia motivações diversas na concepção da política tributária de Bush. A expansão do crédito por crianças dependentes de uma família, por exemplo, se radicava tanto em princípios de política e de filosofia social quanto de economia. Mas os economistas no CEA e no Tesouro tinham participação substancial na implementação dessa política, de modo que é esclarecedor examinar as ferramentas que aportaram a esta tarefa. 16

A análise econômica do plano tributário de Bush foi feita com um olho no crescimento de longo prazo e outro no ciclo de negócios do curto prazo. A perspectiva de longo prazo poderia parecer familiar aos estudantes de finanças públicas. Mais significativa foi a proposta de Bush em 2003 de eliminar a dupla tributação da renda e do capital das empresas. O projeto finalmente aprovado pelo Congresso não atendia plenamente a esse objetivo, mas o corte substancial nas alíquotas sobre dividendos apontava na direção de uma maior neutralidade tributária. Ele reduziu o viés em favor de lucros retidos sobre dividendos, o viés em favor do endividamento sobre o financiamento com capital próprio e o viés em favor de capital de fora da empresa sobre o capital da empresa. Modificou também o código tributário na direção da taxação do consumo em vez da renda. Este último objetivo é consistente com a literatura bem estabelecida de finanças públicas (ver, por exemplo, Diamond e Mirrlees, 1971; Atkinson e Stiglitz, 1976; Feldstein, 1978; Chamley, 1986) e não representa particularmente nada de novo em termos de teoria econômica. Três décadas antes, Atkinson e Stiglitz já haviam observado que existia “uma presunção convencional em favor da tributação do consumo de preferência à tributação da renda”. Mais relevante para este ensaio, contudo, é a análise de curto prazo da política tributária. Quando o Presidente George W. Bush assumiu, em 2001, a economia estava a caminho de uma recessão após o estouro da bolha da bolsa de valores no final dos anos 1990. Um objetivo dos cortes nos impostos era o de estimular a recuperação econômica e o emprego. Quando o Presidente Bush assinou o Ato de Reconciliação do Alívio Tributário, Crescimento e Emprego de 2003 justificou a política da seguinte forma: ”Quando as pessoas dispõem de mais dinheiro, elas o gastam em bens e serviços. E, em nossa sociedade, quando demandam um bem ou serviço adicional, haverá quem produza este bem ou serviço. E quando alguém produz aquele bem ou serviço, significa que alguém conta com maior probabilidade de achar um emprego”. Tal lógica é, em sua quinta-essência, keynesiana. Solicitaram ao Conselho de Assessores Econômicos avaliar em quanto o alívio tributário afetaria o nível de emprego. Respondemos à questão recorrendo a um modelo macroeconômico de uso corrente. O modelo específico utilizado enquanto eu ali estive era o da Macroeconomic Advisers, firma de consultoria criada e dirigida por Laurence Meyer antes de se tornar governador do Fed. Esse modelo já era utilizado pela equipe do CEA bastante tempo antes da minha chegada à presidência e, de fato, fora usado por quase duas décadas, tanto sob governos republicanos como democratas. A escolha deste modelo em particular não foi crucial, porém, pois o modelo da Macroeconomic Advisers é semelhante a outros modelos macroeconômicos maiores, como, por exemplo, o modelo FRB/US, utilizado pelo Federal Reserve. Do ponto de vista da história intelectual, são modelos que descendem diretamente dos primeiros esforços de modelagem de Klein, Modigliani e Eckstein. As investigações e pesquisas dos novos clássicos e dos neokeynesianos tiveram influência mínima em sua construção.

17

Na sala de aula Além dos corredores do poder nas capitais mundiais, há outro local onde a profissão de economista tenta vender sua mercadoria para um público maior: as salas de aula das faculdades. Aqueles dentre nós que dão regularmente aulas para graduandos encaram o nosso trabalho como produtor de cidadãos que estejam bem informados acerca dos princípios da boa política. Nossa escolha do material é guiada pelo que julgamos como importante para a compreensão da próxima geração de eleitores. Assim como os formuladores de políticas, os graduandos das faculdades tipicamente manifestam pouco interesse na teoria pela teoria. Estão, pelo contrário, interessados em compreender como funciona o mundo real e como políticas públicas podem tornar melhor o desempenho da economia. Excetuando o caso raro do estudante que cursa a graduação com vistas a uma carreira como economista acadêmico, o aluno de faculdade tem mais a perspectiva de um engenheiro do que de um cientista. E não existe melhor lugar para ver o que estamos ensinando do que os conteúdos dos livros-texto mais amplamente utilizados nos cursos de graduação. Consideremos, por exemplo, os livros utilizados para ensinar macroeconomia no nível intermediário. Uma geração atrás, os três textos mais empregados neste curso eram os de Robert Gordon, de Robert Hall e John Taylor e de Rudiger Dornbusch e Stanley Fischer. Hoje, os três que mais vendem são os escritos por Olivier Blanchard, por Andrew Abel e Ben Bernanke e por mim. O traço comum a cada um desses seis livros é ter sido escrito por ao menos um economista com graduação no MIT, uma importante escola de engenharia na qual a tradição macroeconômica dominante era a de Samuelson e Solow. Em todos esses livros, a teoria básica ensinada aos alunos é uma versão da demanda agregada e da oferta agregada e a teoria básica da demanda agregada é o modelo IS-LM. Chega-se à mesma lição, dando uma olhada nos textos mais largamente utilizados pelos iniciantes do estudo de economia: as flutuações econômicas de curto prazo são melhor compreendidas com o recurso a alguma versão da síntese neoclássica-keynesiana. Não pretendo sugerir que a pedagogia tenha estagnado apesar da evolução do campo de estudo. Os livros-texto de hoje atribuem ênfase maior à teoria monetária clássica, aos modelos de crescimento de longo prazo e ao papel das expectativas do que o faziam aqueles de trinta anos atrás. Há menos confiança e crença no que pode ser alcançado pelas políticas e maior ênfase em regras de política do que em ações discricionárias de caráter monetário e fiscal (a despeito da falta de evidência da importância prática de regras de política). Mas, o arcabouço básico que os estudantes de hoje aprendem para se familiarizarem com o ciclo de negócios é o mesmo com os quais privava a primeira geração de keynesianos. A exceção que confirma a regra é o texto de nível intermediário escrito por Robert Barro e publicado pela primeira vez em 1984. O livro de Barro fornecia uma introdução clara e acessível à abordagem da macroeconomia, sob a ótica dos novos clássicos, voltada para estudantes de faculdade. Incluía também modelos keynesianos, mas estes eram tratados numa parte posterior do livro, brevemente e com pouca ênfase. Quando o livro saiu do prelo, recebeu substancial atenção e considerável aclamação. No entanto, embora 18

muitos macroeconomistas tivessem lido o livro de Barro e ficado impressionados com ele, foi muito menor o número dos que o indicaram para seus alunos. A nova revolução clássica na pedagogia da economia da qual Barro esperava ser a fonte inspiradora nunca decolou e o texto de Barro não chegou a ser um concorrente significativo dos livros-texto predominantes em sua época. A ausência de uma revolução na pedagogia da macroeconomia contrasta fortemente com o que ocorreu meio século atrás. Quando o texto de Samuelson foi publicado pela primeira vez em 1948, com o objetivo de introduzir os estudantes de faculdade na revolução keynesiana, os professores de todo o mundo rapidamente e de bom grado abraçaram esta nova abordagem. Em contraste, as idéias dos novos clássicos e dos neokeynesianos não foram capazes de mudar fundamentalmente a maneira como a macroeconomia é ensinada na universidade. Nenhum dentista à vista É famosa a opinião de John Maynard Keynes (1931): “Como seria esplêndido se os economistas conseguissem passar a serem vistos como uma gente humilde e competente, como são os dentistas”. Keynes expressava, na ocasião, a esperança de que a ciência da macroeconomia evoluiria em uma espécie de engenharia, útil e com sua própria rotina. Nessa futura utopia, evitar uma recessão seria uma operação tão direta quanto obturar uma cárie. Os principais avanços na macroeconomia acadêmica das últimas décadas guardam pouca semelhança com as artes de um dentista. As pesquisas dos novos clássicos e dos neokeynesianos tiveram pouco impacto nos macroeconomistas práticos guindados à complicada tarefa de conduzir de fato a política monetária e fiscal. Tiveram também pouco impacto naquilo que os professores transmitem aos futuros eleitores sobre a política macroeconômica quando entram em uma sala de aula da faculdade. Do ponto de vista da engenharia macroeconômica, a obra das últimas décadas parece ter dado uma guinada infelizmente equivocada. No entanto, sob a perspectiva mais abstrata da ciência macroeconômica, essa obra pode ser vista de modo positivo. Os economistas novo-clássicos tiveram êxito em apontar as limitações dos grandes modelos macroeconométricos keynesianos e as recomendações de política que neles se baseavam. Chamaram a atenção para a importância das expectativas e para a questão das regras na política econômica. Os neokeynesianos, por sua vez, apresentaram modelos melhores de explicação do por que salários e preços falham em equilibrar os mercados e, de um modo geral, indicam quais tipos de imperfeição dos mercados são necessários para entender as flutuações econômicas de curto prazo. A tensão entre essas duas visões, embora nem sempre civilizada, pode ter se mostrado produtiva, pois a concorrência é tão importante para o avanço intelectual como é para o funcionamento dos mercados. As descobertas e percepções resultantes dessas pesquisas estão sendo incorporadas à nova síntese ora sendo desenvolvida e que, ao final, se tornará o fundamento da nova geração de modelos macroeconométricos. Para aqueles dentre nós interessados na 19

macroeconomia enquanto ciência e engenharia podemos assinalar o recente surgimento de uma nova síntese como um sinal de esperança de que mais progressos poderão ocorrer em ambas as frentes. Ao olhar para frente, visualizamos os ideais de humildade e competência a que os macroeconomistas podem aspirar.

Referências bibliográficas Akerlof, George A. e Janet L. Yellen. 1985. "A Near-Rational Model of the Business Cycle with Wage and Price Inertia.” Quarterly Journal of Economics. Supl., 100, pp. 823-838. Atkinson, A.B. e J.E. Stigltiz. 1976. “The Design of Tax Structure: Direct versus Indirect Taxation,” Journal of Public Economics 6, pp. 55-75. Ball, Laurence e David Romer. 1990. “Real Rigidities and the Non-Neutrality of Money.” Review of Economic Studies. 57:2, pp. 183-203. Ball, Laurence e Niamh Sheridan. 2005. “Does Inflation Targeting Matter?” em Ben S. Bernanke e Michael Woodford, editores, The Inflation-Targeting Debate, University of Chicago Press. Barro, Robert. 1977. "Unanticipated Money Growth and Unemployment in the United States." American Economic Review. Março, 67:2, pp.101-115. Barro, Robert J. e Herschel Grossman. 1971. "A General Disequilibrium Model of Income and Employment." American Economic Review. Março, 61:1, pp. 82-93. Bernanke, Ben S. “Constrained Discretion and Monetary Policy,” Remarks before the Money Marketeers of New York University, New York, Nova York, 3 de Fevereiro de 2003. Blanchard, Olivier Jean e Nobuhiro Kiyotaki. 1987. "Monopolistic Competition and the Effects of Aggregate Demand." American Economic Review. Setembro, 77:4, pp. 647-666. Breit, William e Barry T. Hirsch. 2004. Lives of the Laureates, 4ª edição, Cambridge, MA: MIT Press. Chamley, Christophe.1986. “Optimal Taxation of Capital Income in General Equilibrium with Infinite Lives.” Econometrica. Maio, 54:3, pp.607-622. Clarida, Richard, Jordi Gali e Mark Gertler. 1999. “The Science of Monetary Policy: A New Keynesian Perspective.” Journal of Economic Literature. Dezembro, 37:4, pp. 1661-1707. Diamond, Peter A. e James A. Mirrlees. 1971. "Optimal Taxation and Public 20

Production II: Tax Rules. American Economic Review, Junho, 61:3, pp. 261-278. Feldstein, Martin. 1978. “The Welfare Cost of Capital Income Taxation,” Journal of Political Economy, Abril, 86:2, Parte 2, pp. S29-S51. Fischer, Stanley. 1977. "Long-term Contracts, Rational Expectations, and the Optimal Money Supply Rule.” Journal of Political Economy. Fevereiro, 85:1, pp. 191-205. Friedman, Milton. 1957. A Theory of the Consumption Function. Princeton: Princeton University Press. Friedman, Milton. 1968. “The Role of Monetary Policy.” American Economic Review. Março, 58:1, pp. 1-17. Friedman, Milton e Anna Jacobson Schwartz. 1963. A Monetary History of the United States, 1867-1960. Princeton: Princeton University Press. Garfield, Eugene. 1990. “Who Will Win the Nobel Prize in Economics? Here a Forecast Based on Citation Indicators.” Current Contents 11, Institute for Scientific Information. Goodfriend, Marvin e Robert King. 1997. “The New Neoclassical Synthesis and the Role of Monetary Policy,” NBER Macroeconomics Annual, pp. 231-283. Greenspan, Alan. 2003. “Monetary Policy under Uncertainty,” Observações em um simpósio patrocinado pelo Federal Reserve Bank de Kansas City, Jackson Hole, Wyoming, 29 de Agosto de 2003. Hicks, John R. 1937. "Mr. Keynes and the 'Classics.'” Econometrica. Abril, 5:2, pp. 14759. Hume, David. 1752. "Of Money," in Essays. Londres: George Routledge and Sons. Keynes, John Maynard. 1931. Essays in Persuasion. Nova York: Norton. Klamer, Arjo. 1984. Conversations with Economists. Totowa, NJ: Rowman and Allanheld. Klein, Lawrence R. 1946. “Macroeconomics and the Theory of Rational Behavior.” Econometrica. Abril, 14:2, pp. 93-108. Krugman, Paul. 2000. “How Complicated Does the Model Have to Be?” Oxford Review of Economic Policy 16, No. 4, pp. 33-42. Kydland, Finn e Edward C. Prescott, 1977. “Rules Rather Than Discretion: The Inconsistency of Optimal Plans,” Journal of Political Economy, Junho, 85:3, pp. 473-492. Kydland, Finn e Edward C. Prescott. 1982. “Time to Build and Aggregate Fluctuations.” Econometrica. Novembro, 50:6, pp. 1345-1371. 21

Long, John. B. and Charles Plosser. 1983. “Real business cycles.” Journal of Political Economy. Fevereiro, 91:1, pp. 39-69. Lucas, Robert E, Jr. 1973. “Some International Evidence on Output-Inflation Tradeoffs.” American Economic Review. Junho, 63:3, pp. 326-34. Lucas, Robert E. Jr. 1976. "Econometric Policy Evaluation: A Critique." Carnegie Rochester Conference Series on Public Policy. 1, pp. 19-46. Lucas, Robert E., Jr. 1980. “The Death of Keynesian Economics.” Issues and Ideas (University of Chicago, Chicago, IL).Inverno, pp. 18-19. Lucas, R.E. Jr. e T.J. Sargent. 1979. “After Keynesian Macroeconomics.” Federal Reserve Bank of Minneapolis Quarterly Review. Primavera, 3:2, pp. 1-16. Malinvaud, Edmund. 1977. The Theory of Unemployment Reconsidered. Oxford: Blackwell. Mankiw, N. Gregory. 1985. "Small Menu Costs and Large Business Cycles: A Macroeconomic Model of Monopoly." Quarterly Journal of Economics. Maio, 100:2, pp. 529-537. McCallum, Bennett T. e Edward Nelson. 1999. “An Optimizing IS-LM Specification for Monetary Policy and Business Cycle Analysis.” Journal of Money, Credit and Banking. Agosto, 31:3, Parte 1, pp. 296-316. Meyer, Laurence H. 2004. A Term at the Fed: An Insider’s View. Nova York: HarperCollins. Modigliani, Franco. 1944. "Liquidity Preference and the Theory of Interest and Money." Econometrica. Janeiro, 12: 1, pp. 45-88. Phelps, Edmund. 1968. “Money Wage Dynamics and Labor Market Equilibrium.” Journal of Political Economy. Julho/Agosto, 76:4, pt. 2, pp. 678-711. Pigou, Arthur. 1927. Industrial Fluctuations. Londres: Macmillan and Company. Quandt, Richard E. 1976. “Some Quantitative Aspects of the Economic Journal Literature.” Journal of Political Economy. Agosto, 84:4, pt. 1, pp. 741-55. Romer, Paul. 1986. "Increasing Returns and Long Run Growth." Journal of Political Economy. Outubro, 94:5, pp. 1002-37. Samuelson, Paul A. 1948. Economics: An Introductory Analysis. Nova York: McGrawHill.

22

Samuelson, Paul. A. 1988. "Keynesian Economics and Harvard: In the Beginning." Challenge: The Magazine of Economic Affairs. Julho/Agosto, 31, pp. 32-34. Samuelson, Paul A. e Robert M. Solow. 1960. "Analytical Aspects of Anti-Inflation Policy.” American Economic Review. Maio, 50:2, pp. 177-194. Sargent, Thomas J. e Neil Wallace. 1975. "Rational Expectations, the Optimal Monetary Instrument, and the Optimal Money Supply Rule.” Journal of Political Economy. Abril, 83:2, pp. 241-54. Solow, Robert M. 1980. “On Theories of Unemployment.” American Economic Review. Março, 70:1, pp. 1-11. Summers, Robert e Alan Heston. 1991. “The Penn World Table (Mark 5): An Expanded Set of International Comparisons, 1950-1988.” Quarterly Journal of Economics. Maio, 106:2, pp. 327-68. Taylor, John B. 1980. "Aggregate Dynamics and Staggered Contracts." Journal of Political Economy. Fevereiro, 88:1, pp. 1-23. Woodford, Michael. 2003. Interest and Prices. Princeton: Princeton University Press.

23