Title | Macroeconomia - Roberto Ellery Jr |
---|---|
Author | Moisés Ordônio |
Course | Macroeconomia |
Institution | Universidade Federal de Alagoas |
Pages | 115 |
File Size | 1.8 MB |
File Type | |
Total Downloads | 80 |
Total Views | 138 |
Download Macroeconomia - Roberto Ellery Jr PDF
Macroeconomia Notas de Aula
Roberto Ellery Jr.1
Victor Gomes2
Universidade de Bras´ılia
Universidade Cat´olica de Bras´ılia
6 de novembro de 2003
1 2
Email: [email protected], Home Page www.robertoellery.com.br Email: [email protected], Home Page: www.victorgomes.com.br
i
Vers˜ao incompleta e n˜ao submetida a revis˜ao, deve ser utilizada apenas como referˆencia para os alunos de Macroeconomia I do primeiro semestre de 2003 da Universidade de Bras´ılia e pelos alunos de Macroeconomia Aplicada 2 da Universidade Cat´olica de Bras´ılia do segundo semestre de 2003.
Sum´ario I
Programac¸ao ˜ Dinˆamica com Tempo Discreto
1
Horizonte Finito 1.1 Introduc¸a˜ o . . . . . . . . . . . . . . . 1.2 O Problema . . . . . . . . . . . . . . 1.3 Equac¸ ˜ao de Bellman . . . . . . . . . 1.4 Algoritmo de Programac¸a˜ o Dinˆamica
2
3
II 4
5
1
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
2 2 2 3 5
Horizonte Infinito 2.1 Introduc¸a˜ o . . . . . . . . . . . . . . . . . . . . . 2.2 Funcional de Bellman . . . . . . . . . . . . . . . 2.3 Espac¸os M´etricos e Espac¸os Vetoriais Normados 2.4 Teorema do Ponto Fixo de Banach . . . . . . . . 2.5 Soluc¸a˜ o da Equac¸a˜ o de Bellman . . . . . . . . . 2.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
6 6 6 7 9 10 11
Aplicac¸oes ˜ 3.1 Busca por Emprego . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Demanda por Moeda . . . . . . . . . . . . . . . . . . . . . . . . . .
13 13 15
. . . .
. . . .
. . . .
. . . .
. . . .
Consumo e Precificac¸ao ˜ de Ativos Financeiros Consumo e Poupanc¸a 4.1 Consumo e Poupanc¸a . . . . . . . . . . . . . . 4.2 Modelo com dois Per´ıodos . . . . . . . . . . . 4.2.1 Soluc¸ao ˜ Recursiva . . . . . . . . . . . 4.3 Modelo com T Per´ıodos . . . . . . . . . . . . 4.4 Modelo com Horizonte Infinito de Programac¸ao ˜ 4.5 Juros, Consumo e Poupanc¸a . . . . . . . . . . 4.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . .
18 . . . . . . .
19 19 22 26 27 29 31 31
Precificac¸ao ˜ de Ativos Financeiros 5.1 Prec¸os de Ativos como um Passeio Aleat´orio . . . . . . . . . . . . . 5.2 Precificac¸a˜ o de Ativos em Equil´ıbrio Geral . . . . . . . . . . . . . . 5.3 Prˆemio de Risco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 O Experimento de Mehra e Prescott . . . . . . . . . . . . . . 5.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33 33 34 35 38 38
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
´ SUMARIO
III 6
7
8
IV 9
iii
Modelo B´asico de Crescimento e Ciclos Reais
39
Modelo de Solow 6.1 A Func¸a˜ o de Produc¸a˜ o Agregada . . . . . . . . . . . . . . . . . . . . 6.1.1 Concorrˆ encia e Distribuic¸ao ˜ do Produto . . . . . . . . . . . . 6.1.2 Func¸ao ˜ de Produc¸a˜ o Cobb-Douglas e CES . . . . . . . . . . 6.2 O Modelo de Solow . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Poupanc¸a e Crescimento no Modelo de Solow . . . . . . . . . 6.2.2 A Regra de Ouro da Acumulac¸ao ˜ de Capital e a Ineficiˆ encia Dinˆamica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Res´ıduo de Solow . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Contabilidade do Crescimento . . . . . . . . . . . . . . . . . . . . . 6.5 Convergˆencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40 40 43 44 44 50
Modelo B´asico de Crescimento e Ciclos Reais 7.1 Poupanc¸a Endo´ gena . . . . . . . . . . . . . . . . . . . 7.2 Oferta de Trabalho e o Modelo B´asico de Ciclos Reais 7.3 Equil´ıbrio . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Calibrac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
61 61 66 68 71 72
Trabalho Indivis´ıvel e outras Modificac¸oes ˜ do Modelo B´asico 8.1 Modelo com Trabalho Indivis´ıvel . . . . . . . . . . . . . . . . . . . . 8.2 Choque de Demanda . . . . . . . . . . . . . . . . . . . . . . . . . .
74 74 75
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Modelo de Gerac¸ o˜ es Superpostas
52 55 56 57
76
Estrutura do Modelo de Gerac¸oes ˜ Superpostas 9.1 Descric¸a˜ o dos Consumidores . . . . . . . . . . . . . . . . . . . . . . 9.2 Equil´ıbrio Competitivo e Equil´ıbrio Competitivo Recursivo . . . . . . 9.3 Bem-Estar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77 79 79 81
10 Demanda por Moeda 10.1 Equil´ıbrio Monet´ario . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Variac¸o˜ es na Oferta de Moeda . . . . . . . . . . . . . . . . . . . . . 10.3 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85 85 90 91
11 Modelo com Produc¸ao ˜ e Ineficiˆ encia Dinˆamica 11.1 Poupanc¸a e Acumulac¸a˜ o de Capital . . . . 11.2 Firmas e Prec¸os dos Fatores . . . . . . . . 11.3 Definic¸a˜ o e Caracterizac¸ao ˜ do Equil´ıbrio . . 11.4 Ineficiencia Dinˆamica . . . . . . . . . . . . 11.5 Exerc´ıcios . . . . . . . . . . . . . . . . . .
92 92 93 93 94 94
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
12 Equivalˆencia Ricardiana
95
13 Previdˆencia Social
96
´ SUMARIO
V
Rigidez de Prec¸os
14 Modelos com Rigidez de Prec¸os
iv
97 98
A Log-linearizac¸ao ˜ dos Modelos de Crescimento
100
aficas Referˆencias Bibliogr´
105
Lista de Figuras 3.1
ario de Reserva . . . . . . . . . . . . . . . . . . . Func¸ ˜ao Valor e Sal´
15
4.1 4.2 4.3
Consumidor keynesiano . . . . . . . . . . . . . . . . . . . . . . . . . Consumo suave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Consumo e Poupanc¸a . . . . . . . . . . . . . . . . . . . . . . . . . .
20 21 22
6.1 6.2 6.3 6.4 6.5 6.6 6.7
Func¸ ˜ao de Produc¸ao ˜ CES . . . . . . . . . . . . . . . . . . Modelo de Crescimento de Solow . . . . . . . . . . . . . Caminho de Crescimento Equilibrado com Mudanc¸a em σ Regra de Ouro da Acumulac¸ao ˜ de Capital . . . . . . . . . A Regra de Ouro e a Ineficiˆ encia Dinˆamica . . . . . . . . Relac¸a˜ o entre Taxa de Crescimento e Riqueza, 1955 - 1990 Clubes de Convergˆencia . . . . . . . . . . . . . . . . . .
45 48 52 53 54 59 60
9.1
Modelo de Gerac¸ o˜ es Superpostas com Dois Per´ıodos . . . . . . . . .
78
10.1 Equil´ıbrio Monet´ario Dinˆamico . . . . . . . . . . . . . . . . . . . . .
89
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
Lista de Tabelas 6.1 6.2
Capital e Produto no Modelo de Solow . . . . . . . . . . . . . . . . . erica Latina . . . . . . . . . . . Contabilidade do Crescimento na Am´
49 57
Parte I
˜ Dinˆamica com Programac¸ao Tempo Discreto
Cap´ıtulo 1
Horizonte Finito 1.1
Introduc¸ a˜ o
As t´ecnicas de programac¸ao ˜ dinˆamica s˜ao as ferramentas matem´aticas mais importantes para acompanhar o curso de Macroeconomia. Nesta unidade o m´ etodo de programac¸ao ˜ dinˆamica ser´a apresentado para o caso onde os agentes possuem um horizonte de tempo etodo com finito. Apesar de proporcionar muitas aplicac¸oes ˜ acredito que apresentar o m´ tempo finito e´ a melhor maneira de iniciar a discuss˜ao para programac¸ao ˜ dinˆamica com horizonte de tempo infinito. As notas que seguem foram escritas a partir de Stokey e Lucas (1989) e Wright (1997).
1.2
O Problema
Considere um indiv´ıduo que busca maximizar o valor esperado de seu fluxo de utilidade ıduo pode ser descrito como: intertemporal. O problema deste indiv´ max E0 at
T X
β t u(xt , at )
t=0
s.a. at ∈ Γ(xt )
xt+1 = f (xt , at , εt )
(1.1) (1.2)
onde at e´ a vari´avel escolhida pelo indiv´ıduo a cada per´ıodo, chamada vari´ aveis de controle, e xt representa uma vari´ avel que caracteriza um estado da natureza que con´ diciona a decis˜ ao do indiv´ıduo, chama-se xt de variavel de estado. O parˆametro β ıduo valoriza o representa o fator de desconto, quanto menor seu valor mais o indiv´ presente. avel de controle, at A restric¸a˜ o (1.1) determina que o valor escolhido para a vari´ avel de estado, xt . Por sua vez, a de pertencer a um conjunto determinado pela vari´ avel de estado, ou seja, determina restric¸a˜ o (1.2) fornece a lei de movimento da vari´ como a vari´avel de estado evolui no tempo. Pela lei de movimeto pode ser observado avel de estado em t + 1 depende do valor da vari´ avel de estado no que o valor da vari´ avel ε. per´ıodo t, do valor da vari´avel de controle no per´ıodo t e de uma terceira vari´ Esta ultima ´ e´ uma vari´ avel aleat´oria descrita por uma func¸ao ˜ de distribuic¸ao ˜ cumulativa
1.3 Equac¸ a˜ o de Bellman
3
que depende de xt e at , de forma que: F (ε | x, a) = Prob (εt ≤ ε | xt = x, at = a)
(1.3)
Dada uma seq¨uˆencia para a vari´avel de controle {at }e´ poss´ıvel usar (1.1) e (1.2) para construir a distribuic¸ao ˜ de probabilidade dos futuros estados condicional a x0 . E´ com respeito a esta distribuic¸ao ˜ que se toma as expectativas no problema do indiv´ıduo1 . Outro ponto importante a se notar e´ que u, Γ, f e F n˜ao dependem de t, neste sentido podemos dizer que o problema e´ estacion´ario. O fato de (at , xt ) conter toda a informac¸ao ˜ dispon´ıvel no per´ıodo t relevante para determinar a distribuic¸ao ˜ de probabilidade de eventos futuros e a hip´ otese de que a func¸a˜ o de utilidade e´ separav´el a apenas da no tempo implicam que o valo da vari´ avel de controle no tempo depender´ avel de estado, ou seja, at = αt (xt ), onde αt e´ chamada de regra de decis˜ao. Com vari´ ıtica. isto e´ poss´ıvel definir o que vem a ser uma pol´ Definic¸ao ˜ 1.1 Seja X o conjunto das vari´aveis de estado e A o conjunto das variaveis ´ de controle. Uma pol´ıtica de tamanho T e´ definida como uma seq¨uˆencia de regras de decis˜ao πT = (α0 , α1 , . . . , αT ), onde αt : X → A para todo t. O conjunto de pol´ıticas fact´ıveis e´ dado por: Πt = {πT = (α0 , α1 , . . . , αT ) : αt (x) ∈ Γ(x) ∀ x, t}
(1.4)
Uma pol´ıtica ser´ a dita estacion´aria se n˜ao depender do tempo, ou seja, αt (x) ≡ α(x). Cada pol´ıtica gera uma regra de movimento estoc´ astica para a vari´avel de estado, xt+1 = f (xt , αt (xt ), εt ), que ser´ aria. a estacion´aria se αt for estacion´
Equac¸a˜ o de Bellman
1.3
Considere uma dada pol´ıtica πT e que faltam T per´ıodos para que acabe o horizonte de programac¸a˜ o. Se o valor atual da vari´ avel de estado for x0 o valor desta pol´ıtica ser´a dado por: T X WT (x0 , πT ) = E0 β t u (xt , αt (xt )) (1.5) t=0
ıduo e´ onde xt evolui no tempo de acordo com (1.2). Desta forma o problema do indiv´ escolher πT ∈ ΠT de forma a maximizar WT (x, πT ). Assuma que Γ(x) e´ n˜ao-vazio, compacto e cont´ ınuo; que u(x, a) e´ cont´ınua e limitada e que f (x, a, ε) e´ cont´ınua. Ent˜ao existe uma soluc¸a˜ o para o problema, ˜ πT⋆ = (a⋆0 , a1⋆, . . . , a⋆T ), que e´ chamada pol´ıtica o´ tima. Ademais existe uma func¸ao valor otima, ´ dada por: (1.6) VT (x) = WT (x, πT⋆ ) que e´ cont´ınua e limitada em x.2 1A
este respeito ver Stokey e Lucas (1989) e Wright (1997) demonstrac¸ o˜ es e mais detalhes a este respeito ver Stokey e Lucas (1989) e Wright (1997).
2 Para
1.3 Equac¸ao ˜ de Bellman
4
De acordo com a lei da expectativas itereadas vale que E0 (·) = E0 [E1 (·)], desta forma (1.6) pode ser escrita como: VT (x0 ) = WT (x0 , πT⋆ ) = E0
T X
β t u(xt , at⋆ )
t=0
= max E0 πT ∈ΠT
)
t
β u(xt , at )
t=0
= max E0 πT ∈ΠT
=
( T X (
max E0
a0 ∈Γ(x0 )
u(x0 , a0 ) + E1
T X
)
t
β u(xt , at )
t=1
(
u(x0 , a0 ) +
max
πT −1 ∈ΠT −1
E1
T X
)
t
β u(xt , at )
t=1
ao afetam onde a ultima ´ igualdade decorre do fato que ac¸oes ˜ tomadas em t ≥ 1 n˜ u(x0 , a0 ).3 A partir da definic¸ao ˜ de func¸a˜ o valor e´ poss´ıvel perceber que: VT −1 (x1 ) =
max
πT −1 ∈ΠT −1
E1
T X
β t−1 u(xt , at )
t=1
e considerando que, pela lei de movimento, x1 = f (x0 , a0 , ε0 ), temos que: VT (x0 ) = max E0 a0 ∈Γ(x0 )
=
(
u(x0 , a0 ) + β
max
E1
πT −1 ∈ΠT −1
T X
β
t−1
t=1
)
u(xt , at )
max E0 {u(x0 , a0 ) + βVT −1 (f (x0 , a0 , ε0 ))}
a0 ∈Γ(x0 )
ao acima para Por fim se tirarmos o subscrito em x, a e ε e escrevermos a express˜ qualquer n´umero de per´ıodos restantes para o final do horizonte de programac¸ao, ˜ S∈ {1, 2, . . . , T }, podemos escrever a Equac¸ao ˜ de Bellman: VS (x) = max {u(x, a) + βEVS−1 (f (x, a, ε))} a∈Γ(x)
(1.7)
onde o operador esperanc¸a representa o valor esperado com respeito a ε condicional a x e a, ou seja: Z EVS−1 ((x, a, ε)) = VS−1 ((x, a, ε)) dF (ε | x, a) Com o uso da Equac¸a˜ o de Bellman o problema de escolher uma seq¨ uˆencia de regras de decis˜ao se transforma em uma seq¨ueˆ ncia de escolhas para a vari´ avel de controle. Isto simplifica muito o problema a ser solucionado4 . 3 Repare que o subescrito T − 1 significa que a vari´avel ´ e avaliada faltando T − 1 per´ıodos para acabar o avel em T . horizonte de programac¸ao, ˜ ou seja, uma vari´avel em T − 1 est´a um per´ıodo a frente de uma vari´ 4 Para mais detalhes ver Bertsekas (1976).
1.4 Algoritmo de Programac¸ao ˜ Dinˆamica
1.4
Algoritmo de Programac¸ao ˜ Dinˆamica
Uma das maneira de resolver a equac¸ao ˜ (1.7) e´ por meio do algoritmo de programac¸ao ˜ dinˆamica. Considere o ultimo ´ per´ıodo do horizonte de programac¸ao, ˜ ou seja S = 0, neste per´ıodo podemos contruir V0 . Para isto basta obter a resolvendo o seguinte problema de maximizac¸ao: ˜ max u(x, a) a∈Γ(x)
como a soluc¸ao ˜ em geral depende de x podemos escreve-la da forma a = η0 (x). Desta forma temos que: V0 (x) = u(x, η0 (x)) Conhecido V0 (x) e´ poss´ıvel determinar V1 (x) a partir da Equac¸ao ˜ de Bellman, para isto basta fazer: V1 (x) = max {u(x, a) + βEV0 (f (x, a, ε))} a∈Γ(x)
Em posse de V1 (x) e´ poss´ıvel usar novamente a Equac¸ao ˜ de Bellman para obter V2 (x). Seguindo com este m´etodo at´e S = T e´ poss´ıvel encontrar todas as func¸oes ˜ valores e ˜ do fim para o comec¸o que fornece o a pol´ıtica o´ tima. E´ esta possibilidade de soluc¸ao car´ater recursivo ao algoritmo de programac¸ao ˜ dinˆamica. Em resumo, o algoritmo de programac¸a˜ o dinˆamica pode ser descrito por meio dos passos abaixo: 1. Construir V0 (x) a partir da f´ormula V0 (x) = maxa∈Γ(x) u(x, a). Guardar a soluc¸ ˜ao do problema como a = η0 (x). 2. Usar a Equac¸ao ˜ de Bellman para determinar VS (x), S ∈ {1, 2, . . . , T }. Para cada S guardar a regra de decis˜ ao ηS (x). 3. Construir uma pol´ıtica fazendo αt (x) = ηT −t (x) para t = 0, 1, . . . , T . A pol´ıtica π = (α0 , α1 , . . . , αT ) e´ o´ tima.
5
Cap´ıtulo 2
Horizonte Infinito 2.1
Introduc¸ a˜ o
Nesta unidade passamos a considerar o caso de horizonte de programac¸ao ˜ infinito. As t´ecnicas desta unidade ser˜ ao fundamentais no decorrer do curso, de forma quee´ fundamental que todos tenham certeza de ter compreendido o uso de programac¸ao ˜ dinˆamica para resolver problemas de otimizac¸ao ˜ com horizonte de tempo infinito. Assim como a unidade anterior, esta parte segue a exposic¸ao ˜ em Stokey e Lucas (1989) e Wright (1997).
2.2
Funcional de Bellman
No caso de horizonte infinito o algoritmo de programac¸ao ˜ dinˆ amica n˜ao pode ser utilizado pois n˜ao existe um per´ıodo final onde iniciar as iterac¸oes. ˜ Entretantoe´ poss´ıvel pensar no problema como uma seq¨ uˆencia de problemas finitos com T tendendo a infinito. Esta abordagem pode ser justificada se for poss´ ıvel mostrar que a seq¨ uˆencia de limite e que este limite pol´ıticas ´otimas para o caso de horizonte finita possui um unico ´ ´e a pol´ıtica ´otima para o problema em horizonte infinito. Devido a estacionariedade do problema, no sentido descrito acima, no caso de horizonte infinito o problemae´o mesmo em cada ponto do tempo. Desta forma, se existir uma soluc¸a˜o, a func¸a˜ o valor, V (x), e a regra de decis˜ ao, a = α(x) ser˜ao as mesmas em cada ponto do tempo e V (x) deve satisfazer a equac¸ao ˜ funcional abaixo: V (x) = max {u(x, a) + βEV (f (x, a, ε))} a∈Γ(x)
(2.1)
Assim como em (1.7) a esperanc¸a e´ tomada em relac¸ao ˜ a ε e e´ condiconada em a e x. Seja C o conjunto de func¸oes ˜ cont´ınuas e limitadas que assumem valores reais em X. Considere um operador T : C → C tal que: T ϕ = max {u(x, a) + βEϕ (f (x, a, ε))} a∈Γ(x)
(2.2)
O operador descrito em (2.2) transforma uma func¸ao ˜ ϕ em outra T ϕ de tal forma que se ϕ ∈ C ent˜ao T ϕ ∈ C.1 Fica f´acil observar que a soluc¸ao ˜ da equac¸a˜o funcional (2.1) ´e um ponto fixo de (2.2), ou seja a func¸ao ˜ valor deve ser tal que V = T V . 1 Para
uma discuss˜ao sobre a demonstrac¸ao ˜ desta propriedade de T , ver ? e Wright (1997).
etricos e Espac¸os Vetoriais Normados 2.3 Espac¸os M´
Desta forma, o problema de encontrar a func¸ao ˜ valor no caso de horizonte de tempo finito pode ser tratado como a busca por um ponto fixo para (2.2). A secao ¸ ˜ 2.3 apresenta uma r´ apida revis˜ao sobre espac¸os m´etricos, enquanto a sec¸ao ˜ 2.4 apresenta o Teorema do Ponto Fixo de Bannach.
2.3
Espac¸os M´etricos e Espac¸os Vetoriais Normados
Esta sec¸ao ˜ cont´em uma r´apida revis˜ ao sobre espac¸os m´etricos, aqueles que necessitem de um estudo mais detalhado podem encontrar o material em ? ou em Lima (1993), sendo esta ultima ´ refer...