·

Cursos Gerais ·

Econometria

Envie sua pergunta para a IA e receba a resposta na hora

Fazer Pergunta

Texto de pré-visualização

AVALAOS\nValor esperado e variância dos estima- dores de MEO.\n- Inexistência de viés\n O estimador é dado por\n β̂₁ = Σ(xᵢ - x̄)(yᵢ - ȳ)\n Σ(xᵢ - x̄)²\n = Σ(xᵢ - x̄)yᵢ\n Σ(xᵢ - x̄)²\n\nSe o modelo está especificado de forma correta, então sabe-se que\n yᵢ = β₀ + β₁xᵢ + uᵢ.\nLogo, substituindo na fórmula do estimador, tem-se\n β̂₁ = Σ(xᵢ - x̄)(β₀ + β₁xᵢ + uᵢ)\n Σ(xᵢ - x̄)²\n = Σ(xᵢ - x̄)β₀ + Σ(xᵢ - x̄)β₁xᵢ + Σ(xᵢ - x̄)uᵢ\n = β₀Σ(xᵢ - x̄) + β₁Σ(xᵢ - x̄)² + Σ(xᵢ - x̄)uᵢ\n Σ(xᵢ - x̄)²\n Sabe-se que\n- Σ(xᵢ - x̄) = 0\n- Σ(xᵢ - x̄)xᵢ = Σ(x̄ - x̄)xᵢ + x̄Σ(xᵢ - x̄) = Σ(xᵢ - x̄)²\nLogo,\n β̂₁ = β₁ + Σ(xᵢ - x̄)²\n Σ(xᵢ - x̄)²\n + Σ(xᵢ - x̄)uᵢ\n Σ(xᵢ - x̄)²\n = β₁ + Σ(xᵢ - x̄)uᵢ\n Σ(xᵢ - x̄)²\n = β₁ + Σ(xᵢ - x̄)uᵢ\n Σ(xᵢ - x̄)²\n\nEntão:\n E[β̂₁ | X] = E[β₁ | X] + E[ Σ(xᵢ - x̄)uᵢ | X]\n = β₁ + Σ(xᵢ - x̄)uᵢ\n Σ(xᵢ - x̄)²\n = β₁. Uma vez que E[β̂₁ | X] = β₁, pela definição das expectativas incondicionais, tem-se\n E[β̂₁] = E[E[β̂₁ | X]] = E[β₁] = β₁.\nNa forma matricial, temos\n β̂ = (X'X)⁻¹X'y\n = (X'X)⁻¹X'(Xβ + u), pois g = Xβ + u\n = (X'X)⁻¹X'yβ + (X'X)⁻¹X'u\n = β + (X'X)⁻¹X'u\nE[β̂ | X] = β + E[(X'X)⁻¹X'u | X]\n = β + (X'X)⁻¹E[u'X | X]\n = β.\nLogo, o estimador de MEO é não viciado. - Variação dos Estimadores de MCO\nSaliente que β1 é um estima- dor não-viciado de β1. No entanto, é importante saber também que distante podemos esperar que β1 seja de β1, ou seja, que é disperso β1.\nHipótese 3: Variação do erro é estática, i.e.,\nvar(u|x) = σ²I.\nLogo, temos que\nvar(u|x) = E[(u - E(u|x))(u - E(u|x))']|x]\n= E[u u' | x]\n= E\n\n= E\n= E\n= E\n= E\n\n= σ² I Logo, hipótese 3 implica em\nHipótese 3.1: Homocedasticidade:\nE[u_i²|x] = σ² > 0 ∀ i=1,...,m.\nDito de outra forma, a variação do erro é constante, pois\nv(u_i|x) = E[u_i²|x] - E[u_i|x]²\n= σ². Hipótese 3.2: Ausência de correlação serial:\nE[u_i u_j | x] = 0 ∀ i,j=1,...,m.\nDito de outra forma, a covariância entre os termos de um é zero, pois\ncov(u_i,u_j|x) = E[u_i u_j | x] - E[u_i | x]E[u_j | x]\n= E[u_i u_j | x] = 0.\nNote que Hipótese 3 implica também que\nvar(u) = σ², pois\nvar(u) = E[u²] - E[u]²\n= E[u²] - E[u]²\n= E[E[u|x]²]\n= E(σ²) = σ².\nAssim como,\nvar(y|x) = var(β₀ + β₁ X + u | X)\n= var(β₀|x) + var(β₁|x) + var(u|x)\n= 0 + β₁²var(x|x) + σ²\n= σ², pois var(x|x) = 0. Nosso objetivo é obter a variância do estimador β̂.\n\nSaliente que\n\nβ̂1 = β0 + Σ(xi-x̄)ui - Σx̄ui\nΣ(xi-x̄)²\n\n= -β1 + Σ(xi-x̄)ui\nΣ(xi-x̄)²\n\nLogo,\n\nvar(β̂1|x) = var[ β̂1 + Σ(xi-x̄)ui\nΣ(xi-x̄)² | x ]\n\n= var(β̂1|x) + var[ Σ(xi-x̄)ui | x ]\n\n= 0 + 1 var(Σ(xi-x̄)ui | x)\n\npois var(aX) = E[a²X²] - E[aX]²\n= a²E(X²) - a²E(X)²\n= a²E(X²) - E(X)²\n\n= 1\n[ Σ(xi-x̄)² ]² Σ(xi-x̄)² var(ui|x)\n\n= [ Σ(xi-x̄)² ]\n pois var[ Σ(xi-x̄)ui|x] =\n= var(Σ(xi-x̄)ui|x) + var(Σx2-x̄) |x) + ...\n+ var(Σ(xm-x̄)um|x) + 2 [ cov(xi-x̄,um|x) ]\n\n= var(cxi- x̄) |x)+ cov(xr,xs|x) + cov(x̄-x̄u1|x) + ... + cov(xm-x̄,um|x) ]\n\nLogo,\n\nvar(α+b) = var(a) + var(b) + 2cov(a,b)\n\n= var(Σy1u1|x) + ... + var(Σ(xm-x̄)um|x)\n\npois cov[Σ(xi-x̄)ui,Σ(xi - x̄)uj |x] =\n= E[Σ(xi-x̄)ui,Σ(xj-x̄u1|x] - E[Σ(xi-x̄)ui|x]E[Σ(xj-x̄)uj|x]\n\n= (xi-x̄)(cj-x̄)E[ui|x]E[uj|x] = 0\n\nLogo,\n\nvar(β̂1|x) = 1\n[ Σ(xi-x̄)² ]² Σui-x̄)²\n= σ² Σ(xi-x̄)²\n[Σ(xi-x̄)²]²\n\nvar(β̂1|x) = σ²\nΣ(xi-x̄)²