·

Ciências Econômicas ·

Estatística Econômica e Introdução à Econometria

· 2022/2

Envie sua pergunta para a IA e receba a resposta na hora

Fazer Pergunta

Texto de pré-visualização

IE  UFRJ ESTATÍSTICA II 2022-II - 09/11/2022 Prof. Hugo Pedro Boff Prova 1 : Responda 4 Questões 1. Seja X1,...Xn uma amostra simples de uma população Pareto com densidade: fXx;   A  Ax 1 ; x  A ;   2 (a) Dê os estimadores MV dos parâmetros A e ; (b) Dê os estimadores MM de A e ; (c) Explique porque os estimadores MV são preferíveis, mesmo em pequenas amostras. 2. No contexto da questão 1, ache a variância assintótica do estimador MV de ; 3. O preço por metro quadrado X dos novos apartamentos construídos na Costa Azul é distribuido uniformente no intervalo a,b, onde a  b são parâmetros a serem estimados através de uma amostra simples X 1,...Xn. (a) Dê os estimadores MV de a e de b; (b) Ache os estimadores MM de a e de b. 4. No contexto da questão anterior: (a) Dê os estimadores MVU (Minimum Variance Unbiased) de a e de b; (b) Se em uma amostra de 30 lançamentos, o preço do m2 mínimo foi de 8.000 reais e o preço máximo foi de 15.000 reais, dê as estimativas MVU de a e de b. 5. Seja X1,X2...,Xn uma amostra de uma população X  Laplace, com densidade: fXx;  1 2 e 1  |x| ; x  . Lembre que o estimador MV de  é a mediana amostral X n1 2  supondo n ímpar. Sabemos também que EX   e VX  22. Usando um teorema para a convergência das estatísticas ordenada de ordem, temos a convergência da mediana amostral M  X n1 2  para uma distribuição Normal: n M  FX 1 1 2 fXFX 1 1 2   1 2 1  1 2 1/2 d n  N0,1 (a) Use o critério EQM para comparar os estimadores MV e MM de  (para o estimador MV use os momentos assintóticos deduzidos da fórmula acima). Qual deles é preferível ? Explique; (b) Use Chebyshev para mostrar que os estimadores de  (MV e MM) são ambos consistentes. SOLUÇÕES 1. (a) Função de Verossimilhança: LA,; x1,...,xn  i1 n fXxi;A,  nAni1 n  1 xi 1  ; A  x1 0 ; c.c.  nAn 1 i1 n xi1  ; A  x1 0 ; c.c. É imediato perceber (como visto em aula) que:  A MV  X1 mínimo amostral. A solução para  é interior: lA , ; x1,...,xn  nln  nlnx1    1lni1 n xi ; A  x1  nln  nlnx1    1i1 n lnxi ; A  x1  l; x1,...,xn  n   nlnx1  i1 n lnxi  0  n   i1 n lnxi  nlnx1  i1 n ln xi x1    MV  n i1 n ln Xi X1  Obs.: A solução X1, MV é bem um ponto de máximo da verossimilhança, pois l; x1,...,xn   n 2  0 (b) Estimadores de momentos: Vamos primeiro calcular EX e VX : EX  A A  xdx  A 1 1 x1|A      1 A EX2  A A  x1dx  A 1 2 x2|A      2 A2  VX     2 A2      1 A2     12  2 A2 Temos de resolver:    1 A  X 1    12  2 A2  Sn1 2 2 Inserindo 1 em 2 : AX   1  2  Sn1 2  A    1  2 X Sn1 2 2 Substituindo 2 de volta em 1 obtemos:    1   1  2 X S2  X    2S2  X 2  2  2  X /S2  0. Resolvendo em  (só a raiz positiva é admissível):  MM  1  1  X /S2 . Substituindo este valor em 1 : AMM   1  X /S2 1  1  X /S2 X . (c) Os estimadores MV são preferíveis aos estimadores MM neste caso, porque eles são funções de estatísticas suficientes ou seja, eles carregam todo o conteúdo informacional contido na amostra. No caso dos estimadores MM, eles estão baseados nas estatísticas i1 n Xi e i1 n Xi 2, as quais não são suficientes. Pelo teorema da fatoração de Neyman é fácil perceber que as estatísticas suficientes para A e  são X1 e i1 n Xi. 2. A variância assintótica do estimador MV de  é igual ao inverso da quantidade de Informação contida na amostra sobre este parâmetro (como propriedade, os estimadores MV são assintóticamente eficientes). Vamos então obter I1,...,n. Fixado A, o suporte da v.a. X não depende de . Logo, podemos calcular primeiro a informação contida em X1 : lnfXX1;  ln  lnA    1lnX1  lnfXX1;   1   lnA  lnX1  2 lnfXX1; 2   1 2  I1  E 2 lnfXX1; 2   E 1 2   1 2  I1,...,n  n 2 Assim, a variância assintótica de   n i1 n lnXi/X1 é: Vass  I1,...,n 1   2 n . 3. (a) Verossimilhança: La,b ; x1,x2,...,xn   1 b  a n ; a  x1  xn  b 0 ; c.c. O gráfico abaixo mostra que o ponto que maximiza a verossimilhança é: X(1) X(n) b a L((X(1) , X(n)) a, b 0 a MV  X1 mínimo amostral; b MV  Xn máximo amostral. (b) Os estimadores de momentos são obtidos igualando-se os dois primeiros momentos amostrais com os dois primeiros momentos populacionais: X  EX  a  b 2  2X  a  b Sn1 2  VX  b  a2 12  2 3 S  b  a Assim, os estimadores de momentos são: b MM  X  3 S a MM  X  3 S 4. (a) Os estimadores MV de a e b são estatísticas suficientes e completas. Pelo teorema de Lehmann e Scheffé, se acharmos funções 1X1,X2 e 2X2,X1 tais que E1X1,X2  a e E2X2,X1  b então a  1X1,X2 e b  2X2,X1 serão os únicos estimadores MVU de a e b. Vamos primeiro obter a densidade de X1 : Temos: FX1x;a,b  1  1  FXxn  1   b  x b  a n A densidade é: fX1x;a,b  n 1 b  a nb  xn1 Então, Eb  X1  n 1 b  a n a bb  xndx  n n  1 b  a  EX1  b  n n  1 b  a  b  na n  1 1 Vamos agora obter a densidade de Xn : Temos: FXnx;a,b  FXxn   x  a b  a n A densidade é: fXnx;a,b  n 1 b  a nx  an1 Então, EXn  a  n 1 b  a n a bx  andx  n n  1 b  a  EXn  a  n n  1 b  a  a  nb n  1 2 Vemos em 1 que X1 superestima a e em 2 que Xn subestima b. Para obtermos as funções 1 e 2 consideremos o sistema de equações lineares: n  1 X1 Xn  n 1 1 n a b  a b  n 1 1 n 1 X1 Xn n  1 : a b  n n21  1 n21  1 n21 n n21 . X1 Xn n  1  nX1Xn n1 nXnX1 n1 Podemos checar que Ea  a e Eb  b Logo, a  1X1,X2  nX1  Xn n  1 e b  2X1,X2  nXn  X1 n  1 são os estimadores MVU de a e b. (b) Estimativas: a  308.000  15.000 29  7. 758 reais b  3015.000  8.000 29  15. 241 reais. 5. (a) M  X n1 2  é o estimador MV de  (como dito no enunciado). Usando a fórmula dada: FX 11/2    fXFX 11/2  fX  1 2 . n M   1 2 1 2  n  M   n  N0,1. Logo, assintoticamente temos: EM   e VM  2 n . Assim, EQMMV  2 n . Para o estimador de momentos, é imediato que EX  X (média amostral). Logo, MM  X. Então, EMM  EX   e VMM  VX  VX n  22 n Comparando: EQMMM  22 n  2EQMMV  EQMMV. Deste modo, o estimador MV é preferível. Ele é baseado em uma estatística suficiente (a Mediana). O estimador MM não é baseado em uma estatística suficiente. (b) Por Chebyshev, para que um estimador seja consistente basta que ele seja assintoticamente não viesado e que sua variância tenda a 0 quando n tende ao infinito. Este é o caso de ambos estimadores de  vistos no item (a). Logo, os estimadores MV e MM de  são ambos consistentes.