• Home
  • Chat IA
  • Guru IA
  • Tutores
  • Central de ajuda
Home
Chat IA
Guru IA
Tutores

·

Ciências Econômicas ·

Estatística Econômica e Introdução à Econometria

· 2022/2

Envie sua pergunta para a IA e receba a resposta na hora

Recomendado para você

Teste 2 - Estatística Econômica 2022 1

3

Teste 2 - Estatística Econômica 2022 1

Estatística Econômica e Introdução à Econometria

UFRJ

Aula 5 - Estatística Econômica 2022 2

19

Aula 5 - Estatística Econômica 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Prova Final - Estatística Econômica e Introdução à Econometria 2021-2

6

Prova Final - Estatística Econômica e Introdução à Econometria 2021-2

Estatística Econômica e Introdução à Econometria

UFRJ

P2 - Estatística Econômica e Introdução à Econometria 2023-2

3

P2 - Estatística Econômica e Introdução à Econometria 2023-2

Estatística Econômica e Introdução à Econometria

UFRJ

Trabalho Estatística 2 2022 2

1

Trabalho Estatística 2 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Teste 4 - Estatística Econômica e Introdução à Econometria 2023-2

3

Teste 4 - Estatística Econômica e Introdução à Econometria 2023-2

Estatística Econômica e Introdução à Econometria

UFRJ

Aula 4 - Estatística Econômica 2022 2

20

Aula 4 - Estatística Econômica 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Prova Final - Estatística Econômica e Introdução à Econometria 2023-1

4

Prova Final - Estatística Econômica e Introdução à Econometria 2023-1

Estatística Econômica e Introdução à Econometria

UFRJ

P2 - Estatística Econômica 2015 1

2

P2 - Estatística Econômica 2015 1

Estatística Econômica e Introdução à Econometria

UFRJ

Aula 3 - Estatística Econômica 2022 2

15

Aula 3 - Estatística Econômica 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Texto de pré-visualização

IE  UFRJ ESTATÍSTICA II 2022-II - 09/11/2022 Prof. Hugo Pedro Boff Prova 1 : Responda 4 Questões 1. Seja X1,...Xn uma amostra simples de uma população Pareto com densidade: fXx;   A  Ax 1 ; x  A ;   2 (a) Dê os estimadores MV dos parâmetros A e ; (b) Dê os estimadores MM de A e ; (c) Explique porque os estimadores MV são preferíveis, mesmo em pequenas amostras. 2. No contexto da questão 1, ache a variância assintótica do estimador MV de ; 3. O preço por metro quadrado X dos novos apartamentos construídos na Costa Azul é distribuido uniformente no intervalo a,b, onde a  b são parâmetros a serem estimados através de uma amostra simples X 1,...Xn. (a) Dê os estimadores MV de a e de b; (b) Ache os estimadores MM de a e de b. 4. No contexto da questão anterior: (a) Dê os estimadores MVU (Minimum Variance Unbiased) de a e de b; (b) Se em uma amostra de 30 lançamentos, o preço do m2 mínimo foi de 8.000 reais e o preço máximo foi de 15.000 reais, dê as estimativas MVU de a e de b. 5. Seja X1,X2...,Xn uma amostra de uma população X  Laplace, com densidade: fXx;  1 2 e 1  |x| ; x  . Lembre que o estimador MV de  é a mediana amostral X n1 2  supondo n ímpar. Sabemos também que EX   e VX  22. Usando um teorema para a convergência das estatísticas ordenada de ordem, temos a convergência da mediana amostral M  X n1 2  para uma distribuição Normal: n M  FX 1 1 2 fXFX 1 1 2   1 2 1  1 2 1/2 d n  N0,1 (a) Use o critério EQM para comparar os estimadores MV e MM de  (para o estimador MV use os momentos assintóticos deduzidos da fórmula acima). Qual deles é preferível ? Explique; (b) Use Chebyshev para mostrar que os estimadores de  (MV e MM) são ambos consistentes. SOLUÇÕES 1. (a) Função de Verossimilhança: LA,; x1,...,xn  i1 n fXxi;A,  nAni1 n  1 xi 1  ; A  x1 0 ; c.c.  nAn 1 i1 n xi1  ; A  x1 0 ; c.c. É imediato perceber (como visto em aula) que:  A MV  X1 mínimo amostral. A solução para  é interior: lA , ; x1,...,xn  nln  nlnx1    1lni1 n xi ; A  x1  nln  nlnx1    1i1 n lnxi ; A  x1  l; x1,...,xn  n   nlnx1  i1 n lnxi  0  n   i1 n lnxi  nlnx1  i1 n ln xi x1    MV  n i1 n ln Xi X1  Obs.: A solução X1, MV é bem um ponto de máximo da verossimilhança, pois l; x1,...,xn   n 2  0 (b) Estimadores de momentos: Vamos primeiro calcular EX e VX : EX  A A  xdx  A 1 1 x1|A      1 A EX2  A A  x1dx  A 1 2 x2|A      2 A2  VX     2 A2      1 A2     12  2 A2 Temos de resolver:    1 A  X 1    12  2 A2  Sn1 2 2 Inserindo 1 em 2 : AX   1  2  Sn1 2  A    1  2 X Sn1 2 2 Substituindo 2 de volta em 1 obtemos:    1   1  2 X S2  X    2S2  X 2  2  2  X /S2  0. Resolvendo em  (só a raiz positiva é admissível):  MM  1  1  X /S2 . Substituindo este valor em 1 : AMM   1  X /S2 1  1  X /S2 X . (c) Os estimadores MV são preferíveis aos estimadores MM neste caso, porque eles são funções de estatísticas suficientes ou seja, eles carregam todo o conteúdo informacional contido na amostra. No caso dos estimadores MM, eles estão baseados nas estatísticas i1 n Xi e i1 n Xi 2, as quais não são suficientes. Pelo teorema da fatoração de Neyman é fácil perceber que as estatísticas suficientes para A e  são X1 e i1 n Xi. 2. A variância assintótica do estimador MV de  é igual ao inverso da quantidade de Informação contida na amostra sobre este parâmetro (como propriedade, os estimadores MV são assintóticamente eficientes). Vamos então obter I1,...,n. Fixado A, o suporte da v.a. X não depende de . Logo, podemos calcular primeiro a informação contida em X1 : lnfXX1;  ln  lnA    1lnX1  lnfXX1;   1   lnA  lnX1  2 lnfXX1; 2   1 2  I1  E 2 lnfXX1; 2   E 1 2   1 2  I1,...,n  n 2 Assim, a variância assintótica de   n i1 n lnXi/X1 é: Vass  I1,...,n 1   2 n . 3. (a) Verossimilhança: La,b ; x1,x2,...,xn   1 b  a n ; a  x1  xn  b 0 ; c.c. O gráfico abaixo mostra que o ponto que maximiza a verossimilhança é: X(1) X(n) b a L((X(1) , X(n)) a, b 0 a MV  X1 mínimo amostral; b MV  Xn máximo amostral. (b) Os estimadores de momentos são obtidos igualando-se os dois primeiros momentos amostrais com os dois primeiros momentos populacionais: X  EX  a  b 2  2X  a  b Sn1 2  VX  b  a2 12  2 3 S  b  a Assim, os estimadores de momentos são: b MM  X  3 S a MM  X  3 S 4. (a) Os estimadores MV de a e b são estatísticas suficientes e completas. Pelo teorema de Lehmann e Scheffé, se acharmos funções 1X1,X2 e 2X2,X1 tais que E1X1,X2  a e E2X2,X1  b então a  1X1,X2 e b  2X2,X1 serão os únicos estimadores MVU de a e b. Vamos primeiro obter a densidade de X1 : Temos: FX1x;a,b  1  1  FXxn  1   b  x b  a n A densidade é: fX1x;a,b  n 1 b  a nb  xn1 Então, Eb  X1  n 1 b  a n a bb  xndx  n n  1 b  a  EX1  b  n n  1 b  a  b  na n  1 1 Vamos agora obter a densidade de Xn : Temos: FXnx;a,b  FXxn   x  a b  a n A densidade é: fXnx;a,b  n 1 b  a nx  an1 Então, EXn  a  n 1 b  a n a bx  andx  n n  1 b  a  EXn  a  n n  1 b  a  a  nb n  1 2 Vemos em 1 que X1 superestima a e em 2 que Xn subestima b. Para obtermos as funções 1 e 2 consideremos o sistema de equações lineares: n  1 X1 Xn  n 1 1 n a b  a b  n 1 1 n 1 X1 Xn n  1 : a b  n n21  1 n21  1 n21 n n21 . X1 Xn n  1  nX1Xn n1 nXnX1 n1 Podemos checar que Ea  a e Eb  b Logo, a  1X1,X2  nX1  Xn n  1 e b  2X1,X2  nXn  X1 n  1 são os estimadores MVU de a e b. (b) Estimativas: a  308.000  15.000 29  7. 758 reais b  3015.000  8.000 29  15. 241 reais. 5. (a) M  X n1 2  é o estimador MV de  (como dito no enunciado). Usando a fórmula dada: FX 11/2    fXFX 11/2  fX  1 2 . n M   1 2 1 2  n  M   n  N0,1. Logo, assintoticamente temos: EM   e VM  2 n . Assim, EQMMV  2 n . Para o estimador de momentos, é imediato que EX  X (média amostral). Logo, MM  X. Então, EMM  EX   e VMM  VX  VX n  22 n Comparando: EQMMM  22 n  2EQMMV  EQMMV. Deste modo, o estimador MV é preferível. Ele é baseado em uma estatística suficiente (a Mediana). O estimador MM não é baseado em uma estatística suficiente. (b) Por Chebyshev, para que um estimador seja consistente basta que ele seja assintoticamente não viesado e que sua variância tenda a 0 quando n tende ao infinito. Este é o caso de ambos estimadores de  vistos no item (a). Logo, os estimadores MV e MM de  são ambos consistentes.

Envie sua pergunta para a IA e receba a resposta na hora

Recomendado para você

Teste 2 - Estatística Econômica 2022 1

3

Teste 2 - Estatística Econômica 2022 1

Estatística Econômica e Introdução à Econometria

UFRJ

Aula 5 - Estatística Econômica 2022 2

19

Aula 5 - Estatística Econômica 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Prova Final - Estatística Econômica e Introdução à Econometria 2021-2

6

Prova Final - Estatística Econômica e Introdução à Econometria 2021-2

Estatística Econômica e Introdução à Econometria

UFRJ

P2 - Estatística Econômica e Introdução à Econometria 2023-2

3

P2 - Estatística Econômica e Introdução à Econometria 2023-2

Estatística Econômica e Introdução à Econometria

UFRJ

Trabalho Estatística 2 2022 2

1

Trabalho Estatística 2 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Teste 4 - Estatística Econômica e Introdução à Econometria 2023-2

3

Teste 4 - Estatística Econômica e Introdução à Econometria 2023-2

Estatística Econômica e Introdução à Econometria

UFRJ

Aula 4 - Estatística Econômica 2022 2

20

Aula 4 - Estatística Econômica 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Prova Final - Estatística Econômica e Introdução à Econometria 2023-1

4

Prova Final - Estatística Econômica e Introdução à Econometria 2023-1

Estatística Econômica e Introdução à Econometria

UFRJ

P2 - Estatística Econômica 2015 1

2

P2 - Estatística Econômica 2015 1

Estatística Econômica e Introdução à Econometria

UFRJ

Aula 3 - Estatística Econômica 2022 2

15

Aula 3 - Estatística Econômica 2022 2

Estatística Econômica e Introdução à Econometria

UFRJ

Texto de pré-visualização

IE  UFRJ ESTATÍSTICA II 2022-II - 09/11/2022 Prof. Hugo Pedro Boff Prova 1 : Responda 4 Questões 1. Seja X1,...Xn uma amostra simples de uma população Pareto com densidade: fXx;   A  Ax 1 ; x  A ;   2 (a) Dê os estimadores MV dos parâmetros A e ; (b) Dê os estimadores MM de A e ; (c) Explique porque os estimadores MV são preferíveis, mesmo em pequenas amostras. 2. No contexto da questão 1, ache a variância assintótica do estimador MV de ; 3. O preço por metro quadrado X dos novos apartamentos construídos na Costa Azul é distribuido uniformente no intervalo a,b, onde a  b são parâmetros a serem estimados através de uma amostra simples X 1,...Xn. (a) Dê os estimadores MV de a e de b; (b) Ache os estimadores MM de a e de b. 4. No contexto da questão anterior: (a) Dê os estimadores MVU (Minimum Variance Unbiased) de a e de b; (b) Se em uma amostra de 30 lançamentos, o preço do m2 mínimo foi de 8.000 reais e o preço máximo foi de 15.000 reais, dê as estimativas MVU de a e de b. 5. Seja X1,X2...,Xn uma amostra de uma população X  Laplace, com densidade: fXx;  1 2 e 1  |x| ; x  . Lembre que o estimador MV de  é a mediana amostral X n1 2  supondo n ímpar. Sabemos também que EX   e VX  22. Usando um teorema para a convergência das estatísticas ordenada de ordem, temos a convergência da mediana amostral M  X n1 2  para uma distribuição Normal: n M  FX 1 1 2 fXFX 1 1 2   1 2 1  1 2 1/2 d n  N0,1 (a) Use o critério EQM para comparar os estimadores MV e MM de  (para o estimador MV use os momentos assintóticos deduzidos da fórmula acima). Qual deles é preferível ? Explique; (b) Use Chebyshev para mostrar que os estimadores de  (MV e MM) são ambos consistentes. SOLUÇÕES 1. (a) Função de Verossimilhança: LA,; x1,...,xn  i1 n fXxi;A,  nAni1 n  1 xi 1  ; A  x1 0 ; c.c.  nAn 1 i1 n xi1  ; A  x1 0 ; c.c. É imediato perceber (como visto em aula) que:  A MV  X1 mínimo amostral. A solução para  é interior: lA , ; x1,...,xn  nln  nlnx1    1lni1 n xi ; A  x1  nln  nlnx1    1i1 n lnxi ; A  x1  l; x1,...,xn  n   nlnx1  i1 n lnxi  0  n   i1 n lnxi  nlnx1  i1 n ln xi x1    MV  n i1 n ln Xi X1  Obs.: A solução X1, MV é bem um ponto de máximo da verossimilhança, pois l; x1,...,xn   n 2  0 (b) Estimadores de momentos: Vamos primeiro calcular EX e VX : EX  A A  xdx  A 1 1 x1|A      1 A EX2  A A  x1dx  A 1 2 x2|A      2 A2  VX     2 A2      1 A2     12  2 A2 Temos de resolver:    1 A  X 1    12  2 A2  Sn1 2 2 Inserindo 1 em 2 : AX   1  2  Sn1 2  A    1  2 X Sn1 2 2 Substituindo 2 de volta em 1 obtemos:    1   1  2 X S2  X    2S2  X 2  2  2  X /S2  0. Resolvendo em  (só a raiz positiva é admissível):  MM  1  1  X /S2 . Substituindo este valor em 1 : AMM   1  X /S2 1  1  X /S2 X . (c) Os estimadores MV são preferíveis aos estimadores MM neste caso, porque eles são funções de estatísticas suficientes ou seja, eles carregam todo o conteúdo informacional contido na amostra. No caso dos estimadores MM, eles estão baseados nas estatísticas i1 n Xi e i1 n Xi 2, as quais não são suficientes. Pelo teorema da fatoração de Neyman é fácil perceber que as estatísticas suficientes para A e  são X1 e i1 n Xi. 2. A variância assintótica do estimador MV de  é igual ao inverso da quantidade de Informação contida na amostra sobre este parâmetro (como propriedade, os estimadores MV são assintóticamente eficientes). Vamos então obter I1,...,n. Fixado A, o suporte da v.a. X não depende de . Logo, podemos calcular primeiro a informação contida em X1 : lnfXX1;  ln  lnA    1lnX1  lnfXX1;   1   lnA  lnX1  2 lnfXX1; 2   1 2  I1  E 2 lnfXX1; 2   E 1 2   1 2  I1,...,n  n 2 Assim, a variância assintótica de   n i1 n lnXi/X1 é: Vass  I1,...,n 1   2 n . 3. (a) Verossimilhança: La,b ; x1,x2,...,xn   1 b  a n ; a  x1  xn  b 0 ; c.c. O gráfico abaixo mostra que o ponto que maximiza a verossimilhança é: X(1) X(n) b a L((X(1) , X(n)) a, b 0 a MV  X1 mínimo amostral; b MV  Xn máximo amostral. (b) Os estimadores de momentos são obtidos igualando-se os dois primeiros momentos amostrais com os dois primeiros momentos populacionais: X  EX  a  b 2  2X  a  b Sn1 2  VX  b  a2 12  2 3 S  b  a Assim, os estimadores de momentos são: b MM  X  3 S a MM  X  3 S 4. (a) Os estimadores MV de a e b são estatísticas suficientes e completas. Pelo teorema de Lehmann e Scheffé, se acharmos funções 1X1,X2 e 2X2,X1 tais que E1X1,X2  a e E2X2,X1  b então a  1X1,X2 e b  2X2,X1 serão os únicos estimadores MVU de a e b. Vamos primeiro obter a densidade de X1 : Temos: FX1x;a,b  1  1  FXxn  1   b  x b  a n A densidade é: fX1x;a,b  n 1 b  a nb  xn1 Então, Eb  X1  n 1 b  a n a bb  xndx  n n  1 b  a  EX1  b  n n  1 b  a  b  na n  1 1 Vamos agora obter a densidade de Xn : Temos: FXnx;a,b  FXxn   x  a b  a n A densidade é: fXnx;a,b  n 1 b  a nx  an1 Então, EXn  a  n 1 b  a n a bx  andx  n n  1 b  a  EXn  a  n n  1 b  a  a  nb n  1 2 Vemos em 1 que X1 superestima a e em 2 que Xn subestima b. Para obtermos as funções 1 e 2 consideremos o sistema de equações lineares: n  1 X1 Xn  n 1 1 n a b  a b  n 1 1 n 1 X1 Xn n  1 : a b  n n21  1 n21  1 n21 n n21 . X1 Xn n  1  nX1Xn n1 nXnX1 n1 Podemos checar que Ea  a e Eb  b Logo, a  1X1,X2  nX1  Xn n  1 e b  2X1,X2  nXn  X1 n  1 são os estimadores MVU de a e b. (b) Estimativas: a  308.000  15.000 29  7. 758 reais b  3015.000  8.000 29  15. 241 reais. 5. (a) M  X n1 2  é o estimador MV de  (como dito no enunciado). Usando a fórmula dada: FX 11/2    fXFX 11/2  fX  1 2 . n M   1 2 1 2  n  M   n  N0,1. Logo, assintoticamente temos: EM   e VM  2 n . Assim, EQMMV  2 n . Para o estimador de momentos, é imediato que EX  X (média amostral). Logo, MM  X. Então, EMM  EX   e VMM  VX  VX n  22 n Comparando: EQMMM  22 n  2EQMMV  EQMMV. Deste modo, o estimador MV é preferível. Ele é baseado em uma estatística suficiente (a Mediana). O estimador MM não é baseado em uma estatística suficiente. (b) Por Chebyshev, para que um estimador seja consistente basta que ele seja assintoticamente não viesado e que sua variância tenda a 0 quando n tende ao infinito. Este é o caso de ambos estimadores de  vistos no item (a). Logo, os estimadores MV e MM de  são ambos consistentes.

Sua Nova Sala de Aula

Sua Nova Sala de Aula

Empresa

Central de ajuda Contato Blog

Legal

Termos de uso Política de privacidade Política de cookies Código de honra

Baixe o app

4,8
(35.000 avaliações)
© 2025 Meu Guru®