·
Ciências Econômicas ·
Econometria
Send your question to AI and receive an answer instantly
Recommended for you
17
Resolução da Lista de Exercícios 01 - Modelo Econométrico da Equação de Demanda
Econometria
PUC
45
Hipóteses de Gauss-Markov e Autocorrelação
Econometria
PUC
7
Prova de Econometria II - PUCSP - 2º Semestre 2021
Econometria
PUC
2
TDE RA2 de Econometria: Análise do Consumo de Frango e Produção Cobb-Douglas
Econometria
PUC
1
Análise de Regressão Linear: Indicadores de Salário e Educação
Econometria
PUC
1
Teste de Hipótese: Significância da Variável Educ sobre Salário
Econometria
PUC
1
Resultados da Regressão Linear em Baseball
Econometria
PUC
50
Variáveis Dummy em Modelos de Regressão Linear
Econometria
PUC
1
Revisao Econometria I - Quiz 01 - Estimador de Minimos Quadrados Ordinarios
Econometria
PUC
12
Relatório de Análise e Modelagem de Variável: Exportações do Brasil
Econometria
PUC
Preview text
PROPRIEDADES DOS ESTIMADORES DE MQO E O TEOREMA DE GAUSS MARKOV Profa Samira Schatzmann Inferência estatística Uso de informações amostrais para fazer afirmações sobre as características populacionais Estimação Desconhecemos os parâmetros populacionais Mas podemos obter estimativas a partir de amostras Mas quão bons são nossos estimadores Propriedades dos estimadores Viés em média acertar o alvo Acurácia proximidade do alvo Precisão proximidade da media das observações Propriedades dos estimadores A Não viesada pouco acurada baixa precisão B Viesada pouco acurada baixa precisão C Não viesada muito acurada boa precisão D Viesada pouco acurada alta precisão Propriedades dos estimadores definições 1 O estimador T do parâmetro θ é qualquer função das observações da amostra ou seja T gX1 X2 Xn 2 O estimador T é não viesado para θ se 𝐸 𝑇 𝜃 Se 𝐸 𝑇 𝜃 T dizse viesado e a diferença 𝑉 𝑇 𝐸 𝑇 𝜃 é chamado o viés de T 3 Estimativa é o valor assumido pelo estimador em uma particular amostra Propriedades dos estimadores definições 4 Uma sequência Tn de estimadores de θ é consistente se lim 𝑛 𝐸 𝑇𝑛 𝜃 lim 𝑛 𝑉𝑎𝑟 𝑇𝑛 0 Note que se Tn for não viesado a primeira condição estará satisfeita Também conhecida como propriedades assintóticas ou seja para grandes amostras 5 Se T e T são dois estimadores não viesados de um mesmo parâmetro θ e ainda 𝑉𝑎𝑟 𝑇 𝑉𝑎𝑟 𝑇 Então T dizse mais eficiente que T Propriedades dos estimadores definições 6 Chamaremos de 𝑒 𝑇 𝜃 O erro amostral que cometemos ao estimar o parâmetro θ da distribuição da va X pelo estimador T gX1 X2 Xn Chamase erro quadrático médio EQM do estimador T ao valor 𝐸𝑄𝑀 𝑇 𝜃 𝐸 𝑒2 𝐸𝑇 𝜃² Continuação 𝐸𝑄𝑀 𝑇 𝜃 𝐸 𝑒2 𝐸𝑇 𝜃² 𝐸 𝐸 𝐸 𝑇 𝐸 𝑇 𝜃 ² 𝐸 𝑇 𝐸 𝑇 2 2 𝑇 𝐸 𝑇 𝐸 𝑇 𝜃 𝐸 𝑇 𝜃 ² 𝐸 𝑇 𝐸 𝑇 2 2𝐸 𝑇 𝐸 𝑇 𝐸 𝑇 𝜃 𝐸 𝐸 𝑇 𝜃 ² 𝐸 𝑇 𝐸 𝑇 2 𝐸𝐸 𝑇 𝜃² Já que E 𝑇 𝐸 𝑇 0 Podemos pois escrever 𝐸𝑄𝑀 𝑇 𝜃 𝑉𝑎𝑟 𝑇 𝑉𝑇² Onde 𝑉𝑇 é o viés de T Inferência O estabelecimento de uma ponte entre os valores observados na amostra e os modelos postulados para a população objeto da inferência estatística exige a adoção de princípios teóricos muito bem especificados Nós temos usado a chamada teoria frequentista também chamada de clássica A crítica que se faz à teoria frequentista é a possibilidade de replicar dados bem como o recurso à teoria assintótica Uma teoria que não faz uso de tais argumentos é a inferência bayesiana Estimadores Estimadores de momentos média e variância os dois primeiros momentos amostrais Estimadores de Mínimos Quadrados Estimadores de Máxima Verossimilhança Estimadores de Mínimos Quadrados Um dos procedimentos mais usados para obter estimadores é aquele que se baseia no princípio dos mínimos quadrados introduzido por Gauss em 1794 mas que primeiro apareceu com esse nome no apêndice do tratado de Legendre Nouvelles Méthodes pour la Determination des Orbites des Comètes publicado em Paris em 1806 Gauss comente viria a publicar seus resultados em 1809 em Hamburgo Ambos utilizaram o princípio em conexão com problemas de Astronomia e Física Utilizados quando não esperamos uma relação perfeita entre duas ou mais variáveis já que X por exemplo não é a única responsável por Y outros fatores não controlados afetam o resultado MODELO DE REGRESSÃO LINEAR Usado para estudar a relação entre variáveis Modelo de Regressão Linear Múltipla A desvantagem de usar a RLS em trabalhos empíricos é o fato de ser muito difícil obter conclusões ceteris paribus como X afeta o Y RLM permite controlar explicitamente muitos outros fatores que de maneira simultânea afetam a variável dependente Importante para testar teorias econômicas e avaliar efeitos da política Como os modelos de RLM acomodarem muitas variáveis explicativas que podem estar correlacionadas esperamos inferir causalidade nos casos em que a análise da regressão simples seria enganosa ou seja os parâmetros a serem estimados estariam incorretos Modelo de Regressão Linear Múltipla Naturalmente se adicionarmos ao nosso modelo mais fatores que são úteis para explicar Y então mais da variação de Y pode ser explicadas Permite portanto a construção de modelos melhores O método de Mínimos Quadrados Ordinários Ordinary Least Squares OLS é o popularmente mais usado para estimar os parâmetros do modelo de RLM Modelo de Regressão Linear Múltipla 𝑌 𝛽0 𝛽1 𝑋1 𝛽2𝑋2 𝛽𝑘𝑋𝑘 𝑢 Genericamente como nos referimos a isso rodamos uma regressão de MQO de Y sobre X1 X2 Xk regredimos Y sobre X1 X2 Xk Assim como na regressão simples temos que fazer hipóteses sobre 𝑢 termo de erro ou perturbação Contém outros fatores além de X1 X2 Xk que afetam Y Não importa quantas variáveis explicativas incluímos em nosso modelo pois sempre haverá fatores que não podemos incluir e estão contidos coletivamente em 𝑢 Estimativas de MQO Reta de Regressão de MQO ou Função de Regressão Amostral 𝑌 መ𝛽0 መ𝛽1𝑋1 መ𝛽2𝑋2 መ𝛽0 é a estimativa de intercepto de MQO መ𝛽1 መ𝛽𝑘 são as estimativas de inclinação de MQO correspondente às variáveis 𝑋1 𝑋𝑘 Interpretação Δ𝑌 መ𝛽1Δ𝑋1 Sobre o significado de manter outros fatores fixos na RLM A interpretação de efeito parcial dos coeficientes de inclinação na análise de RM pode causar alguma confusão O poder da análise de RLM é que ele proporciona uma interpretação ceteris paribos mesmo que os dados não sejam coletados de uma maneira ceteris paribus ou seja fixos Ideia de controlar pelos fatores observáveis Propriedades Estatísticas dos Estimadores de MQO Lembrando que propriedades estatísticas não têm nada a ver com uma amostra particular mas sim com a propriedade dos estimadores quando a amostragem aleatória é feita repetidamente Pressupostos do MRL e as propriedades estatísticas dos estimadores de MQO RLM1 Linear nos parâmetros RLM2 Amostragem aleatória RLM3 Média condicional zero RLM4 Colinearidade não perfeita RLM5 Homocedasticidade RLM6 Ausência de correlação serial RLM7 Normalidade dos erros Não viés Menor Variância A violação desta hipótese no limite pode inviabilizar a própria estimação do modelo Hipótese ligada à inferência no MQO teste t Teorema de GaussMarkov Sob os pressupostos do MRL መ𝛽0 መ𝛽1 መ𝛽𝑘 são os melhores estimadores lineares não viesados BLUEs de 𝛽0 𝛽1 𝛽𝑘 respectivamente RLM1 Linear nos parâmetros O modelo populacional ou modelo verdadeiro pode ser escrito como 𝑦 𝛽0 𝛽1𝑥1 𝛽2𝑥2 𝛽𝑘𝑥𝑘 𝑢 Modelo populacional ou verdadeiro implica que todos os fatores relevantes X para entender Y estão listados e corretamente especificados 𝛽0 𝛽1 𝛽𝑘 são os parâmetros desconhecidos constantes de interesse e 𝑢 é um erro aleatório não observável ou um termo de perturbação aleatória Os 𝛽k são lineares Y e as variáveis independentes podem ser funções de variáveis de interesse como quadrados e logaritmos naturais RLM2 Amostragem aleatória Temos uma amostra aleatória de n observações X1i X2i Xki Yi i 1 2 n do modelo populacional descrito por RLM1 𝑦𝑖 𝛽0 𝛽1𝑥1i 𝛽2𝑥2i 𝛽𝑘𝑥𝑘𝑖 𝑢𝑖 Onde i referese à observação O termo 𝑢𝑖 contém os fatores não observáveis para a observação i que afeta o seu Y Sabemos que MQO determina as estimativas de intercepto e inclinação de uma amostra particular de modo que os resíduos tenham como média zero e a correlação amostral entre cada variável independente e os resíduos seja zero Ainda assim não incluímos condições sob as quais as estimativas de MQO são bem definidas para determinada amostra RLM3 Média condicional zero O erro u tem um valor esperado igual a zero dados quaisquer valores das variáveis independentes 𝐸 ȁ 𝑢 𝑥1 𝑥2 𝑥𝑘 0 Nunca saberemos com certeza se o valor médio das não observáveis é não correlacionado com as variáveis explicativas Contudo tratase de uma hipótese crítica RLM4 Colinearidade não perfeita Na amostra e portanto na população nenhuma das variáveis independentes é constante e não há relações lineares exatas entre as variáveis independentes Este pressuposto também é chamado de Condição de Posto Se pensarmos na estrutura dos dados como vetores colunas de uma matriz 𝑿𝑘 precisamos que todas as colunas desta matriz sejam linearmente independentes Ou seja essa matriz precisa ter posto completo 𝑝𝑜𝑠𝑡𝑜 𝑿𝑘 𝑘 Nos fenômenos que estudamos é praticamente impossível que as variáveis que escolhamos para explicar Y sejam independentes umas das outras Alguma correlação entre elas há de ter O que não pode é haver uma correlação exata entre elas pois a colinearidade perfeita inviabiliza a estimação do modelo Um grau elevado de colinearidade entre as variáveis está associada a uma maior variância do estimador de MQO RLM5 Homocedasticidade O erro u tem a mesma variância condicionada a quaisquer valores das variáveis explicativas 𝑣𝑎𝑟 ȁ 𝑢 𝑥1 𝑥𝑘 𝜎2 Também usamos X para designar o conjunto das variáveis independentes na forma matricial 𝑣𝑎𝑟 ȁ 𝑢 𝐗 𝜎2 RLM6 Inexistência de Correlação SerialAutocorrelação Condicional em X os erros em duas observações diferentes não são correlacionados 𝐶𝑜𝑟𝑟 𝑢𝑡 ȁ 𝑢𝑠 𝑥 0 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑡 𝑠 RLM7 Erro normalmente distribuído Os erros u são independentes de X e são idêntica e independentemente distribuídos como Normal0 σ² Inexistência de Viés em MQO Sob as hipóteses RLM1 a RLM3 Para qualquer valor do parâmetro populacional 𝛽𝑗 Em outras palavras os estimadores de MQO são estimadores não viesados dos parâmetros da população Reforçando estamos dizendo que o procedimento pelo qual as estimativas de MQO foram obtidas é não viesado Esperamos que tenhamos obtido uma amostra que nos dê uma estimativa próxima do valor da população mas infelizmente isso não pode ser garantido 𝐸 መ𝛽𝑗 𝛽𝑗 𝑗 0 1 𝑘 Variância dos estimadores de MQO As variâncias dos መ𝛽𝑗 estão condicionadas aos valores amostrais das variáveis independentes O tamanho de 𝑉𝑎𝑟 መ𝛽𝑗 é importante na prática Uma variância maior significa um estimador menos preciso e isso se traduz em intervalos de confiança maiores e testes de hipóteses menos acurados Variância dos estimadores de MQO 𝜎2 σ Ƹ𝑒2 𝑛 𝑘 1 𝑉𝑎𝑟 መ𝛽1 𝜎2 σ 𝑥2 onde Então vejamos 𝑉𝑎𝑟 መ𝛽1 𝜎2 σ 𝑥2 𝑉𝑎𝑟 መ𝛽1 𝜎2 σ 𝑥2 Estimadores de MQO Para efeito das demonstrações que faremos acerca das violações dos pressupostos utilizaremos as definições dos estimadores da RLS
Send your question to AI and receive an answer instantly
Recommended for you
17
Resolução da Lista de Exercícios 01 - Modelo Econométrico da Equação de Demanda
Econometria
PUC
45
Hipóteses de Gauss-Markov e Autocorrelação
Econometria
PUC
7
Prova de Econometria II - PUCSP - 2º Semestre 2021
Econometria
PUC
2
TDE RA2 de Econometria: Análise do Consumo de Frango e Produção Cobb-Douglas
Econometria
PUC
1
Análise de Regressão Linear: Indicadores de Salário e Educação
Econometria
PUC
1
Teste de Hipótese: Significância da Variável Educ sobre Salário
Econometria
PUC
1
Resultados da Regressão Linear em Baseball
Econometria
PUC
50
Variáveis Dummy em Modelos de Regressão Linear
Econometria
PUC
1
Revisao Econometria I - Quiz 01 - Estimador de Minimos Quadrados Ordinarios
Econometria
PUC
12
Relatório de Análise e Modelagem de Variável: Exportações do Brasil
Econometria
PUC
Preview text
PROPRIEDADES DOS ESTIMADORES DE MQO E O TEOREMA DE GAUSS MARKOV Profa Samira Schatzmann Inferência estatística Uso de informações amostrais para fazer afirmações sobre as características populacionais Estimação Desconhecemos os parâmetros populacionais Mas podemos obter estimativas a partir de amostras Mas quão bons são nossos estimadores Propriedades dos estimadores Viés em média acertar o alvo Acurácia proximidade do alvo Precisão proximidade da media das observações Propriedades dos estimadores A Não viesada pouco acurada baixa precisão B Viesada pouco acurada baixa precisão C Não viesada muito acurada boa precisão D Viesada pouco acurada alta precisão Propriedades dos estimadores definições 1 O estimador T do parâmetro θ é qualquer função das observações da amostra ou seja T gX1 X2 Xn 2 O estimador T é não viesado para θ se 𝐸 𝑇 𝜃 Se 𝐸 𝑇 𝜃 T dizse viesado e a diferença 𝑉 𝑇 𝐸 𝑇 𝜃 é chamado o viés de T 3 Estimativa é o valor assumido pelo estimador em uma particular amostra Propriedades dos estimadores definições 4 Uma sequência Tn de estimadores de θ é consistente se lim 𝑛 𝐸 𝑇𝑛 𝜃 lim 𝑛 𝑉𝑎𝑟 𝑇𝑛 0 Note que se Tn for não viesado a primeira condição estará satisfeita Também conhecida como propriedades assintóticas ou seja para grandes amostras 5 Se T e T são dois estimadores não viesados de um mesmo parâmetro θ e ainda 𝑉𝑎𝑟 𝑇 𝑉𝑎𝑟 𝑇 Então T dizse mais eficiente que T Propriedades dos estimadores definições 6 Chamaremos de 𝑒 𝑇 𝜃 O erro amostral que cometemos ao estimar o parâmetro θ da distribuição da va X pelo estimador T gX1 X2 Xn Chamase erro quadrático médio EQM do estimador T ao valor 𝐸𝑄𝑀 𝑇 𝜃 𝐸 𝑒2 𝐸𝑇 𝜃² Continuação 𝐸𝑄𝑀 𝑇 𝜃 𝐸 𝑒2 𝐸𝑇 𝜃² 𝐸 𝐸 𝐸 𝑇 𝐸 𝑇 𝜃 ² 𝐸 𝑇 𝐸 𝑇 2 2 𝑇 𝐸 𝑇 𝐸 𝑇 𝜃 𝐸 𝑇 𝜃 ² 𝐸 𝑇 𝐸 𝑇 2 2𝐸 𝑇 𝐸 𝑇 𝐸 𝑇 𝜃 𝐸 𝐸 𝑇 𝜃 ² 𝐸 𝑇 𝐸 𝑇 2 𝐸𝐸 𝑇 𝜃² Já que E 𝑇 𝐸 𝑇 0 Podemos pois escrever 𝐸𝑄𝑀 𝑇 𝜃 𝑉𝑎𝑟 𝑇 𝑉𝑇² Onde 𝑉𝑇 é o viés de T Inferência O estabelecimento de uma ponte entre os valores observados na amostra e os modelos postulados para a população objeto da inferência estatística exige a adoção de princípios teóricos muito bem especificados Nós temos usado a chamada teoria frequentista também chamada de clássica A crítica que se faz à teoria frequentista é a possibilidade de replicar dados bem como o recurso à teoria assintótica Uma teoria que não faz uso de tais argumentos é a inferência bayesiana Estimadores Estimadores de momentos média e variância os dois primeiros momentos amostrais Estimadores de Mínimos Quadrados Estimadores de Máxima Verossimilhança Estimadores de Mínimos Quadrados Um dos procedimentos mais usados para obter estimadores é aquele que se baseia no princípio dos mínimos quadrados introduzido por Gauss em 1794 mas que primeiro apareceu com esse nome no apêndice do tratado de Legendre Nouvelles Méthodes pour la Determination des Orbites des Comètes publicado em Paris em 1806 Gauss comente viria a publicar seus resultados em 1809 em Hamburgo Ambos utilizaram o princípio em conexão com problemas de Astronomia e Física Utilizados quando não esperamos uma relação perfeita entre duas ou mais variáveis já que X por exemplo não é a única responsável por Y outros fatores não controlados afetam o resultado MODELO DE REGRESSÃO LINEAR Usado para estudar a relação entre variáveis Modelo de Regressão Linear Múltipla A desvantagem de usar a RLS em trabalhos empíricos é o fato de ser muito difícil obter conclusões ceteris paribus como X afeta o Y RLM permite controlar explicitamente muitos outros fatores que de maneira simultânea afetam a variável dependente Importante para testar teorias econômicas e avaliar efeitos da política Como os modelos de RLM acomodarem muitas variáveis explicativas que podem estar correlacionadas esperamos inferir causalidade nos casos em que a análise da regressão simples seria enganosa ou seja os parâmetros a serem estimados estariam incorretos Modelo de Regressão Linear Múltipla Naturalmente se adicionarmos ao nosso modelo mais fatores que são úteis para explicar Y então mais da variação de Y pode ser explicadas Permite portanto a construção de modelos melhores O método de Mínimos Quadrados Ordinários Ordinary Least Squares OLS é o popularmente mais usado para estimar os parâmetros do modelo de RLM Modelo de Regressão Linear Múltipla 𝑌 𝛽0 𝛽1 𝑋1 𝛽2𝑋2 𝛽𝑘𝑋𝑘 𝑢 Genericamente como nos referimos a isso rodamos uma regressão de MQO de Y sobre X1 X2 Xk regredimos Y sobre X1 X2 Xk Assim como na regressão simples temos que fazer hipóteses sobre 𝑢 termo de erro ou perturbação Contém outros fatores além de X1 X2 Xk que afetam Y Não importa quantas variáveis explicativas incluímos em nosso modelo pois sempre haverá fatores que não podemos incluir e estão contidos coletivamente em 𝑢 Estimativas de MQO Reta de Regressão de MQO ou Função de Regressão Amostral 𝑌 መ𝛽0 መ𝛽1𝑋1 መ𝛽2𝑋2 መ𝛽0 é a estimativa de intercepto de MQO መ𝛽1 መ𝛽𝑘 são as estimativas de inclinação de MQO correspondente às variáveis 𝑋1 𝑋𝑘 Interpretação Δ𝑌 መ𝛽1Δ𝑋1 Sobre o significado de manter outros fatores fixos na RLM A interpretação de efeito parcial dos coeficientes de inclinação na análise de RM pode causar alguma confusão O poder da análise de RLM é que ele proporciona uma interpretação ceteris paribos mesmo que os dados não sejam coletados de uma maneira ceteris paribus ou seja fixos Ideia de controlar pelos fatores observáveis Propriedades Estatísticas dos Estimadores de MQO Lembrando que propriedades estatísticas não têm nada a ver com uma amostra particular mas sim com a propriedade dos estimadores quando a amostragem aleatória é feita repetidamente Pressupostos do MRL e as propriedades estatísticas dos estimadores de MQO RLM1 Linear nos parâmetros RLM2 Amostragem aleatória RLM3 Média condicional zero RLM4 Colinearidade não perfeita RLM5 Homocedasticidade RLM6 Ausência de correlação serial RLM7 Normalidade dos erros Não viés Menor Variância A violação desta hipótese no limite pode inviabilizar a própria estimação do modelo Hipótese ligada à inferência no MQO teste t Teorema de GaussMarkov Sob os pressupostos do MRL መ𝛽0 መ𝛽1 መ𝛽𝑘 são os melhores estimadores lineares não viesados BLUEs de 𝛽0 𝛽1 𝛽𝑘 respectivamente RLM1 Linear nos parâmetros O modelo populacional ou modelo verdadeiro pode ser escrito como 𝑦 𝛽0 𝛽1𝑥1 𝛽2𝑥2 𝛽𝑘𝑥𝑘 𝑢 Modelo populacional ou verdadeiro implica que todos os fatores relevantes X para entender Y estão listados e corretamente especificados 𝛽0 𝛽1 𝛽𝑘 são os parâmetros desconhecidos constantes de interesse e 𝑢 é um erro aleatório não observável ou um termo de perturbação aleatória Os 𝛽k são lineares Y e as variáveis independentes podem ser funções de variáveis de interesse como quadrados e logaritmos naturais RLM2 Amostragem aleatória Temos uma amostra aleatória de n observações X1i X2i Xki Yi i 1 2 n do modelo populacional descrito por RLM1 𝑦𝑖 𝛽0 𝛽1𝑥1i 𝛽2𝑥2i 𝛽𝑘𝑥𝑘𝑖 𝑢𝑖 Onde i referese à observação O termo 𝑢𝑖 contém os fatores não observáveis para a observação i que afeta o seu Y Sabemos que MQO determina as estimativas de intercepto e inclinação de uma amostra particular de modo que os resíduos tenham como média zero e a correlação amostral entre cada variável independente e os resíduos seja zero Ainda assim não incluímos condições sob as quais as estimativas de MQO são bem definidas para determinada amostra RLM3 Média condicional zero O erro u tem um valor esperado igual a zero dados quaisquer valores das variáveis independentes 𝐸 ȁ 𝑢 𝑥1 𝑥2 𝑥𝑘 0 Nunca saberemos com certeza se o valor médio das não observáveis é não correlacionado com as variáveis explicativas Contudo tratase de uma hipótese crítica RLM4 Colinearidade não perfeita Na amostra e portanto na população nenhuma das variáveis independentes é constante e não há relações lineares exatas entre as variáveis independentes Este pressuposto também é chamado de Condição de Posto Se pensarmos na estrutura dos dados como vetores colunas de uma matriz 𝑿𝑘 precisamos que todas as colunas desta matriz sejam linearmente independentes Ou seja essa matriz precisa ter posto completo 𝑝𝑜𝑠𝑡𝑜 𝑿𝑘 𝑘 Nos fenômenos que estudamos é praticamente impossível que as variáveis que escolhamos para explicar Y sejam independentes umas das outras Alguma correlação entre elas há de ter O que não pode é haver uma correlação exata entre elas pois a colinearidade perfeita inviabiliza a estimação do modelo Um grau elevado de colinearidade entre as variáveis está associada a uma maior variância do estimador de MQO RLM5 Homocedasticidade O erro u tem a mesma variância condicionada a quaisquer valores das variáveis explicativas 𝑣𝑎𝑟 ȁ 𝑢 𝑥1 𝑥𝑘 𝜎2 Também usamos X para designar o conjunto das variáveis independentes na forma matricial 𝑣𝑎𝑟 ȁ 𝑢 𝐗 𝜎2 RLM6 Inexistência de Correlação SerialAutocorrelação Condicional em X os erros em duas observações diferentes não são correlacionados 𝐶𝑜𝑟𝑟 𝑢𝑡 ȁ 𝑢𝑠 𝑥 0 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑡 𝑠 RLM7 Erro normalmente distribuído Os erros u são independentes de X e são idêntica e independentemente distribuídos como Normal0 σ² Inexistência de Viés em MQO Sob as hipóteses RLM1 a RLM3 Para qualquer valor do parâmetro populacional 𝛽𝑗 Em outras palavras os estimadores de MQO são estimadores não viesados dos parâmetros da população Reforçando estamos dizendo que o procedimento pelo qual as estimativas de MQO foram obtidas é não viesado Esperamos que tenhamos obtido uma amostra que nos dê uma estimativa próxima do valor da população mas infelizmente isso não pode ser garantido 𝐸 መ𝛽𝑗 𝛽𝑗 𝑗 0 1 𝑘 Variância dos estimadores de MQO As variâncias dos መ𝛽𝑗 estão condicionadas aos valores amostrais das variáveis independentes O tamanho de 𝑉𝑎𝑟 መ𝛽𝑗 é importante na prática Uma variância maior significa um estimador menos preciso e isso se traduz em intervalos de confiança maiores e testes de hipóteses menos acurados Variância dos estimadores de MQO 𝜎2 σ Ƹ𝑒2 𝑛 𝑘 1 𝑉𝑎𝑟 መ𝛽1 𝜎2 σ 𝑥2 onde Então vejamos 𝑉𝑎𝑟 መ𝛽1 𝜎2 σ 𝑥2 𝑉𝑎𝑟 መ𝛽1 𝜎2 σ 𝑥2 Estimadores de MQO Para efeito das demonstrações que faremos acerca das violações dos pressupostos utilizaremos as definições dos estimadores da RLS