·

Cursos Gerais ·

Inferência Estatística 1

Send your question to AI and receive an answer instantly

Ask Question

Preview text

02 Prioris Conjugadas continuação Exemplo 1 Box Tiao 1973 Os físicos A e B desejam determinar uma quantidade física μ O físico A tem mais experiência nesta área e especifica sua priori como μ N900 20² O físico B tem pouca experiência e especifica uma priori muito mais incerta em relação à posição de μ μ N800 80² Fazse então uma medição X de μ em laboratório com um aparelho calibrado com distribuição amostral Xμ Nμ 40² e observase X 850 Este exemplo corresponde ao Caso 1 de prioris conjugadas Explorando o exemplo e obtendo a posteriori para o físico A o distribuição a priori μ N900 40² o P860 μ 940 0 95 o intervalo que abrange 95 dos valores é mais estreito o distribuição a posteriori μx N890 320 o a variância do nosso parâmetro diminuiu significa que ganhamos informação com os dados observados para o físico B o distribuição a priori μ N800 80² o P640 μ 960 0 95 o intervalo que abrange 95 dos valores é mais largo o distribuição a posteriori μx N840 1280 o a variância de μ era igual a 6400 e passou a ser igual a 1280 agregamos informação da amostra A distribuição a posteriori representa um compromisso entre a distribuição a priori e a verossimilhança Além disso como as incertezas iniciais são bem diferentes o mesmo experimento fornece muito pouca informação adicional para o físico A enquanto que a incerteza do físico B foi bastante reduzida Cálculos para este exemplo Exemplo 2 Abaixo temos 10 valores provenientes de uma distribuição normal com média μ e variância σ² 1 12156 12000 21362 21139 26546 00135 00007 02131 33849 10 49196 a Obtenha a estimativa de máxima verossimilhança para σ² b Considere a média conhecida e igual a 2 e a variância desconhecida Considere a distribuição a priori Gamma com média 05 e variância 05 para a precisão τ 1σ² obtenha a distribuição a posteriori para τ c Segundo o item b qual é a média a posteriori para τ d Segundo o item b qual é a varância a posteriori para τ Solução Você vai precisar de Apêndice B do Mood distribuições a A estimativa de máxima verossimilhança para σ² é σ² 22837 pois Y₁ Y₂ Yₙ variáveis aleatórias iid Nμ σ² então f𝕐y 12πσ exp 12σ²yᵢ μ² e aplicando o produtório Lμ σ²y 12πσⁿ exp 12σ² i1 to nyᵢ μ² 023 1 03 Exercícios 1 Mostre que a família de distribuições Beta é conjugada em relação à binomial geométrica e binomial negativa 2 Para uma amostra aleatória X₁Xₙ tomada da distribuição U0 θ mostre que a família de distribuições de Pareto com parâmetros a e b cuja função de densidade é fθ aba θa1 é conjugada à uniforme 3 Suponha que o tempo em minutos para atendimento a clientes segue uma distribuição exponencial com parâmetro θ desconhecido Com base na experiência anterior assumese uma distribuição a priori Gamma com média 02 e desviopadrão 1 para θ Se o tempo médio para atender uma amostra aleatória de 20 clientes foi de 38 minutos determine a distribuição a posteriori de θ 4 Seja X₁ Xₙ uma amostra aleatória da distribuição de Poisson com parâmetro θ Determine os parâmetros da priori conjugada de θ sabendo que Eθ 4 e o coeficiente de variação a priori é igual a 05 5 O número médio de defeitos por 100 metros de uma fita magnética é desconhecido e denotado por θ Atribuise uma distribuição a priori Gamma 2 10 para θ Se um rolo de 1200 metros desta fita foi inspecionado e encontrouse 4 defeitos qual é a distribuição a posteriori de θ 2 Sejam Y₁ Y₂ Yₙ variáveis aleatórias iid com distribuição geométrica com probabilidade de sucesso igual a p Distribuição geométrica segundo apêndice do Mood Cada Yᵢ é igual ao número de tentativas anteriores ao primeiro sucesso em um experimento com ensaios independentes de Bernoulli com probabilidade de sucesso igual a p Atribuise priori Beta para a proporção p E a distribuição a posteriori para esta proporção será Beta Resolução Pela fórmula de Bayes dispensando o termo do denominador pois é uma constante com relação ao parâmetro p fpy fpLpy o termo y se refere aos dados observados Modelo Geométrico ou seja quando realizados ensaios de Bernoulli independentes com probabilidade igual a p verificouse os valores observados y₁ y₁ yₙ das tentativas anteriores ao primeiro sucesso Passo I atribuir priori para p sendo 0 p 1 p Betaa b então fp 1Bab x pa11 pb1 I01p Passo II atribuir distribuição geométrica para os dados Y₁ Y₂ Yₙ Geomp então PY y i1 to n p1 pyᵢ pⁿ 1 pi1 to n yᵢ Lpy distribuição dos dados função de verossimilhança de p dado os dados Passo III Aplicar a fórmula podese dispensar os termos constantes fpy fpLpy 1Bab x pa11 pb1 I01p x pⁿ1 pi1 to n yᵢ pan1 x 1 pb i1 to n yᵢ 1 x I01p Então fpy 1Banb i1 to n yᵢ x pan 1 x 1 pb i1 to n yᵢ 1 x I01p Implementação numérica do Caso 6 Caso 5 Quando os dados têm distribuição normal com média conhecida e variância desconhecida Atribuise a priori Gamma para a precisão τ 1σ² E a distribuição a posteriori para esta precisão será Gamma Resolução Você vai precisar de Apêndice B do Mood distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois 0 τ dispensando o termo do denominador pois é uma constante com relação ao parâmetro τ fτy fτLτy o termo y se refere aos dados observados Modelo Normal ou seja temos uma amostra de tamanho n iid independentes e identicamente distribuídos de uma distribuição de Normal com média igual a μ e precisão igual a τ então y é um vetor de tamanho n Passo I atribuir priori para τ sendo 0 τ τ Gammaλ r então fτ λr Γr τr1 eλτ I0τ com λ 0 e r 0 parâmetros conhecidos chamados de hiperparâmetros no contexto Bayesiano Passo II atribuir distribuição Normal para os dados Y1 Y2 Y3 Yn Normalμ σ² então fYy i1n τ2π expτ2 yi μ² τ2πn2 exp τ2 i1n yi μ² Lτy distribuição dos dados função de verossimilhança de τ dado os dados A função de verossimilhança nos traz toda a informação disponível na amostra nos dados com μ conhecido e τ desconhecido Passo III Aplicar a fórmula podese dispensar os termos constantes fτy fτLτy λr Γr τr1 eλτ I0τ τ2πn2 exp τ2 i1n yi μ² τr1 n2 exp λ i1n yi μ² τ I0τ Então τy Gammaλ 12 i1n yi μ² r n2 e só incluir as constantes n fτy λ 12 yi μ²r n2 Γr n2 τr n2 1 expλ i1n yi μ² τ I0τ Caso 4 Quando os dados têm distribuição normal com média conhecida e variância desconhecida Atribuise a priori Gamma invertida para a variância σ² E a distribuição a posteriori para esta variância será Gamma invertida Resolução Você vai precisar de Apêndice A do material do prof Ricardo Ehlers distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois 0 σ² dispensando o termo do denominador pois é uma constante com relação ao parâmetro σ² fσ²y fσ²Lσ²y o termo y se refere aos dados observados Modelo Normal ou seja temos uma amostra de tamanho n iid independentes e identicamente distribuídos de uma distribuição de Normal com média igual a μ e variância igual a σ² então y é um vetor de tamanho n Passo I atribuir priori para σ² sendo 0 σ² σ² Gamma Invertidaα β então fσ² βα Γα σ²α 1 exp β σ² com α 0 e β 0 parâmetros conhecidos Passo II atribuir distribuição Normal para os dados Y1 Y2 Y3 Yn Normalμ σ² então fYy i1n 12πσ² exp 12σ² yi μ² 12πσ²n exp12σ² i1n yi μ² Lσ²y distribuição dos dados função de verossimilhança de σ² dado os dados A função de verossimilhança nos traz toda a informação disponível na amostra nos dados com μ conhecido e σ² desconhecido Passo III Aplicar a fórmula podese dispensar os termos constantes fσ²y fσ²Lσ²y βα Γα σ²α 1 exp β σ² 12πσ²n exp 12σ² i1n yi μ² σ²α 1 n2 exp β 12 i1n yi μ² σ² Então σ²y Gamma Invertidaα n2 β 12 i1n yi μ² e só incluir as con Caso 3 Quando os dados têm distribuição Binomial Atribuise a priori Beta para a proporção p E a distribuição a posteriori para esta proporção será Beta Resolução Você vai precisar de Apêndice B do Mood distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois 0p1 dispensando o termo do denominador pois é uma constante com relação ao parâmetro p fpy fpLpy o termo y se refere aos dados observados Modelo Binomial ou seja quando realizados de n ensaios de Bernoulli independentes com probabilidade igual a p verificouse y sucessos Passo I atribuir priori para p sendo 0 p 1 p Betaa b então fp 1Bab pa1 1pb1 I01p Passo II atribuir distribuição Binomial para os dados Y Binomialn p então PYy n choose y py 1pny Lpy distribuição dos dados função de verossimilhança de p dado os dados Passo III Aplicar a fórmula podese dispensar os termos constantes fpy fpLpy 1Bab pa1 1pb1 I01p n choose y py 1pny pay1 1pbny1 I01p Então py Betaa y b n y e só incluir as constantes na fórmula fpy 1Baybny pay1 1pbny1 I01p Também podese mostrar que sendo Y1 Y2 YN Binomial n p a priori conjugada é Beta com parâmetros atualizados para N experimentos de Bernoulli Veja abaixo um exemplo no R para este cenário olhe o código Code Caso 2 Quando os dados têm distribuição de Poisson Atribuise priori Gmma para a taxa λ E a distribuição a posteriori para esta taxa será Gamma Resolução Você vai precisar de Apêndice B do Mood distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois 0 λ dispensando o termo do denominador pois é uma constante com relação ao parâmetro λ fλy fλLλy o termo y se refere aos dados observados Modelo Poisson ou seja temos uma amostra de tamanho n iid independentes e identicamente distribuídos de uma distribuição de Poisson com taxa λ então y é um vetor de tamanho n Passo I atribuir priori para λ sendo 0 λ λ Gammaa r então fλ αrΓr λr1e αλ I0λ considere α o primeiro parâmetro da Gamma para não confundir com λ na fórmula Passo II atribuir distribuição Poisson para os dados Y1 Y2 Y3 Yn Poissonλ então PY y ni1 eλλyi yi ni1 I01yi vetor Y ser igual a vetorzinho y de valores observados produto de funções indicadoras enλλni1 yi ni1 yi I01 ni1 yi Lλy distribuição dos dados função de verossimilhança de λ dado os dados Passo III Aplicar a fórmula podese dispensar os termos constantes fλy fλLλy αrΓr λr1e αλ I0λ enλλni1 yi ni1 yi λr1e αλ I0λ λni1yi 1 ni1 yi λrni1yi 1 e αnλ I0λ Então λy Gammaa n r ni1 yi é só incluir as constantes na fórmula fλy anrni1yi Γrni1yi λrni1 yi 1 e αnλ I0λ 011 Casos principais de prioris conjugadas Caso 1 Quando os dados têm distribuição normal com média desconhecida e variância conhecida Atribuise priori normal para a média µ E a distribuição a posteriori para esta média será normal Resolução Você vai precisar de Apêndice B do Mood distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois µ dispensando o termo do denominador pois é uma constante com relação ao parâmetro µ fµy fµLµy o termo y se refere aos dados observados Modelo Normal ou seja temos uma amostra de tamanho n iid independentes e identicamente distribuídos de uma distribuição de Normal com média igual a µ e variância igual a σ2 então y é um vetor de tamanho n Passo I atribuir priori para µ sendo µ µ Normalm0 σ20 fµ 1 2πσ0 exp 1 2σ20 µ m02 considere m0 e σ20 os parâmetros da média e variância da distribuição a priori respectivamente com m0 e σ20 conhecidos A distribuição a priori nos traz o conhecimento a priori sobre a média µ Se temos pouca informação a respeito de µ podemos fixar a média m0 e atribuir uma variância σ20 grande Se temos muita informação a respeito da µ podemos fixar a média m0 e atribuir uma variância σ20 pequena Passo II atribuir distribuição Normal para os dados Y1 Y2 Y3 Yn Normalµ σ2 então fYy ni1 1 2πσ exp 1 2σ yi µ2 1 2πσ n exp 1 2σ ni1 yi µ2 Lµy distribuição dos dados função de verossimilhança de µ dado os dados A função de verossimilhança nos traz toda a informação disponível na amostra nos dados com µ desconhecido e σ2 conhecido Passo III Aplicar a fórmula podese dispensar os termos constantes fµy fµLµy exp 1 2 1 σ20 µ m02 1 σ ni1 yi µ2 Então µy N 12 σ20 nσ2 1 2 12nσ2 o símbolo significa é proporcional a ou seja todos os termos multiplicativos que não dependam de µ podem ser desconsiderados na fórmula A demonstração pode ser encontrada em Box Tiao 1973 Resolução Foi mostrado que para 𝑛 1 temse que a posteriori de 𝜇 será 𝜇𝐱 𝑁 1 𝑏2 𝑎 1 𝜎2 𝑥 1 𝑏2 1 𝜎2 1 1 𝑏2 1 𝜎2 onde a priori é 𝜇 𝑁𝑎 𝑏 Para o físico 𝐴 temos 𝜇 𝑁900 202 então 𝐸𝜇𝑥 1 𝑏2 𝑎 1 𝜎2 𝑥 1 𝑏2 1 𝜎2 1 202 900 1 402 850 1 202 1 402 890 e 𝑉𝑎𝑟𝜇𝑥 1 1 𝑏2 1 𝜎2 1 1 202 1 402 320 Logo a posteriori do físico 𝐴 é 𝜇𝑥 𝑁890 320 Para o físico 𝐵 temos 𝜇 𝑁800 802 então 𝐸𝜇𝑥 1 𝑏2 𝑎 1 𝜎2 𝑥 1 𝑏2 1 𝜎2 1 802 800 1 402 850 1 802 1 402 840 e 𝑉𝑎𝑟𝜇𝑥 1 1 𝑏2 1 𝜎2 1 1 802 1 402 1280 Logo a posteriori do físico 𝐵 é 𝜇𝑥 𝑁840 1280 Resolução Temse que a função de verossimilhança é dada por 𝐿𝜇 𝜎2𝒙 2𝜋𝜎21 2 exp 1 2𝜎2 𝑥𝑖 𝜇2 𝑛 𝑖1 𝐿𝜇 𝜎2𝒙 2𝜋𝑛 2 𝜎2𝑛 2 exp 1 2𝜎2 𝑥𝑖 𝜇2 𝑛 𝑖1 log 𝐿𝜇 𝜎2𝒙 𝑛 2 log2𝜋 𝑛 2 log𝜎2 1 2𝜎2 𝑥𝑖 𝜇2 𝑛 𝑖1 Tomando a derivada a logverossimilhança em relação a 𝜇 log 𝐿𝜇 𝜎2𝒙 𝜇 1 2𝜎2 2𝑥𝑖 𝜇1 𝑛 𝑖1 1 𝜎2 𝑥𝑖 𝜇 𝑛 𝑖1 Agora resolvemos a equação de verossimilhança em relação a 𝜇 ou seja log 𝐿𝜇 𝜎2𝒙 𝜇 0 1 𝜎2 𝑥𝑖 𝜇 𝑛 𝑖1 0 𝑥𝑖 𝜇 𝑛 𝑖1 0 𝑥𝑖 𝑛 𝑖1 𝑛𝜇 0 𝜇 1 𝑛 𝑥𝑖 𝑛 𝑖1 𝑥 Tomando a derivada a logverossimilhança em relação a 𝜎2 log 𝐿𝜇 𝜎2𝒙 𝜎2 𝑛 2𝜎2 1 2𝜎22 𝑥𝑖 𝜇2 𝑛 𝑖1 Agora resolvemos a equação de verossimilhança ou seja log 𝐿𝜇 𝜎2𝒙 𝜎2 0 𝑛 2𝜎2 1 2𝜎22 𝑥𝑖 𝜇2 𝑛 𝑖1 0 𝑛 2𝜎2 1 2𝜎22 𝑥𝑖 𝜇2 𝑛 𝑖1 𝜎22 𝜎2 1 𝑛 𝑥𝑖 𝜇2 𝑛 𝑖1 𝜎2 1 𝑛 𝑥𝑖 𝜇2 𝑛 𝑖1 𝜎2 1 𝑛 𝑥𝑖 𝑥2 𝑛 𝑖1 Este é o estimador de máxima verossimilhança de 𝜎2 𝑎 Temse 𝜎2 1 𝑛 𝑥𝑖 𝑥2 𝑛 𝑖1 2283737 10 2284 𝑏 Temos 𝜇 2 com 𝜎2 desconhecido Ainda 𝜏 1 𝜎2 𝐺𝑎𝑚𝑎𝛼 𝛽 onde 𝛼 𝛽 05 e 𝛼 𝛽2 05 𝛼 1 2 e 𝛽 1 𝜏 𝐺𝑎𝑚𝑎 1 2 1 Então 𝑓𝜏 𝜏1 2 𝑒𝜏 e 𝐿𝜏𝒙 𝜏𝑛 2 exp 𝜏 2 𝑥𝑖 22 𝑛 𝑖1 Portanto segue que 𝑓𝜏𝒙 𝐿𝜏𝒙 𝑓𝜏 𝜏𝑛 2 exp 𝜏 2 𝑥𝑖 22 𝑛 𝑖1 𝜏12𝑒𝜏 𝜏𝑛 2 12 exp 𝜏 2 𝑥𝑖 22 𝑛 𝑖1 𝜏 𝜏𝑛1 2 1 exp 1 2 𝑥𝑖 22 𝑛 𝑖1 1 𝜏 𝜏𝒙 𝐺𝑎𝑚𝑎 𝑛 1 2 1 2 𝑥𝑖 22 𝑛 𝑖1 1 Como 𝑛 10 e 𝑥𝑖 22 10 𝑖1 233 10 1 2 55 e 233 2 1 1065 𝜏𝒙 𝐺𝑎𝑚𝑎55 1065 c 𝐸𝜏𝒙 55 1065 05164 d 𝑉𝑎𝑟𝜏𝒙 55 10652 00485 Resolução 1 O núcleo das distribuições binomial geométrica e binomial negativa é dado por ℎ𝜃 𝜃𝑠1 𝜃𝑓 2 Temse 𝑋𝑖 𝑈0 𝜃 𝑖 1 𝑛 então 𝐿𝜃𝒙 1 𝜃 𝑛 𝑖1 𝐼0𝜃𝑥𝑖 𝜃𝑛𝐼𝑥𝑛𝜃 onde 𝑥𝑛 max𝑥1 𝑥𝑛 e 𝜃 𝑥𝑛 pois 0 𝑥𝑖 𝜃 𝑖 𝜃 𝑥𝑛 A expressão 𝐿𝜃𝒙 𝜃𝑛𝐼𝑥𝑛𝜃 representa o núcleo da densidade da distribuição de Pareto com parâmetros 𝑛 1 e 𝑥𝑛 logo é conjugada uniforme 3 Temse 𝜃 𝐺𝑎𝑚𝑎𝛼 𝛽 onde 𝛼 𝛽 02 e 𝛼 𝛽2 1 𝛼 004 e 𝛽 02 𝜃 𝐺𝑎𝑚𝑎004 02 Densidade priori 𝑓𝜃 𝜃0041𝑒02𝜃 𝜃096𝑒02𝜃 Com 𝑋𝑖 𝐸𝑥𝑝𝜃 𝑖 1 𝑛 então 𝐿𝜃𝒙 𝜃𝑒𝜃𝑥𝑖 𝑛 𝑖1 𝜃𝑛𝑒𝜃𝑛𝑥 e como 𝑥 38 e 𝑛 20 então 𝑛𝑥 20 38 76 logo 𝐿𝜃𝒙 𝜃20𝑒76𝜃 Densidade a posteriori 𝑓𝜃𝒙 𝐿𝜃𝒙 𝑓𝜃 𝜃20𝑒76𝜃 𝜃096𝑒02𝜃 𝜃20096𝑒7602𝜃 𝜃1904𝑒762𝜃 𝜃𝒙 𝐺𝑎𝑚𝑎2004 762 4 𝑋𝑖 𝑃𝑜𝑖𝑠𝑠𝑜𝑛𝜃 𝑖 1 𝑛 então 𝐿𝜃𝒙 𝜃𝑥𝑖𝑒𝜃 𝑥𝑖 𝑛 𝑖1 𝜃𝑠𝑒𝑛𝜃 então a priori conjugada será 𝜃 𝐺𝑎𝑚𝑎𝑎 𝑏 𝐸𝜃 𝑎 𝑏 4 𝐶𝑉𝜃 𝐷𝑃𝜃 𝐸𝜃 05 𝑎 𝑏 4 𝑎 𝑏2 4 05 𝑎 4𝑏 𝑎 𝑏 2 𝑎 2𝑏 2𝑏 2𝑏𝑛 𝑏 1 𝑎 4 𝜃 𝐺𝑎𝑚𝑎4 1 5 Verossimilhança 𝐿𝜃𝒙 𝜃4𝑒120𝜃 𝜃 𝐺𝑎𝑚𝑎2 10 então 𝑓𝜃𝒙 𝐿𝜃𝒙 𝑓𝜃 𝜃4𝑒120𝜃 𝜃𝑒10𝜃 𝜃41𝑒12010𝜃 𝜃5𝑒130𝜃 𝜃𝒙 𝐺𝑎𝑚𝑎6 130 Questão 1 Seja 𝑌1 𝑌2 𝑌𝑛 uma amostra aleatória de 𝑌 𝐺𝑒𝑜𝑝 onde a função de probabilidade de 𝑌 é dada por 𝑓𝑦𝑝 𝑝1 𝑝𝑦 𝑦 0 1 2 Assim a função de verossimilhança de 𝒀 𝑌1 𝑌2 𝑌𝑛 será 𝐿𝑝𝒚 𝑝1 𝑝𝑦𝑖 𝑛 𝑖1 𝑝𝑛1 𝑝 𝑦𝑖 𝑛 𝑖1 Atribuindo a priori beta para o parâmetro 𝑝 ou seja 𝑝 𝐵𝑒𝑡𝑎𝑎 𝑏 teremos 𝑓𝑝 1 𝐵𝑎 𝑏 𝑝𝑎11 𝑝𝑏1 0 𝑝 1 Logo 𝑓𝑝𝒚 𝐿𝑝𝒚 𝑓𝑝 𝑝𝑛1 𝑝 𝑦𝑖 𝑛 𝑖1 𝑝𝑎11 𝑝𝑏1 𝑝𝑎𝑛11 𝑝𝑏 𝑦𝑖 𝑛 𝑖1 1 onde 0 𝑝 1 isto é 𝑝𝒚 𝐵𝑒𝑡𝑎 𝑎 𝑛 𝑏 𝑦𝑖 𝑛 𝑖1 Caso 5 Quando os dados tem distribuição 𝑵𝝁 𝝈𝟐 com 𝝈𝟐 desconhecida Seja 𝑌1 𝑌𝑛 uma amostra aleatória de 𝑌 𝑁𝜇 𝜎2 com 𝜇 conhecido e 𝜎2 desconhecido Então a função de verossimilhança será 𝐿𝜎2𝒚 2𝜋𝜎21 2 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝐿𝜎2𝒚 2𝜋𝑛 2 𝜎2𝑛 2 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝐿𝜎2𝒚 𝜎2𝑛 2 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 Escrevendo a função de verossimilhança em função de 𝜏 1𝜎2 temos 𝐿𝜏𝑦 𝜏𝑛 2 exp 𝜏 2 𝑦𝑖 𝜇2 𝑛 𝑖1 Assumindo que 𝜏 𝐺𝑎𝑚𝑎𝛼 𝛽 então 𝑓𝜏 𝛽𝛼 Γ𝛼 𝜏𝛼1𝑒𝛽𝜏 𝜏𝛼1𝑒𝛽𝜏 𝜏 0 Portanto temse que a densidade a posteriori será tal que 𝑓𝜏𝒚 𝐿𝜏𝑦 𝑓𝜏 𝜏𝑛 2 exp 𝜏 2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝜏𝛼1𝑒𝛽𝜏 𝜏𝛼𝑛 2 1 exp 𝜏 2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝛽𝜏 𝜏𝛼𝑛 2 1 exp 1 2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝛽 𝜏 ou seja 𝜏𝒚 1 𝜎2 𝒚 𝐺𝑎𝑚𝑎 𝛼 𝑛 2 1 2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝛽 Nota DEFINIÇÃO CORRETA DA DISTRIBUIÇÃO GAMA Se 𝑋 𝐺𝑎𝑚𝑎𝛼 𝛽 então a função densidade de probabilidade de 𝑋 é dada por 𝑓𝑥𝛼 𝛽 𝛽𝛼 Γ𝛼 𝑥𝛼1𝑒𝛽𝑥𝐼0𝑥 Caso 4 Quando os dados tem distribuição 𝑵𝝁 𝝈𝟐 com 𝝈𝟐 desconhecida Seja 𝑌1 𝑌𝑛 uma amostra aleatória de 𝑌 𝑁𝜇 𝜎2 com 𝜇 conhecido e 𝜎2 desconhecido Então a função de verossimilhança será 𝐿𝜎2𝒚 2𝜋𝜎21 2 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝐿𝜎2𝒚 2𝜋𝑛 2 𝜎2𝑛 2 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝐿𝜎2𝒚 𝜎2𝑛 2 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 Assumindo que 𝜎2 𝐺𝑎𝑚𝑎 𝐼𝑛𝑣𝑒𝑟𝑡𝑖𝑑𝑎𝛼 𝛽 então 𝑓𝜎2 𝛽𝛼 Γ𝛼𝜎2𝛼1𝑒𝛽𝜎2 𝜎2𝛼1𝑒𝛽𝜎2 𝜎2 0 Portanto temse que a densidade a posteriori será tal que 𝑓𝜎2𝒚 𝐿𝜎2𝑦 𝑓𝜎2 𝜎2𝑛 2 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝜎2𝛼1𝑒𝛽𝜎2 𝜎2𝑛 2 𝛼1 exp 1 2𝜎2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝛽 𝜎2 𝜎2𝛼𝑛 2 1 exp 1 2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝛽 𝜎2 ou seja 𝜎2𝒚 𝐺𝑎𝑚𝑎 𝐼𝑛𝑣𝑒𝑟𝑡𝑖𝑑𝑎 𝛼 𝑛 2 1 2 𝑦𝑖 𝜇2 𝑛 𝑖1 𝛽 Nota DEFINIÇÃO CORRETA DA DISTRIBUIÇÃO GAMAINVERTIDA Se 𝑋 𝐺𝑎𝑚𝑎 𝐼𝑛𝑣𝑒𝑟𝑡𝑖𝑑𝑎𝛼 𝛽 então a função densidade de probabilidade de 𝑋 é dada por 𝑓𝑥𝛼 𝛽 𝛽𝛼 Γ𝛼 𝑥𝛼1𝑒𝛽𝑥𝐼0𝑥 Caso 3 Quando os dados tem distribuição 𝑩𝒊𝒏𝒐𝒎𝒊𝒂𝒍𝒏𝒑 Temos 𝑌 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙𝑛 𝑝 então a função de verossimilhança é dada por 𝐿𝑝𝑦 𝑛 𝑦 𝑝𝑦1 𝑝𝑛𝑦 𝑝𝑦1 𝑝𝑛𝑦 𝑦 0 1 𝑛 Atribuindo a priori 𝑝 𝐵𝑒𝑡𝑎𝑎 𝑏 teremos que 𝑓𝑝 1 𝐵𝑎 𝑏 𝑝𝑎11 𝑝𝑏1 𝑝𝑎11 𝑝𝑏1 0 𝑝 1 Logo segue que 𝑓𝑝𝑦 𝐿𝑝𝑦 𝑓𝑝 𝑝𝑦1 𝑝𝑛𝑦 𝑝𝑎11 𝑝𝑏1 𝑝𝑎𝑦11 𝑝𝑏𝑛𝑦1 𝑝𝑦 𝐵𝑒𝑡𝑎𝑎 𝑦 𝑏 𝑛 𝑦 Incluindo a constante de normalização temse 𝑓𝑝𝑦 1 𝐵𝑎 𝑦 𝑏 𝑛 𝑦 𝑝𝑎𝑦11 𝑝𝑏𝑛𝑦1 0 𝑝 1 Caso 2 Quando os dados tem distribuição de 𝑷𝒐𝒊𝒔𝒔𝒐𝒏𝝀 Seja 𝑌1 𝑌2 𝑌𝑛 uma amostra aleatória de 𝑌 𝑃𝑜𝑖𝑠𝑠𝑜𝑛𝜆 então consequentemente a função de verossimilhança será dada por 𝐿𝜆𝒚 𝜆𝑥𝑖𝑒𝜆 𝑥𝑖 𝑛 𝑖1 𝜆 𝑥𝑖 𝑛 𝑖1 𝑒𝑛𝜆 𝜆 0 Daí atribuindo a priori 𝜆 𝐺𝑎𝑚𝑎𝑎 𝑟 teremos 𝑓𝜆 𝑟𝑎 Γ𝑎𝜆𝑎1𝑒𝑟𝜆 𝜆𝑎1𝑒𝑟𝜆 𝜆 0 Portanto segue que 𝑓𝜆𝒚 𝐿𝜆𝒚 𝑓𝜆 𝜆 𝑥𝑖 𝑛 𝑖1 𝑒𝑛𝜆 𝜆𝑎1𝑒𝑟𝜆 𝜆𝑎 𝑥𝑖 𝑛 𝑖1 1𝑒𝑛𝜆𝑟𝜆 𝜆𝑎 𝑥𝑖 𝑛 𝑖1 1𝑒𝑛𝑟𝜆 𝜆 0 Ou seja temse 𝜆𝒚 𝐺𝑎𝑚𝑎 𝑎 𝑥𝑖 𝑛 𝑖1 𝑛 𝑟 Caso 1 Quando os dados tem distribuição 𝑵𝝁 𝝈𝟐 com 𝝈𝟐 conhecida Como a priori temos 𝜇 𝑁𝑎 𝑏2 então a fdp a priori é dada por 𝑓𝜇 2𝜋𝑏21 2 exp 1 2𝑏2 𝜇 𝑎2 𝜇 ℝ Para a função de verossimilhança dos dados sabese que 𝑋𝑖 𝑁𝜇 𝜎2 𝑖 1 𝑛 com 𝜎2 conhecido então a função de verossimilhança será 𝐿𝜇𝒙 2𝜋𝜎21 2 exp 1 2𝜎2 𝑥𝑖 𝜇2 𝑛 𝑖1 𝐿𝜇𝒙 2𝜋𝜎2𝑛 2 exp 1 2𝜎2 𝑥𝑖 𝜇2 𝑛 𝑖1 Sabendo que 𝑥𝑖 𝜇2 𝑛 𝑖1 𝑥𝑖 𝑥2 𝑛 𝑖1 𝑛𝜇 𝑥2 e definindo 𝑆𝑥𝑥 𝑥𝑖 𝑥2 𝑛 𝑖1 podemos reescrever a função de verossimilhança como 𝐿𝜇𝒙 2𝜋𝜎2𝑛 2 exp 1 2𝜎2 𝑆𝑥𝑥 𝑛𝜇 𝑥2 𝐿𝜇𝒙 2𝜋𝜎2𝑛 2 exp 𝑛 2𝜎2 𝜇 𝑥2 exp 1 2𝜎2 𝑆𝑥𝑥 Com isso temse 𝑓𝜇𝐱 𝐿𝜇𝒙𝑓𝜇 𝑓𝜇𝐱 2𝜋𝜎2𝑛 2 exp 𝑛 2𝜎2 𝜇 𝑥2 exp 1 2𝜎2 𝑆𝑥𝑥 2𝜋𝑏21 2 exp 1 2𝑏2 𝜇 𝑎2 𝑓𝜇𝐱 exp 𝑛 2𝜎2 𝜇 𝑥2 exp 1 2𝑏2 𝜇 𝑎2 𝑓𝜇𝐱 exp 1 2𝑏2 𝜇 𝑎2 𝑛 2𝜎2 𝜇 𝑥2 𝑓𝜇𝐱 exp 1 2 1 𝑏2 𝜇 𝑎2 𝑛 𝜎2 𝜇 𝑥2 Η Definindo Η 1 𝑏2 𝜇 𝑎2 𝑛 𝜎2 𝜇 𝑥2 então Η 1 𝑏2 𝜇2 2𝜇𝑎 𝑎2 𝑛 𝜎2 𝜇2 2𝜇𝑥 𝑥2 1 𝑏2 𝜇2 2𝜇𝑎 𝑏2 𝑎2 𝑏2 𝑛 𝜎2 𝜇2 2𝑛𝑥 𝜎2 𝜇 𝑛𝑥2 𝜎2 𝜇2 1 𝑏2 𝑛 𝜎2 2𝜇 𝑎 𝑏2 𝑛𝑥 𝜎2 𝑎2 𝑏2 𝑛𝑥2 𝜎2 1 𝑏2 𝑛 𝜎2 𝜇2 2𝜇 𝑎 𝑏2 𝑛𝑥 𝜎2 1 𝑏2 𝑛 𝜎2 1 𝑎2 𝑏2 𝑛𝑥2 𝜎2 Fazendo 𝜔 1 𝑏2 𝑛 𝜎2 0 temos Η 𝜔 𝜇2 2𝜇 𝑎 𝑏2 𝑛𝑥 𝜎2 𝜔1 𝑎2 𝑏2 𝑛𝑥2 𝜎2 𝜔 𝜇2 2𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 𝑎2 𝑏2 𝑛𝑥2 𝜎2 𝜔 𝜇2 2𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 1 𝜔2 𝑎 𝑏2 𝑛𝑥 𝜎2 2 1 𝜔2 𝑎 𝑏2 𝑛𝑥 𝜎2 2 𝑎2 𝑏2 𝑛𝑥2 𝜎2 𝜔 𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 1 𝜔2 𝑎 𝑏2 𝑛𝑥 𝜎2 2 𝑎2 𝑏2 𝑛𝑥2 𝜎2 𝜔 𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 𝑎2 𝑏2 𝑛𝑥2 𝜎2 Segue que 𝑓𝜇𝐱 exp 1 2 𝜔 𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 1 2𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 1 2 𝑎2 𝑏2 𝑥2 𝜎2 𝑓𝜇𝐱 exp 1 2 𝜔 𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 exp 1 2𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 1 2 𝑎2 𝑏2 𝑥2 𝜎2 não depende de 𝜇 𝑓𝜇𝐱 exp 1 2 𝜔 𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 𝑓𝜇𝐱 exp 1 2𝜔1 𝜇 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 2 Ora percebese que a última expressão é o núcleo de uma distribuição Normal com média e variância dadas por 1 𝜔 𝑎 𝑏2 𝑛𝑥 𝜎2 e 𝜔1 Como 𝜔 1 𝑏2 𝑛 𝜎2 então 𝜇𝐱 𝑁 1 𝑏2 𝑎 𝑛 𝜎2 𝑥 1 𝑏2 𝑛 𝜎2 1 1 𝑏2 𝑛 𝜎2 Questão 1 Seja Y 1Y 2Y n uma amostra aleatória de Y Geo p onde a função de probabilidade de Y é dada por f yp p 1p y y012 Assim a função de verossimilhança de YY 1Y 2Y n será L py i1 n p 1p yip n 1p i1 n yi Atribuindo a priori beta para o parâmetro p ou seja p Beta ab teremos f p 1 B ab p a11p b10 p1 Logo f py L py f p p n1p i1 n yi p a1 1p b1 p an1 1p b i1 n yi1 onde 0 p1 isto é p y Betaanb i1 n yi Caso 5 Quando os dados têm distribuição normal com média conhecida e variância desconhecida Atribuise priori Gamma para a precisão τ 1 σ2 E a distribuição a posteriori para esta precisão será Gamma Resolução Você vai precisar de Apêndice B do Mood distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois 0 τ dispensando o termo do denominador pois é uma constante com relação ao parâmetro τ fτy fτLτy o termo y se refere aos dados observados Modelo Normal ou seja temos uma amostra de tamanho n iid independentes e identicamente distribuídos de uma distribuição de Normal com média igual a µ e precisão igual a τ então y é um vetor de tamanho n Passo I atribuir priori para τ sendo 0 τ τ Gammaλ r então fτ λr Γr τr1 eλT I0τ com λ 0 e r 0 parâmetros conhecidos chamados de hiperparâmetros no contexto Bayesiano Passo II atribuir distribuição Normal para os dados Y1 Y2 Y3 Yn Normalµ σ2 então fYy ni1 1 2π exp r 2 yi µ2 1 2π n exp 1 2 ni1 yi µ2 Lτy distribuição dos dados função de verossimilhança de τ dado os dados A função de verossimilhança nos traz toda a informação disponível na amostra nos dados com µ conhecido e τ desconhecido Passo III Aplicar a fórmula podese dispensar os termos constantes fτy fτLτy λr Γr τr1 eλT I0τ 1 2π n 2 exp r 2 ni1 yi µ2 τr n 2 1 exp λ ni1 yi µ2 τ I0τ Então τy Gamma λ 1 2 ni1 yi µ2 r n 2 è só incluir as constantes n fτy λ 1 2 ni1 yi µ2r n 2 Γr n 2 τ r n 2 1 expλ ni1 yi µ2 τ I0τ Caso 5 Quando os dados tem distribuição N μσ 2 com σ 2 desconhecida Seja Y 1Y n uma amostra aleatória de Y N μ σ 2 com μ conhecido e σ 2 desconhecido Então a função de verossimilhança será Lσ 2y i1 n 2 π σ 2 12exp 1 2σ 2 yiμ 2 Lσ 2y2π n2σ 2 n2exp 1 2σ 2 i1 n yiμ 2 Lσ 2yσ 2 n2exp 1 2σ 2 i1 n yiμ 2 Escrevendo a função de verossimilhança em função de τ1σ 2 temos L τy τ n2exp τ 2 i1 n yiμ 2 Assumindo que τ Gama α β então f τ β α Γ α τ α1e βτ τ α1e βτ τ0 Portanto temse que a densidade a posteriori será tal que f τy L τy f τ τ n2exp τ 2 i1 n yiμ 2τ α1e βτ τ αn21exp τ 2 i1 n yiμ 2βττ αn21exp 1 2 i1 n yiμ 2βτ ou seja τy 1 σ 2y Gamaα n 2 1 2 i1 n yiμ 2 β Nota DEFINIÇÃO CORRETA DA DISTRIBUIÇÃO GAMA Se X Gama α β então a função densidade de probabilidade de X é dada por f xα β β α Γ α x α1e βx I 0 x Caso 4 Quando os dados tem distribuição N μσ 2 com σ 2 desconhecida Seja Y 1Y n uma amostra aleatória de Y N μ σ 2 com μ conhecido e σ 2 desconhecido Então a função de verossimilhança será Lσ 2y i1 n 2 π σ 2 12exp 1 2σ 2 yiμ 2 Lσ 2y2π n2σ 2 n2exp 1 2σ 2 i1 n yiμ 2 Lσ 2yσ 2 n2exp 1 2σ 2 i1 n yiμ 2 Assumindo que σ 2 GamaInvertida α β então f σ 2 β α Γ α σ 2 α 1 e βσ 2 σ 2 α1 e βσ 2 σ 20 Portanto temse que a densidade a posteriori será tal que f σ 2yL σ 2yf σ 2σ 2 n2exp 1 2σ 2 i1 n yiμ 2σ 2 α1 e βσ 2 σ 2 n2α 1 exp 1 2σ 2 i1 n yiμ 2 β σ 2σ 2 αn21 exp 1 2 i1 n yiμ 2 βσ 2 ou seja σ 2y GamaInvertidaα n 2 1 2 i1 n yiμ 2 β Nota DEFINIÇÃO CORRETA DA DISTRIBUIÇÃO GAMAINVERTIDA Se X GamaInvertida α β então a função densidade de probabilidade de X é dada por f xα β β α Γ α x α1 e βx I0 x Caso 3 Quando os dados tem distribuição Binomial n p Temos Y Binomial n p então a função de verossimilhança é dada por L py n y p y 1p ny p y 1p n y y01n Atribuindo a priori p Beta ab teremos que f p 1 B ab p a11p b1 p a11p b10 p1 Logo segue que f py L py f p p y 1p n y p a11p b1 p a y1 1p bn y1 py Beta a y bny Incluindo a constante de normalização temse f py 1 B a ybny p ay1 1p bny10 p1 Caso 2 Quando os dados têm distribuição de Poisson Atribuise priori Gmma para a taxa λ E a distribuição a posteriori para esta taxa será Gamma Resolução Você vai precisar de Apêndice B do Mood distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois 0 λ dispensando o termo do denominador pois é uma constante com relação ao parâmetro λ fλy fλLλy o termo y se refere aos dados observados Modelo Poisson ou seja temos uma amostra de tamanho n iid independentes e identicamente distribuídos de uma distribuição de Poisson com taxa λ então y é um vetor de tamanho n Passo I atribuir priori para λ sendo 0 λ λ Gammaar então fλ rᵃ Γr λᵃ¹ eʳλ I0λ considere a o primeiro parâmetro da Gamma para não confundir com λ na fórmula Passo II atribuir distribuição Poisson para os dados Y₁ Y₂ Y₃ Yₙ Poissonλ então PY y ᵢ₁ⁿ eʸ λʸ yᵢ x ᵢ₁ⁿ I01yᵢ vetor Y ser igual a vetorzinho y de valores observados produto de funções indicadoras 1 yᵢ x I01 yᵢ Lλy distribuição dos dados função de verossimilhança de λ dado os dados Passo IIIAplicar a fórmula podese dispensar os termos constantes fλy fλLλy rᵃΓr λᵃ¹ eʳλ I0λ x λ yᵢ e λn yᵢ λa yᵢ 1 earλ I0λ Então λy Gammaa r r yᵢ é só incluir as constantes na fórmula fλy ara yᵢ Γr yᵢ λa yᵢ 1 earλ I0λ Caso 2 Quando os dados tem distribuição de Poisson λ Seja Y 1Y 2Y n uma amostra aleatória de Y Poissonλ então consequentemente a função de verossimilhança será dada por L λy i1 n λ xie λ xi λ i1 n xi e nλ λ0 Daí atribuindo a priori λ Gama ar teremos f λ r a Γ a λ a1e rλλ a1e rλ λ0 Portanto segue que f λy L λy f λ λ i1 n xi e nλ λ a1e rλ λ a i1 n xi1 e nλrλ λ a i1 n xi1 e nr λ λ0 Ou seja temse λy Gamaa i1 n xinr 011 Casos principais de prioris conjugadas Caso 1 Quando os dados têm distribuição normal com média desconhecida e variância conhecida Atribuise priori normal para a média µ E a distribuição a posteriori para esta média será normal Resolução Você vai precisar de Apêndice B do Mood distribuições Fórmula de Bayes da seção 13 para o caso contínuo pois µ dispensando o termo do denominador pois é uma constante com relação ao parâmetro µ fxµ fyLµy o termo y se refere aos dados observados Modelo Normal ou seja temos uma amostra de tamanho n iid independentes e identicamente distribuídos de uma distribuição de Normal com média igual a µ e variância igual a σ² então y é um vetor de tamanho n Passo I atribuir priori para µ sendo µ µ Normalm₀ s₀² fµ 12πs₀ exp ½ µ m₀²s₀² considere m₀ e s₀² os parâmetros da média e variância da distribuição a priori respectivamente com m₀ e s₀² conhecidos A distribuição a priori nos traz o conhecimento a priori sobre a média µ se temos pouca informação a respeito do µ podemos fixar a média m₀ e atribuir uma variância s₀² grande Se temos muita informação a respeito de µ podemos fixar a média m₀ e atribuir uma variância s₀² pequena Passo II atribuir distribuição Normal para os dados Y₁ Y₂ Y₃ Yₙ Normalµ σ² então ƒᵧ𝓎 ᵢ₁ⁿ 12πσ² exp ½ 𝓎ᵢ µ²σ² 12π s₀² exp ½ ᵢ₁ⁿ 𝓎ᵢ µ²σ² Lµy distribuição dos dados função de verossimilhança de µ dado os dados A função de verossimilhança nos traz toda a informação disponível na amostra nos dados com µ desconhecido e σ² conhecido Passo IIIAplicar a fórmula podese dispensar os termos constantes fµy fyLµy exp ½ 1σ² 𝓎 m₀² 1s₀² ᵢ₁ⁿ𝓎ᵢ µ² Então µy N m₀s₀² ᵢ₁ⁿ 𝓎ᵢσ² 1s₀² nσ² o símbolo significa é proporcional a ou seja todos os termos multiplicativos que não dependam de µ podem ser desconsiderados na fórmula A demonstração pode ser encontrada em Box Tiao 1973 Caso 1 Quando os dados tem distribuição N μσ 2 com σ 2 conhecida Como a priori temos μ N ab 2 então a fdp a priori é dada por f μ 2π b 2 12exp 1 2b 2 μa 2 μR Para a função de verossimilhança dos dados sabese que Xi N μσ 2i1n com σ 2 conhecido então a função de verossimilhança será L μx i1 n 2π σ 2 12exp 1 2σ 2 xiμ 2 Lμx 2π σ 2 n2exp 1 2σ 2 i1 n xiμ 2 Sabendo que i1 n xiμ 2 i1 n xix 2n μx 2 e definindo Sxx i1 n xix 2podemos reescrever a função de verossimilhança como L μx 2π σ 2 n2exp 1 2σ 2 Sxxn μx 2 Lμx 2π σ 2 n2exp n 2σ 2 μx 2exp 1 2σ 2 Sxx Com isso temse f μx L μx f μ f μx 2 π σ 2 n2exp n 2σ 2 μx 2exp 1 2σ 2 Sxx2π b 2 12exp 1 2b 2 μa 2 f μx exp n 2σ 2 μx 2exp 1 2b 2 μa 2 f μx exp 1 2b 2 μa 2 n 2σ 2 μx 2 f μx exp 1 2 1 b 2 μa 2 n σ 2 μx 2 Η Definindo Η 1 b 2 μa 2 n σ 2 μx 2 então Η 1 b 2 μ 22 μaa 2 n σ 2 μ 22 μ xx 2 1 b 2 μ 22 μa b 2 a 2 b 2 n σ 2 μ 22n x σ 2 μ nx 2 σ 2 μ 2 1 b 2 n σ 22 μ a b 2 nx σ 2 a 2 b 2 nx 2 σ 2 1 b 2 n σ 2μ 22μ a b 2 n x σ 2 1 b 2 n σ 2 1 a 2 b 2 n x 2 σ 2 Fazendo ω 1 b 2 n σ 20 temos Ηω μ 22 μ a b 2 nx σ 2 ω 1 a 2 b 2 n x 2 σ 2 ωμ 22μ 1 ω a b 2 nx σ 2 a 2 b 2 n x 2 σ 2 ωμ 22μ 1 ω a b 2 nx σ 2 1 ω 2 a b 2 nx σ 2 2 1 ω 2 a b 2 n x σ 2 2 a 2 b 2 n x 2 σ 2 ωμ 1 ω a b 2 n x σ 2 2 1 ω 2 a b 2 n x σ 2 2 a 2 b 2 n x 2 σ 2 ωμ 1 ω a b 2 n x σ 2 2 1 ω a b 2 n x σ 2 2 a 2 b 2 n x 2 σ 2 Segue que f μx exp 1 2 ωμ 1 ω a b 2 n x σ 2 2 1 2ω a b 2 n x σ 2 2 1 2 a 2 b 2 x 2 σ 2 f μx exp 1 2 ωμ 1 ω a b 2 n x σ 2 2 exp 1 2ω a b 2 n x σ 2 2 1 2 a 2 b 2 x 2 σ 2 nãodepende deμ f μx exp 1 2 ωμ 1 ω a b 2 n x σ 2 2 f μx exp 1 2ω 1μ 1 ω a b 2 n x σ 2 2 Ora percebese que a última expressão é o núcleo de uma distribuição Normal com média e variância dadas por 1 ω a b 2 n x σ 2 eω 1 Como ω 1 b 2 n σ 2 então μx N 1 b 2 a n σ 2 x 1 b 2 n σ 2 1 1 b 2 n σ 2 Resolução Foi mostrado que para n1 temse que a posteriori de μ será μx N 1 b 2 a 1 σ 2 x 1 b 2 1 σ 2 1 1 b 2 1 σ 2 onde a priori é μ N ab Para o físico A temos μ N 90020 2 então E μx 1 b 2 a 1 σ 2 x 1 b 2 1 σ 2 1 20 2 900 1 40 2 850 1 20 2 1 40 2 890 e Var μx 1 1 b 2 1 σ 2 1 1 20 2 1 40 2 320 Logo a posteriori do físico A é μx N 890320 Para o físico B temos μ N 80080 2 então E μx 1 b 2 a 1 σ 2 x 1 b 2 1 σ 2 1 80 2 800 1 40 2 850 1 80 2 1 40 2 84 0 e Var μx 1 1 b 2 1 σ 2 1 1 80 2 1 40 2 1280 Logo a posteriori do físico B é μx N 8401280 Resolução Temse que a função de verossimilhança é dada por L μσ 2x i1 n 2π σ 2 12exp 1 2σ 2 xiμ 2 Lμσ 2x2π n2σ 2 n2exp 1 2σ 2 i1 n xiμ 2 log Lμσ 2x n 2 log2 π n 2 logσ 2 1 2σ 2 i1 n xiμ 2 Tomando a derivada a logverossimilhança em relação a μ log Lμσ 2x μ 1 2σ 2 i1 n 2 xiμ 1 1 σ 2 i1 n xiμ Agora resolvemos a equação de verossimilhança em relação a μ ou seja log Lμσ 2x μ 0 1 σ 2 i1 n xiμ0 i1 n xiμ0 i1 n xin μ0 μ1 n i1 n xix Tomando a derivada a logverossimilhança em relação a σ 2 log Lμσ 2x σ 2 n 2σ 2 1 2 σ 2 2 i1 n xiμ 2 Agora resolvemos a equação de verossimilhança ou seja log Lμσ 2x σ 2 0 n 2 σ 2 1 2 σ 2 2 i1 n xiμ 20 n 2 σ 2 1 2 σ 2 2 i1 n xiμ 2 σ 2 2 σ 2 1 n i1 n xiμ 2 σ 21 n i1 n xiμ 2 σ 21 n i1 n xix 2 Esteé oestimador demáximaverossimilhança deσ 2 a Temse σ 21 n i1 n xix 22283737 10 2284 b Temos μ2 com σ 2 desconhecido Ainda τ 1 σ 2 Gama α β onde α β05e α β 205α1 2 e β1τ Gama 1 2 1 Então f τ τ 12e τ e L τxτ n2exp τ 2 i1 n xi2 2 Portanto segue que f τx Lτx f τ τ n2exp τ 2 i1 n xi2 2τ 12e ττ n212exp τ 2 i1 n xi2 2τ τ n121exp 1 2 i1 n xi2 21τ τx Gama n1 2 1 2 i1 n xi2 21 Como n10 e i1 10 xi2 2233 101 2 55e 233 2 11065 τx Gama 551065 c E τx 55106505164 d Var τx 551065 200485 Resolução 1 O núcleo das distribuições binomial geométrica e binomial negativa é dado por h θθ s 1θ f 2 Temse Xi U 0θ i1n então L θx i1 n 1 θ I0θ xiθ nI x n θ onde xn max x1 xn e θxn pois 0xiθ iθxn A expressão L θx θ nI x n θ representa o núcleo da densidade da distribuição de Pareto com parâmetros n1 e xn logo é conjugada uniforme 3 Temse θ Gama α β onde α β02e α β 21α004 e β02θ Gama 00402 Densidade priori f θ θ 004 1e 02θθ 0 96e 0 2θ Com Xi exp θ i1n então L θx i1 n θe θxiθ ne θn x e como x38en20 então n x203876 logo L θx θ 20 e 76θ Densidade a posteriori f θx L θx f θ θ 20e 76θθ 0 96e 02θθ 20096 e 760 2θθ 19 04 e 76 2θ θx Gama 2004762 4 Xi Poissonθ i1n então L θx i1 n θ xie θ xi θ se nθ então a priori conjugada será θ Gama ab E θa b 4CV θ DPθ E θ 05 a b4 a b 2 4 05a4b a b 2a2b 2b2bnb1a4 θ Gama 41 5 Verossimilhança L θx θ 4e 120θ θ Gama 210 então f θx L θx f θ θ 4e 120θθe 10θθ 41e 12010θθ 5e 130 θ θx Gama 6130