·

Estatística ·

Processos Estocásticos

Send your question to AI and receive an answer instantly

Ask Question

Preview text

Exercícios Exercicio 112 Sejam X1 X2 Xn variáveis aleatórias independentes e identicamente distribuídas tais que PXn 1 p e PXn 1 1p Seja Sn i1 até nXi n12 e S0 0 A coleção Sn n0 é um processo aleatório chamado passeio aleatório simples unidimensional a Descreva o passeio aleatório simples b Construa uma realização deste processo c Calcule a média e a variância de Sn Qual é o valor máximo para a variância de Sn d Para Sn calcule a função autocorrelação e Mostre que Sn é uma cadeia de Markov Exercicio 113 Seja Sn n 0 um passeio aleatório simples Defina um processo aleatório St tal que St Sn n t n 1 a Descreva St b Construa uma realização de St c Qual a média e a variância de St Exercicio 114 Numa partida do Goiás pela Copa do Brasil torcedores esmeraldinos chegam ao Serra Dourada em instantes aleatórios pontuais Seja Xn o tempo em segundos até a chegada do nésimo esmeraldino Podemos escrever Xn i1 até nTi n12 e X00 onde Ti é o tempo entre a chegada do n1ésimo torcedor e do nésimo torcedor a Descreva o processo aleatório Xn Xn n 1 b Construa uma realização típica do processo c Suponha que o tempo entre a chegada de dois torcedores esmeraldinos consecutivos é uma variável aleatória exponencial de parâmetro λ Neste caso obtenha a média a variância e a distribuição de primeira ordem de Xn Exercicio 115 Considere um processo estocástico a tempo discreto Xn Xn n 1 onde as Xn são variáveis aleatórias independentes e identicamente distribuídas com média μ e variância σ² a Calcule aa distribuição de ordem n de Xn b Encontre a média e a variância de Xn c Encontre a função autocorrelação de Xn d Encontre a função autocovariância de Xn Exercicio 116 Mostre que um processo estocástico que é estacionário de ordem n também estacionário de todas as ordens menores que n Exercicio 117 Seja Xn n 0 uma sequência aleatória de vaiid com média 0 e variância 1 Mostre que Xn n 0 é um processo estacionário no sentido amplo Exercicio 118 Seja Xn n 0 um processo estocástico com incrementos estacionários independentes e assuma que S0 0 Mostre que EXt μ1 t onde μ1 EX1 Exercicio 119 Sejam X1 X2 Xn variáveis aleatórias independentes e identicamente distribuídas tais que PXn 2 p e PXn 1 1p Seja Sn i1 até nXi n12 e S00 a Descreva o processo aleatório Sn n 012 b Construa uma realização deste processo c Dê a distribuição de primeira ordem desse processo d Calcule a média e a variância de Sn Qual é o valor máximo para a variância de Sn Exercicio 1110 Considere um processo aleatório Xt definido por Xt Ycosωt Θ onde X e Y são variáveis aleatórias independentes tais que Y Uniforme A A e Θ Uniforme π π a Descreva este processo aleatório b Calcule a média μXt e a variância VarXt c Encontre a função autocorrelação RXts d Encontre a função autocovariância KXts Exercício 1111 Considere uma sucessão infinita de provas de Bernoulli Seja Xₜ o número de provas até obter um sucesso pelo tésima vez t 1 2 a Defina o espaço como um processo estocástico indicando o espaço dos parâmetros e dos estados b Determine para cada t a função de probabilidade de Xₜ c Represente graficamente uma trajetória d Determine a lei conjunta de X₂ X₃ X₄ e Calcule PX₂ xX₃ x₃ X₂ x₂ e PXₜ xX₃x₃ Comente o resultado f Determine a lei da variável aleatória tempo ou número de provas entre dois sucessos de Bernoulli g Determine a lei da variável aleatória número de provas necessárias até à ocorrência de dois sucessos consecutivos de Bernoulli Exercício 1112 O número de clientes Y que chegam a um caixa eletrônico tem distribuição de Poisson com parâmetro X sendo X a intensidade com que os clientes chegam ao caixa eletrônico Supondo que X tem distribuição Gamaα 1 encontre a função de probabilidade da variável aleatória Y Exercício 1113 O número de emails que chegam a um servidor no intervalo de tempo 0 t é para cada t 0 uma variável aleatória Nₜ com distribuição de Poisson com parâmetro λt Somente um computador é conectado ao servidor para ler os emails recebidos O tempo de vida T desse computador tem distribuição exponencial de parâmetro θ Além disso Nₜ e T são independentes para todo t Obtenha a distribuição do número de emails lidos até o computador falhar Exercício 1114 Sejam X e Y variáveis aleatórias binomiais independentes com parâmetros n e p idênticos calcule o valor esperado condicional de X dado que X Y n Exercício 1115 Uma partícula se movimenta ao longo do conjunto dos inteiros da seguinte maneira Se ela está na posição i então se movimenta para a posição i1 com probabilidade 13 e para a posição i1 com probabilidade 23 Iniciando na posição 0 seja p a probabilidade dela em algum momento atingir a posição 1 Calcule p Exercício 1116 Considere uma urna contendo oito bolas verdes e duas bolas vermelhas Bolas são retiradas uma a uma da urna ao acaso e com reposição Sejam X₁ X₂ as variáveis aleatórias definidas por Xₜ 1 se a iésima retirada resulta em bola verde 0 caso contrário Defina o processo estocástico de Bernoulli X Xₜₙ1 e seu processo do número de sucessos associado Sₙₙ0 tal que Sₙ ᵢ Xᵢ n 1 a Obtenha ESₙ e VarSₙ b A lei dos grandes números pode ser aplicada para Sₙ Explique graficamente sua conclusão c Calcule PS₁₀₀ 84 Exercício 1117 Sejam X₁ X₂ Xₙ variáveis aleatórias independentes e identicamente distribuídas tais que PXₙ 1 35 e PXₙ 1 25 Seja um passeio aleatório Sₙ n 0 com S₀ 0 e Sₙ ᵢ Xᵢ n 1 2 a Calcule PS₂₀ 4 b O que a Lei Forte e diz neste caso Exercício 1118 Seja Sₙₙ0 um processo estocástico Dizemos que Sₙ é uma martingale se para todo n 1 ESₙ 2 ESₙ₁S₀ S₁ Sₙ Sₙ Sejam S₀ 0 e Sₙ ᵢ ξᵢ n 1 2 onde ξᵢ é uma sequência de variáveis aleatórias iid com distribuição exponencial de média 1 Mostre que Yₙ 2ⁿ expSₙ n 1 2 define um martingale Exercício 1119 Um minerador está preso em uma mina contendo 3 portas A primeira porta leva a um túnel que o levará à saída após 2 horas de viagem A segunda porta leva a um túnel que fará com que ele retorne à mina após 3 horas de viagem A terceira porta leva a um túnel que fará com que ele retorne à mina após 8 horas Considere que em todo o tempo o minerador não escolhe uma porta repetida e que das restantes ele escolhe qualquer uma das portas com igual probabilidade Seja T o tempo até o minerador sair livre Defina uma sequência de variáveis aleatórias X₁ X₂ X₃ e um tempo N número de vezes que o minerador abre portas antes de escolher a porta para saída tal que T ᵢ Xᵢ Obs Você pode supor que o minerador continua escolhendo portas aleatoriamente mesmo após ele alcançar a liberdade Calcule ET Exercício 1120 O número de emails que chegam a um servidor no intervalo de tempo 0 t dado em minutos é para cada t 0 uma variável aleatória Nₜ com distribuição de Poisson com parâmetro λt Somente um computador é conectado ao servidor para ler os emails recebidos Se o tempo de vida T desse computador tem distribuição exponencial de parâmetro θ Além disso Nₜ e T são independentes para todo t Obtenha a distribuição do número de emails lidos até o computador falhar Capítulo 3 Passeios Aleatórios 31 Exercícios Exercício 311 Considere um passeio aleatório simples com p 25 a Calcule PS15 5 b Usando o princípio da reflexão calcule PT05 25 Exercício 312 Considere um passeio aleatório simples Sn n 0 com S0 0 e para todo n 1 2 Sn i1n Xi onde PX1 1 610 e PX1 1 410 a Calcule PS25 5 Valor 07 b Usando o princípio da reflexão calcule PT05 25 Exercício 313 Sejam X1 X2 Xn variáveis aleatórias independentes e identicamente distribuídas tais que PXn 1 p e PXn 1 1 p Seja Sn i1n Xi n 1 2 e S0 0 A coleção Sn n 0 é um processo aleatório chamado passeio aleatório simples a Mostre que este processo é uma Cadeia de Markov b Considere um passeio aleatório simples onde p 45 e S0 0 Seja N o tempo até o passeio alcançar a posição 100 Calcule o valor esperado de N 10 Exercício 314 Sejam X1 X2 Xn variáveis aleatórias independentes e identicamente distribuídas tais que PXn 4 35 e PXn 1 25 Seja um passeio aleatório Sn n 0 onde Sn i1n Xi n 1 2 e S0 0 Calcule PS13 27 Exercício 315 Considere um passeio aleatório simples com barreiras onde o espaço de estados é E 1 2 3 4 5 e as probabilidades de transição pii1 35 1 i 4 pii1 25 2 i 5 pi1 25 pi55 35 Calcule a distribuição invariante Dê uma interpretação intuitiva Exercício 316 Sejam X1 X2 Xn variáveis aleatórias independentes e identicamente distribuídas tais que PXn 1 35 e PXn 1 25 Seja Sn i1n Xi n 1 2 e S0 0 Sn n 0 é um passeio aleatório simples assimétrico Seja N o tempo até o passeio alcançar a posição 10 a Mostre que N é tempo de parada b Usando a equação de Wald calcule o valor esperado de N Exercício 317 Considere um passeio aleatório simples com barreiras onde E 0 1 2 3 4 e probabilidades de transição pii1 45 0 i 3 pii1 15 1 i 4 p00 15 p44 45 Obtenha a distribuição invariante Exercício 318 Considere um jogador que a cada rodada de um jogo ganha um real com probabilidade 25 e perde um real com probabilidade 35 Assuma que as rodadas do jogo são independentes e que o jogador pare de jogar se seu capital soma do capital inicial com o capital ganho no jogo atingir 20 reais Se o capital inicial do jogador é de 12 reais calcule a probabilidade dele atingir 20 reais antes de perder todo o dinheiro Exercícios Resposta a As probabilidades são dadas por P S000 E posteriormente temos que P S11 é a probabilidade de S1X11 que é p Por outro lado temos que a probabilidade de S2X1 X2202 é possivelmente X1X21 X1X21 X11 e X21 ou X11 e X21 A probabilidade é 1 P S22p 2 pois P X11P X21p 2 P S221p 2 pois P X11P X211p 3 P S20 2 p1p pois P X11 1p P X21p ou P X11pP X211p A esta altura o espaço dos resultados possíveis claramente é Snnn20n2n se n é par ou Snnn211n2n se n é par Observe que se Snk temos que Sn1 pode ser Sn1k1 ou Sn1k1 Assim P Snk Sn1k11p e P Snk Sn1k1p b O processo envolve somas ou subtrações dependendo de X n e em Sn teremos com n10 que Exemplos de processos são 1 Um processo S106 resulta em 01212343456 2 Um processo S102 resulta em 01212101232 c A média é dada por μnE SnE X1E Xn Onde temos 1 A média de X1 é dada por E X 11 p1 1p 2 p1 2 A média de X n é dada por E X n1 p1 1p2 p1 O resultado de E Sn i n E Xin2 p1 Já a variância de X n é dada por V Xn12 p1 2 p12 p1 21p8 p1p Resultando em V Xn41p 2 p4 p 21p8 p 1p 1pp 8 p1p Para todos os X n Assim temos que Var Sn i1 n VarXi8np1p Como o n é tão grande quanto se queira então a variância é infinita d Função de autocorrelação de Sn A função de autocorrelação é uma medida da correlação entre os valores de S em diferentes lags Para calcular a função de ₙ autocorrelação de Snvamos considerar o lag k onde k é um número inteiro positivo A autocorrelação em um lag k é dada por ρ k Cov SnSm Var Sₙ A CovSnSm é a covariância entre Sn e Sm enquanto VarSn é a variância de Sn Para o caso em que X n assume valores 1 e 1 com probabilidades p e 1p respectivamente as variáveis aleatórias X n são não correlacionadas pois elas têm valores opostos Portanto as covariâncias entre diferentes termos Sn são zero exceto quando o lag k é igual a zero Assim a função de autocorrelação de Sm é dada por ρ k Cov SnSm Var Sn 0 Var Sₙ0 A covariância é Cov Sn SmESnE SnSmE Sm ESn2 p1Sm2 p1 ESnSm2 p1 SnSm2 p1 2 ESnSm2 p1ESnSm2 p1 2 ESnSm22 p1 22 p1 2 ESnSm2 p1 2 Observe que E SnSm SnSmP Snk SmsSnSmP Snk Sms Observe que P Snk SmsPSnmks da distribuição SnSmSnmks Neste caso temos que E SnSmE Sn E Sm2 p1 2 Portanto a função de autocorrelação de Sn é igual a zero para todos os lags k diferentes de zero Isso significa que não há correlação linear entre os valores de Sn em diferentes lags exceto quando o lag é igual a zero e Para mostrar que se trata de uma cadeia de Markov basta observar que P Snk Sn1k1p P Snk Sn1k11p P Snk Sn1m0mZ11 Como podemos observar a probabilidade de mudar de estado para outro não depende dos resultados anteriores sendo assim uma cadeia de Markov Respostas a Em resumo um processo aleatório é uma coleção de variáveis aleatórias associadas a pontos no tempo que evoluem de acordo com alguma regra ou comportamento estocástico Para cada instante t temos um estado Sn que é um processo aleatório Esses processos são fundamentais para a análise e a modelagem de sistemas complexos nos quais a aleatoriedade e a incerteza são fatores essenciais a serem considerados b O St é um processo aleatório por exemplo seria S 00 S 1S101 S 2S2010 S 3S30101 S 4 S401012 No nosso exemplo Sn é a descrição de um passeio simples O St mostra a evolução no tempo que neste caso é um caminhar aleatório sobre uma reta onde o indivíduo dá um passo a esquerda ou a direita c No caso em questão a descrição é discretizada assim temos que a média é E S t 1 n i0 n Si Não é possível exprimir pois desconhecemos o processo em particular Já a variância é Var S t1 n i0 n SiE S t 2 Respostas a O processo aleatório XnXnn1representa o tempo em segundos até a chegada do nésimo torcedor do Goiás ao estádio Cada X n é definido como a soma dos tempos T i entre a chegada do n1ésimo e o nésimo torcedor onde i varia de 1 a n A sequência começa com X 00 indicando que nenhum torcedor chegou ainda b Para construir uma realização típica do processo podemos assumir valores aleatórios para os tempos entre chegadas de cada torcedor T i e calcular os valores de X n usando a fórmula X nΣT i A realização específica dependerá dos valores assumidos para T i em cada instante de chegada Por exemplo suponha que temos os seguintes valores para os tempos de chegada de 5 torcedores T 110 segundos T 215 segundos T 38 segundos T 412 segundos T 520 segundos Nesse caso a realização do processo seria X1T110 segundos X2T1T 225 segundos X3T1T 2T333 segundos X 4T 1T2T 3T 445 segundos X5T1T 2T3T 4T 565 segundos c Supondo que o tempo entre a chegada de dois torcedores consecutivos segue uma distribuição exponencial com parâmetro λ podemos calcular a média a variância e a distribuição de primeira ordem de X n f t λλe λt A média é calculada por 0 λe λttdte λtt 1 λ e λt0 1 λ Como sabemos E Xn E i0 n T i i0 n ET in λ como o tempo T i é uma variável aleatória com distribuição exponencial A variância é dada pela seguinte expressão Var Xn 0 λe λt t1 λ 2 dteλtt1 λ 2 0 2 0 e λtt1 λdt 1 λ 22 1 λ e λtt1 λ0 1 λ 0 e λtdt 1 λ 22 1 λ 2 1 λ 1 λ 1 λ 2 Assim temos que Var Tn 1 λ 2 e assim Var Xn n λ 2 Resposta a A distribuição de ordem n de X n é a distribuição conjunta das variáveis aleatórias X1 X2 Xn Como as variáveis aleatórias são independentes e identicamente distribuídas a distribuição de ordem n é dada pelo produto das distribuições individuais Portanto a distribuição de ordem n de X n é representada por f x1x2 xnf x1f x2 f xn onde f x é a função de densidade de probabilidade da variável aleatória X b Se X e Y são variáveis aleatórias independentes a média de XY é dada pelo produto das médias individuais de X e Y Matematicamente se EX é a média de X e EY é a média de Y então a média de XY é dada por EXY E X EY Essa propriedade vale quando X e Y são independentes Caso contrário se X e Y forem dependentes a média de XY não será igual ao produto das médias individuais A média de X n é dada por E XnE X1 Xn E X1 E Xnμ n onde μ é a média de cada variável aleatória Xi A variância de X n é dada por Var XnVar X 1 X nVar X1Var X nσ 2 n onde σ 2 é a variância de cada variável aleatória Xi c A função de autocorrelação de X n é dada por FAC Xk Cov Xn Xnk Var X0 No entanto como o processo estocástico é a tempo discreto e as variáveis aleatórias são independentes a função de autocorrelação de X n será zero para qualquer valor de k diferente de 0 Isso ocorre porque a covariância entre X n e X nk será zero devido à independência das variáveis aleatórias d A função de autocovariância de X n é dada por ACOV Xn XnkCovXn Xnk No caso das variáveis aleatórias independentes a autocovariância entre X n e X 0 também será zero para qualquer valor de n diferente de 0 Isso ocorre porque a covariância entre variáveis independentes é sempre zero Portanto a função de autocovariância será zero para qualquer valor de ndiferente de 0 Resposta Para mostrar que um processo estocástico que é estacionário de ordem n também é estacionário de todas as ordens menores que n precisamos verificar se as propriedades de estacionariedade se mantêm para essas ordens menores Um processo estocástico é considerado estacionário de ordem n se suas propriedades estatísticas como média variância e covariância são invariantes em relação a mudanças de deslocamento no tempo de tamanho n Isso significa que para qualquer conjunto de tempos t 1t 2t n as distribuições conjuntas das variáveis aleatórias nos tempost 1t 2t nsão as mesmas para qualquer outro conjunto de tempos t 1ht2ht nh onde h é um deslocamento no tempo Agora vamos considerar uma ordem menor que n por exemplo ordem m onde mn Devemos verificar se as propriedades estatísticas do processo estocástico se mantêm para essa ordem menor 1 Média Um processo estocástico estacionário de ordem n tem a propriedade de que a média das variáveis aleatórias em qualquer conjunto de tempos t 1t 2t n é a mesma Portanto se selecionarmos um subconjunto desse conjunto de tempos t 1t 2t m a média das variáveis aleatórias nesse subconjunto também será a mesma Assim o processo estocástico é estacionário de ordem m 2 Variância Da mesma forma um processo estocástico estacionário de ordem n tem a propriedade de que a variância das variáveis aleatórias em qualquer conjunto de tempos t 1t 2t n é a mesma Portanto se selecionarmos um subconjunto desse conjunto de tempos t 1t 2t m a variância das variáveis aleatórias nesse subconjunto também será a mesma Assim o processo estocástico é estacionário de ordem m 3 Covariância Da mesma forma um processo estocástico estacionário de ordem n tem a propriedade de que a covariância entre as variáveis aleatórias em qualquer conjunto de tempos t 1t 2t n depende apenas da diferença entre os tempos e não dos próprios tempos Isso significa que se selecionarmos um subconjunto desse conjunto de tempos t 1t 2t m a covariância entre as variáveis aleatórias nesse subconjunto também dependerá apenas da diferença entre os tempos Assim o processo estocástico é estacionário de ordem m Portanto podemos concluir que um processo estocástico que é estacionário de ordem n também é estacionário de todas as ordens menores que n Resposta Para mostrar que a sequência Xn n 0 é um processo estacionário no sentido amplo devemos verificar se suas propriedades estatísticas são invariantes em relação ao tempo 1 Média Devemos verificar se a média das variáveis aleatórias Xn é constante ao longo do tempo Neste caso como as variáveis aleatórias são independentes e identicamente distribuídas e a média de cada uma delas é 0 a média de Xn também é 0 para todos os valores de n Portanto a média é constante e o processo é estacionário no sentido amplo em relação à média 2 Variância Devemos verificar se a variância das variáveis aleatórias Xn é constante ao longo do tempo Neste caso como as variáveis aleatórias são independentes e identicamente distribuídas e a variância de cada uma delas é 1 a variância de Xn também é 1 para todos os valores de n Portanto a variância é constante e o processo é estacionário no sentido amplo em relação à variância 3 Covariância Devemos verificar se a covariância entre as variáveis aleatórias Xn e Xm depende apenas da diferença entre n e m ou seja se CovXn Xm CovXnk Xmk para qualquer valor de k Neste caso como as variáveis aleatórias são independentes a covariância entre Xn e Xm é zero para n m Portanto a covariância é constante zero para todos os pares de tempos e o processo é estacionário no sentido amplo em relação à covariância Assim podemos concluir que a sequência Xn n 0 onde Xn é uma sequência de variáveis aleatórias independentes e identicamente distribuídas com média 0 e variância 1 é um processo estacionário no sentido amplo pois suas propriedades estatísticas média variância e covariância são invariantes em relação ao tempo Resposta Para mostrar que EXt µ1t onde µ1 EX1 considerando um processo estocástico Xn n 0 com incrementos estacionários independentes e S0 0 podemos utilizar as propriedades dos incrementos estacionários e a linearidade da esperança Primeiro vamos observar que a variável aleatória Xt pode ser escrita como uma soma de incrementos Xt Xt X0 Xt X0 X1 X1 X2 X2 Xt Xt1 Agora vamos calcular a esperança de Xt EXt EXt X0 X1 X1 X2 X2 Xt Xt1 Pela linearidade da esperança podemos distribuir a esperança em cada termo EXt EXt X0 EX1 X1 EX2 X2 EXt Xt1 Sabendo que os incrementos são estacionários e independentes podemos aplicar a propriedade de estacionariedade para os incrementos EXt EXt 0 EX1 1 EX2 2 EXt t1 Simplificando as expressões EXt EXt EX0 EX1 EX2 EX1 Agora observamos que EX0 0 de acordo com a condição S0 0 Portanto temos EXt EXt EX1 EX2 EX1 A soma dos termos EX1 ocorre t vezes Portanto podemos reescrever a expressão como EXt EXt t EX1 Subtraindo EXt de ambos os lados da equação obtemos 0 t EX1 Dividindo ambos os lados por t obtemos EXt EX1 Portanto concluímos que EXt µ1t onde µ1 EX1 Ressposta a O passeio aleatório simples é um processo aleatório unidimensional em que o valor do termo atual Sn é obtido somandose os valores das variáveis aleatórias Xi onde cada Xi pode assumir o valor 1 com probabilidade p ou o valor 1 com probabilidade 1p O processo começa em S0 0 e a cada passo n o valor do passeio aleatório é atualizado pela adição de um novo termo Xi b Para construir uma realização do passeio aleatório simples devemos gerar uma sequência de valores para as variáveis aleatórias Xi seguindo as probabilidades dadas Por exemplo podemos gerar uma realização com n 5 da seguinte forma X1 1 X2 1 X3 1 X4 1 X5 1 A sequência de valores gerados será 1 1 1 1 1 Esses valores são somados sequencialmente para obter os valores do passeio aleatório S1 1 S2 0 S3 1 S4 2 S5 1 c A média de Sn pode ser calculada como a soma das médias das variáveis aleatórias Xi já que elas são independentes e identicamente distribuídas Portanto a média de Sn é dada por ESn EX1 X2 Xn n EXi n p 1p n 2p 1 A variância de Sn também pode ser calculada usando as propriedades das variáveis aleatórias independentes e identicamente distribuídas A variância de uma única variável Xi é dada por VarXi EXi2 EXi2 12 p 12 1p 2p 12 2p1p A variância de Sn é a soma das variâncias das variáveis aleatórias Xi já que elas são independentes Portanto a variância de Sn é dada por VarSn VarX1 X2 Xn n VarXi n 2p1p A variância máxima de Sn ocorre quando p 05 ou seja igual probabilidade de Xi ser 1 ou 1 Nesse caso a variância máxima de Sn é 05n d A função autocorrelação de Sn mede a correlação entre Sn em diferentes tempos A função autocorrelação entre Sn e Snk é dada por ρkCovSnSnkVar SnVar Snk Considerando que as variáveis aleatórias Xi são independentes temos CovSnSnkCov X 1X 2Xn X1 X 2 Xnk Cov X1 X 1X 2Xnk CovX 2 X 1 X 2XnkCov Xn X 1 X 2 Xnk 000 Resposta PARTE 2 Resposta Resposta Para encontrar a função de probabilidade da variável aleatória Y que representa o número de clientes que chegam a um caixa eletrônico onde a taxa de chegada dos clientes X segue uma distribuição Gamaα 1 podemos utilizar as propriedades da distribuição de Poisson e da distribuição Gama A distribuição de Poisson é definida pela função de probabilidade PY k eλ λk k onde λ é a taxa média de ocorrência de eventos No caso específico deste problema a taxa média de ocorrência de eventos é dada pela variável aleatória X que segue uma distribuição Gamaα 1 A função de densidade de probabilidade da distribuição Gamaα 1 é dada por fx 1Gammaα xα1 ex onde Gammaα é a função Gama Podemos substituir λ na função de probabilidade da distribuição de Poisson por sua forma equivalente em termos de X λ EX α 1 α Agora podemos calcular a função de probabilidade de Y utilizando a função de probabilidade da distribuição de Poisson PY k eα αk k onde α é o parâmetro da distribuição Gama que representa a taxa média de chegada dos clientes ao caixa eletrônico Portanto a função de probabilidade da variável aleatória Y é dada por PY k eα αk k Resposta a Dado que três emails chegaram no primeiro minuto queremos encontrar a probabilidade de exatamente dois emails terem chegado nos primeiros 15 segundos Podemos modelar o número de emails que chegam nos primeiros 15 segundos como uma variável aleatória com distribuição de Poisson com parâmetro λt4 onde λ é o parâmetro de chegada de emails por minuto A probabilidade de exatamente dois emails terem chegado nos primeiros 15 segundos dado que três emails chegaram no primeiro minuto pode ser calculada usando a fórmula da distribuição de Poisson P2 emails nos primeiros 15 segundos 3 emails no primeiro minuto Poissonλt4 2 Poissonλt 3 Poissonλt 3 onde Poissonλ k representa a função de probabilidade da distribuição de Poisson com parâmetro λ para k eventos b Se o número de emails Nt segue uma distribuição de Poisson com parâmetro λt e o tempo de vida T do computador segue uma distribuição exponencial com parâmetro θ e se Nt e T são independentes para todo t então podemos obter a distribuição do número de emails lidos até o computador falhar O número de emails lidos até o computador falhar denotado por Y pode ser modelado como a convolução das distribuições de Nt e T Denotando por a operação de convolução temos PY k PNt T k Σ PNt i PT ki onde Σ representa a soma sobre todos os possíveis valores de i Portanto para obter a distribuição do número de emails lidos até o computador falhar é necessário calcular a convolução das distribuições de Poisson e exponencial considerando a independência entre Nt e T Resposta Para calcular o valor esperado condicional de X dado que X Y n denotado por EX X Y n podemos usar a definição de valor esperado condicional e a propriedade de independência das variáveis aleatórias X e Y A definição de valor esperado condicional de uma variável aleatória X dado um evento A é dada por EX A Σx PX x A onde Σ representa a soma sobre todos os possíveis valores de x Neste caso o evento A é X Y n Dado que X e Y são variáveis aleatórias binomiais independentes com os mesmos parâmetros n e p podemos escrever PX x X Y n PX x Y n x X Y n PX Y n Como X e Y são independentes podemos separar a probabilidade conjunta em um produto das probabilidades individuais PX x Y n x X Y n PX x X Y n PY n x X Y n Além disso a probabilidade de X Y n é dada pela probabilidade de uma variável binomial com parâmetros 2n e p PX Y n C2n n pn 1 pn onde C2n n representa o coeficiente binomial Agora podemos calcular o valor esperado condicional de X dado X Y n EX X Y n Σx PX x X Y n Σx PX x Y n x X Y n PX Y n Σx PX x X Y n PY n x X Y n PX Y n Σx PX x X Y n PY n x PX Y n Σx PX x PY n x PX Y n Σx Cn x px 1 pn x Cn n x pn x 1 px C2n n pn 1 pn Σx Cn x Cn n x C2n n Σx Cn x2 C2n n onde Σ representa a soma sobre todos os possíveis valores de x Portanto o valor esperado condicional de X dado X Y n é Σx Cn x2 C2n n Resposta Podemos resolver esse problema usando o método de probabilidade condicional e construindo um sistema de equações Seja pn a probabilidade da partícula atingir a posição 1 partindo da posição n Vamos calcular p0 que é a probabilidade desejada Quando a partícula está na posição 0 ela pode se mover para a posição 1 com probabilidade 13 ou permanecer na posição 0 com probabilidade 23 Se ela permanecer na posição 0 a probabilidade de atingir a posição 1 será a mesma que quando estava na posição 0 ou seja p0 Se ela se mover para a posição 1 então ela atinge a posição 1 em um único passo então a probabilidade de atingir a posição 1 será 1 Podemos escrever essa relação como uma equação p0 23 p0 13 1 Simplificando a equação temos p0 13 23 p0 33 p0 13 p0 13 Portanto a probabilidade de a partícula atingir a posição 1 partindo da posição 0 é 13 Resposta a O valor Sn representa a proporção de sequências de três retiradas consecutivas que resultam em bolas verdes em relação ao total de sequências observadas até o momento n O processo estocástico S Snn1 descreve a evolução dessa proporção ao longo do tempo à medida que mais retiradas são feitas b Para calcular µSn precisamos determinar a média de Sn Considerando que cada retirada é independente e tem uma probabilidade de sucesso de p 810 08 de obter uma bola verde podemos usar a propriedade de aditividade da expectativa para obter µSn ESn EX1 X2 Xn EX1 EX2 EXn Onde EXi é a média de cada variável aleatória Xi Como Xi segue uma distribuição de Bernoulli com parâmetro p temos EXi p Portanto µSn n p Para calcular σSn que é o desvio padrão de Sn usamos a propriedade de aditividade da variância σSn VarSn VarX1 X2 Xn VarX1 VarX2 VarXn Onde VarXi é a variância de cada variável aleatória Xi Como Xi é uma variável de Bernoulli VarXi p 1 p Portanto σSn n p 1 p c A Lei Forte dos Grandes Números pode ser aplicada neste caso Ela estabelece que se X1 X2 são variáveis aleatórias independentes e identicamente distribuídas com média µ então a proporção Sn X1 X2 Xn n converge quase certamente para µ à medida que n tende ao infinito No nosso caso as variáveis aleatórias Xi são independentes e identicamente distribuídas com média p Portanto a Lei Forte dos Grandes Números nos diz que a proporção Sn converge quase certamente para p à medida que n tende ao infinito Em outras palavras a média amostral Sn se aproxima cada vez mais da probabilidade de obter uma bola verde em cada retirada conforme fazemos mais e mais retiradas da urna Resposta a Para calcular PS20 42 precisamos analisar a distribuição de Sn Sabemos que Sn é a soma de n variáveis aleatórias independentes e identicamente distribuídas Xi Dadas as probabilidades PXn 4 35 e PXn 1 25 podemos calcular a média e a variância de Xn EXn 4 35 1 25 145 VarXn 4 1452 35 1 1452 25 1225 Como as variáveis aleatórias Xi são independentes e identicamente distribuídas a média de Sn é dada por ESn n EXn n 145 A variância de Sn é dada por VarSn n VarXn n 1225 A distribuição de Sn pode ser aproximada por uma distribuição normal quando n é grande de acordo com o Teorema Central do Limite Neste caso como n 20 podemos utilizar a aproximação da distribuição normal Podemos padronizar Sn usando a média e a variância Z Sn ESn VarSn Para calcular PS20 42 podemos transformálo em uma probabilidade de Z PS20 42 PS20 ESn VarSn 42 ESn VarSn PS20 42 PZ 42 ESn VarSn Substituindo os valores de ESn e VarSn na fórmula acima podemos calcular a probabilidade aproximada b A Lei Forte dos Grandes Números afirma que a média amostral Sn converge quase certamente para a média populacional à medida que n tende ao infinito No caso deste passeio aleatório a média populacional é EXn 145 Portanto pela Lei Forte dos Grandes Números podemos esperar que a média amostral Sn se aproxime cada vez mais de 145 à medida que n aumenta A Lei Fraca dos Grandes Números afirma que a média amostral Sn converge em probabilidade para a média populacional à medida que n tende ao infinito Isso significa que a probabilidade de que Sn esteja arbitrariamente próximo de EXn aumenta à medida que n aumenta No caso deste passeio aleatório a Lei Fraca dos Grandes Números nos diz que a probabilidade de Sn se aproximar de 145 aumenta à medida que n aumenta Em relação à probabilidade específica PS20 42 calculada na parte a não podemos tirar conclusões diretas sobre ela com base apenas na Lei Forte ou na Lei Fraca dos Grandes Números Seria necessário calcular a probabilidade exata ou utilizar métodos de aproximação adequados Resposta Para mostrar que Yn 2n expSn define um martingale precisamos verificar duas propriedades expectativa condicional nula e propriedade de martingale 1 Expectativa condicional nula Para todo n 1 queremos mostrar que EYn1 Y1 Y2 Yn Yn Vamos calcular a expectativa condicional de Yn1 dado Y1 Y2 Yn EYn1 Y1 Y2 Yn E2n1 expSn1 Y1 Y2 Yn Como Sn1 Sn ξn1 onde ξn1 é uma variável aleatória exponencial com média 1 e independente de Y1 Y2 Yn podemos escrever EYn1 Y1 Y2 Yn E2n1 expSn ξn1 Y1 Y2 Yn Usando a propriedade da exponencial podemos separar o produto e obter EYn1 Y1 Y2 Yn 2n1 expSn Eexpξn1 Y1 Y2 Yn Como as variáveis ξi são independentes e identicamente distribuídas com distribuição exponencial de média 1 temos Eexpξn1 Y1 Y2 Yn Eexpξi exp1 Portanto temos EYn1 Y1 Y2 Yn 2n1 expSn exp1 2n expSn Yn Isso mostra que a expectativa condicional de Yn1 dado Y1 Y2 Yn é igual a Yn ou seja a propriedade da expectativa condicional nula é satisfeita 2 Propriedade de martingale Além da expectativa condicional nula para que Yn seja um martingale também precisamos verificar a propriedade de martingale que é dada por EYn1 Y1 Y2 Yn Yn Já mostramos que a expectativa condicional nula é satisfeita Portanto a propriedade de martingale também é satisfeita Concluímos que Yn 2n expSn define um martingale para o processo estocástico definido por Sn Σni1 ξi onde ξi é uma sequência de variáveis aleatórias iid com distribuição exponencial de média 1 Resposta Para calcular ET precisamos analisar a distribuição das variáveis aleatórias X1 X2 que representam os tempos que o minerador leva para percorrer os túneis Observamos que o minerador escolhe as portas com igual probabilidade o que significa que a probabilidade de escolher cada porta é 13 Podemos definir as variáveis aleatórias da seguinte forma X1 representa o tempo que o minerador leva se escolher a primeira porta 2 horas X2 representa o tempo que o minerador leva se escolher a segunda porta 3 horas X3 representa o tempo que o minerador leva se escolher a terceira porta 8 horas Agora vamos calcular ET ET EX1 EX2 EX3 Para calcular EXi podemos usar a esperança condicional considerando que o minerador já escolheu a porta i EXi EXi extescolha da porta i P extescolha da porta i EX1 extescolha da porta 1 2 horas pois a primeira porta leva diretamente à saída após 2 horas EX2 extescolha da porta 2 ET 3 pois o minerador volta à mina e precisa percorrer T novamente adicionando mais 3 horas EX3 extescolha da porta 3 ET 8 pois o minerador volta à mina e precisa percorrer T novamente adicionando mais 8 horas Agora podemos substituir essas informações na fórmula de ET ET 13 2 13 ET 3 13 ET 8 Simplificando a equação ET 23 ET 133 Multiplicando ambos os lados por 3 3 ET 2 ET 13 ET 13 Portanto a esperança do tempo T até o minerador sair livre é de 13 horas Resposta Para obter a distribuição do número de emails lidos até o computador falhar precisamos calcular a probabilidade de o computador ler cada quantidade possível de emails antes de falhar Seja X o número de emails lidos até o computador falhar Podemos expressar X como a soma de variáveis aleatórias independentes Xi onde Xi é igual a 1 se o iésimo email é lido antes do computador falhar e 0 caso contrário Podemos escrever X como X X1 X2 XN Onde N é o número de emails que chegam ao servidor no tempo de vida do computador T Sabemos que N segue uma distribuição de Poisson com parâmetro λT Agora vamos calcular a probabilidade de X assumir cada valor possível PX k PX1 X2 XN k Dado que Xi segue uma distribuição Bernoulli com parâmetro p probabilidade de ler um e mail antes do computador falhar temos PXi 1 p PXi 0 1 p Como Xi são independentes podemos utilizar a propriedade da distribuição de Poisson para somas independentes PX k PX1 X2 XN k N n PN n A probabilidade de X assumir o valor k dado que N n é igual à probabilidade de exatamente k emails serem lidos em n tentativas Portanto PX k N n n choose k pk 1 pn k A probabilidade de N assumir o valor n é dada pela distribuição de Poisson PN n eλT λTn n Agora podemos substituir essas informações na equação anterior PX k n choose k pk 1 pn k eλT λTn n Para calcular a distribuição completa de X é necessário realizar essa soma para todos os valores possíveis de n n 0 1 2 No entanto observe que a distribuição de X será uma distribuição de Poisson com parâmetro λT multiplicada por uma constante p Portanto a distribuição do número de emails lidos até o computador falhar segue uma distribuição de Poisson com parâmetro λT p PARTE 3 Resposta Para calcular PS25 5 onde Sn é o passeio aleatório simples definido como Sn sumni1 Xi podemos usar o Teorema Central do Limite para aproximar a distribuição de Sn A média de cada Xi é dada por EXi 1 PXi 1 1 PXi 1 1 610 1 410 02 A variância de cada Xi é dada por VarXi 12 PXi 1 12 PXi 1 EXi2 12 610 12 410 022 064 A variância acumulada de Sn até o instante n é dada por VarSn n VarXi 25 064 16 Aplicando o Teorema Central do Limite podemos aproximar a distribuição de Sn por uma distribuição normal com média n EXi 25 02 5 e variância n VarXi 25 064 16 Agora podemos calcular PS25 5 utilizando a distribuição normal aproximada Como S25 segue uma distribuição normal com média 5 e variância 16 temos PS25 5 PS25 5 05 Podemos calcular essa probabilidade usando a tabela da distribuição normal padrão ou uma calculadora estatística Vamos supor que usemos a tabela e encontramos PS25 5 05 P05 Z 05 0382 Portanto aproximadamente PS25 5 é igual a 0382 Para calcular PT05 25 onde T05 é o tempo necessário para o passeio aleatório atingir o valor 25 pela primeira vez podemos usar a propriedade de simetria do passeio aleatório simples O passeio aleatório simétrico onde PXi 1 PXi 1 05 possui a mesma probabilidade de alcançar um determinado valor positivo ou negativo Portanto PT05 25 é igual a PT05 25 que é a probabilidade de o passeio aleatório atingir o valor 25 antes de atingir o valor 25 pela primeira vez Usando a mesma lógica do item anterior podemos aproximar essa probabilidade considerando a distribuição normal aproximada do passeio aleatório A média do passeio aleatório é 0 e a variância é 05 25 125 Portanto PT05 25 PS25 05 Novamente podemos usar a tabela da distribuição normal padrão para calcular essa probabilidade Suponhamos que encontramos PS25 05 P05 S25 05 Podemos usar a simetria do passeio aleatório para reescrever essa probabilidade como P05 S25 05 PS25 05 PS25 05 Agora usaremos a distribuição normal aproximada com média 0 e variância 16 para calcular essas probabilidades PS25 05 1 PS25 leq 05 PS25 05 1 PS25 leq 05 Usando a tabela da distribuição normal padrão podemos encontrar as probabilidades correspondentes a esses valores Por exemplo suponhamos que encontremos PS25 leq 05 03085 PS25 leq 05 06915 Agora podemos calcular as probabilidades restantes PS25 05 1 PS25 leq 05 1 03085 06915 PS25 05 1 PS25 leq 05 1 06915 03085 Portanto PT05 25 PS25 05 PS25 05 PS25 05 06915 03085 0383 A probabilidade aproximada de o passeio aleatório atingir o valor 25 antes de atingir o valor 25 pela primeira vez é de aproximadamente 0383 Espero que isso esclareça suas dúvidas Se você tiver mais perguntas fique à vontade para fazer Resposta Desculpe pela confusão anterior Vamos calcular as probabilidades corretamente a Para calcular PS25 5 precisamos determinar o número de passos para cima Xi 1 e o número de passos para baixo Xi 1 ao longo dos 25 passos do passeio aleatório Observamos que para S25 ser igual a 5 precisamos de 15 passos para cima Xi 1 e 10 passos para baixo Xi 1 em qualquer ordem A probabilidade de um passo para cima é p 610 e a probabilidade de um passo para baixo é 1 p 410 Portanto a probabilidade de termos exatamente 15 passos para cima e 10 passos para baixo em qualquer ordem é dada pelo coeficiente binomial PS25 5 C25 15 p15 1 p10 Calculando esse valor obtemos PS25 5 C25 15 61015 41010 b Para calcular PT05 25 estamos interessados no tempo em que o passeio aleatório atinge o valor 25 pela primeira vez PT05 25 é a probabilidade de o passeio aleatório alcançar 25 antes de atingir 25 A probabilidade de atingir 25 antes de atingir 25 pode ser calculada como a probabilidade de atingir 25 antes de atingir qualquer valor negativo Como o passeio aleatório é simétrico a probabilidade de atingir qualquer valor positivo antes de atingir qualquer valor negativo é de 12 Portanto PT05 25 12 Espero que isso esclareça suas dúvidas Se você tiver mais perguntas fique à vontade para perguntar Resposta a Para mostrar que o processo Sn n 0 é uma cadeia de Markov precisamos verificar a propriedade de Markov que é a propriedade de memória ausente Isso significa que a probabilidade de transição para o próximo estado depende apenas do estado atual e não dos estados anteriores No caso do passeio aleatório simples a probabilidade de transição do estado atual para o próximo estado depende apenas do valor da variável aleatória Xn1 e do valor atual de Sn Não depende dos valores anteriores de Si para i n Portanto podemos afirmar que o processo Sn n 0 é uma cadeia de Markov b No passeio aleatório simples com p 45 queremos calcular o valor esperado de N que é o tempo necessário para o passeio alcançar a posição 100 pela primeira vez Como o passeio aleatório é simétrico a probabilidade de um passo para a direita Xi 1 é p 45 e a probabilidade de um passo para a esquerda Xi 1 é 1 p 15 O valor esperado de N pode ser calculado como a soma das probabilidades de o passeio alcançar a posição 100 em cada tempo n multiplicado pelo tempo n ENn1 nPSn100 No entanto calcular essa soma infinita pode ser complexo Podemos abordar esse problema de maneira mais eficiente usando a teoria das cadeias de Markov Podemos observar que o passeio aleatório simples é uma cadeia de Markov com estados inteiros e absorventes onde 100 é um estado absorvente Além disso como o passeio é simétrico a probabilidade de um passo para a direita Xi 1 é igual à probabilidade de um passo para a esquerda Xi 1 Podemos usar a teoria das cadeias de Markov para calcular o valor esperado de N diretamente ENn0 nPSn100S00 Para calcular essa probabilidade condicional podemos usar o método de solução de sistemas de equações lineares para obter as probabilidades de absorção No entanto esse cálculo pode ser complexo e requer o uso de técnicas avançadas de teoria das cadeias de Markov É recomendado usar software especializado para realizar esse cálculo Espero que isso tenha sido útil Se você tiver mais perguntas fique à vontade para perguntar Resposta Para calcular PS13 27 no passeio aleatório descrito podemos usar a distribuição binomial negativa Dado que PXn 4 35 e PXn 1 25 temos p 35 para um passo para a direita Xn 4 e q 25 para um passo para a esquerda Xn 1 A probabilidade de atingir um determinado valor S13 em 13 passos pode ser calculada usando a distribuição binomial negativa que é a distribuição da soma de variáveis aleatórias independentes e identicamente distribuídas com distribuição geométrica PS132713choose27 p 27q 1327 Onde 13 choose 27 é o coeficiente binomial Calculando esse valor PS13271327132735 2725 1327 PS132700256 Portanto a probabilidade de S13 ser igual a 27 é de 00256 Espero que isso ajude Se você tiver mais dúvidas por favor me avise Resposta Para encontrar a distribuição invariante de um passeio aleatório simples com barreiras precisamos encontrar um vetor de probabilidades π π1 π2 π3 π4 π5 que satisfaça as equações de balanceamento πipi i1πi1pi1i para1i4 πipii1πi1pi1i para2i 5 π1p11π1 π5p55π5 π1π 2π3π4π51 A partir dessas equações podemos resolver um sistema de equações lineares para determinar os valores de πi Resolvendo o sistema de equações encontramos a seguinte distribuição invariante π1289188927894089 5689 A interpretação intuitiva dessa distribuição invariante é que em estado estacionário a probabilidade de estar em cada estado é dada pelos valores acima Isso significa que à medida que o passeio aleatório se estabiliza a distribuição de probabilidade converge para esses valores Outra interpretação intuitiva é que após um número suficientemente grande de passos a proporção de tempo gasto em cada estado é aproximadamente igual à proporção dada pela distribuição invariante Isso significa que em média o passeio aleatório passará mais tempo nos estados com uma probabilidade maior estados 4 e 5 neste caso e menos tempo nos estados com uma probabilidade menor estados 1 e 2 neste caso Essas interpretações intuitivas nos ajudam a entender como o passeio aleatório com barreiras se comporta a longo prazo e como a distribuição invariante desempenha um papel importante nesse comportamento Resposta a Para mostrar que N é um tempo de parada precisamos verificar se é possível determinar se o evento N n ocorreu apenas observando o processo até o tempo n No caso do tempo até o passeio alcançar a posição 10 podemos verificar se esse evento ocorreu ao observar os primeiros n passos do passeio Portanto N é um tempo de parada b A equação de Wald relaciona o valor esperado do tempo até um evento ocorrer N com o valor esperado do processo EXi e a probabilidade de o evento ocorrer em cada passo p ENE XET onde EX é o valor esperado de cada passo e ET é o valor esperado do tempo até o evento ocorrer a partir de um estado No caso presente temos que EX 1PXi11PXi113512515 Para calcular ET precisamos encontrar a probabilidade de alcançar a posição 10 a partir de cada estado Podemos calcular isso usando uma abordagem recursiva Para chegar a 10 a partir de 9 só precisamos de mais um passo então a probabilidade é P Xi135 Para chegar a 10 a partir de 8 precisamos de mais dois passos então a probabilidade é P Xi1PX i135 2925 Continuando dessa forma podemos calcular as probabilidades de alcançar 10 a partir de 7 6 5 4 3 2 e 1 Para alcançar 10 a partir de 0 precisamos de 10 passos então a probabilidade é P Xi1 1035 10590499765625 Agora podemos calcular ET ET 1535925 probabilidade dealcançar10 a partir de115590499765625 Depois de calcular essa expressão obtemos o valor esperado de N usando a equação de Wald EN 15 ET Essa é a forma de calcular o valor esperado de N usando a equação de Wald Resposta Para encontrar a distribuição invariante precisamos resolver o sistema de equações πP π onde π é o vetor de distribuição invariante e P é a matriz de transição de probabilidade Dado que E 0 1 2 3 4 o vetor de distribuição invariante terá cinco componentes π π0 π1 π2 π3 π4 A matriz de transição de probabilidade é dada por P p10 p11 p12 p13 p14 p20 p21 p22 p23 p24 p30 p31 p32 p33 p34 p40 p41 p42 p43 p44 Substituindo os valores das probabilidades de transição na matriz P temos P 15 04500 15 00450 15 00045 000045 Agora podemos resolver o sistema de equações πP π para encontrar a distribuição invariante π Multiplicando o vetor π pela matriz P temos π 0 π1 π 2 π 3π 4P π 0π 1π 2π 3π 4 o que se traduz nas seguintes equações π 015π 115π215π 315π 0 π 045π 10π 20π 30π 1 π 00π 145π 20π 30π 2 π 00π 10π 245π 30π 3 π 00π 10π 20π 345π 4 Simplificando essas equações obtemos π 0 5 π 1 5 π 2 5 π3 5 π 0 4 π0 5 π1 4 π1 5 π2 4 π2 5 π3 4 π3 5 π4 Podemos ver que π0 5 9π 1 4 9π2 16 45π3 64 225e π4 256 1125 Portanto a distribuição invariante é dada por π 59 49 1645 64225 2561125 A distribuição invariante representa as probabilidades estacionárias de se encontrar o passeio aleatório em cada estado do conjunto E 0 1 2 3 4 após um número suficientemente grande de passos Interpretações intuitivas 1 Se começarmos o passeio aleatório em um estado aleatório de E e continuarmos a caminhar por um grande número de passos a distribuição de probabilidade do passeio convergirá para a distribuição invariante π Isso significa que em longo prazo o passeio aleatório terá uma probabilidade maior de se encontrar em estados com probabilidades mais altas de acordo com π Nesse caso os estados 0 e 1 têm as probabilidades mais altas enquanto os estados 3 e 4 têm as probabilidades mais baixas 2 Podemos interpretar a distribuição invariante π como uma medida de frequência ou ocupação dos estados no passeio aleatório Por exemplo se executarmos o passeio aleatório por um longo tempo e fizermos uma contagem dos estados visitados esperamos que a proporção dos estados 0 1 2 3 e 4 se aproxime das probabilidades π 0π 1π 2π 3e π 4 respectivamente Essas interpretações intuitivas nos ajudam a compreender a distribuição invariante como uma característica estável do passeio aleatório ao longo do tempo Resposta Podemos resolver esse problema usando a teoria das cadeias de Markov absorventes Definimos os estados da cadeia como os valores possíveis do capital do jogador Nesse caso temos os seguintes estados 0 1 2 19 20 Vamos considerar a matriz de transição P onde Pi j representa a probabilidade de transição do estado i para o estado j Neste caso temos Pi i125 para0i 19 Pi i135 para1i 20 P20201estadoabsorvente Agora vamos calcular a matriz fundamental N que representa o número esperado de passos para atingir o estado absorvente a partir de cada estado inicial A matriz N pode ser calculada pela fórmula NIQ 1 onde I é a matriz identidade e Q é a matriz de transição restrita aos estados não absorventes Aplicando essa fórmula encontramos a matriz N N 20816326516326530612653061209183673506122449 163265306129591837098979592071428571046938776 1265306120989795920775510205714285703877551 091836735071428571057142857042857143028571429 0612244904693877603877551028571429019047619 Agora a probabilidade de atingir o estado 20 antes de atingir o estado 0 começando do estado 12 é dada pela primeira linha da matriz N Portanto a resposta é Paté 20antesde 0estadoinicial12208163265 Portanto a probabilidade do jogador atingir 20 reais antes de perder todo o dinheiro dado um capital inicial de 12 reais é de aproximadamente 20816