·

Sistemas de Informação ·

Matemática Discreta

Envie sua pergunta para a IA e receba a resposta na hora

Fazer Pergunta

Texto de pré-visualização

Distribuição geométrica Exemplo [6.4.10] Lança uma moeda justa até que saia uma coroa. Qual é a distribuição do número de lançes? Distribuição geométrica Exemplo [6.4.10] Lança uma moeda justa até que saia uma coroa. Qual é a distribuição do número de lançes? Possível sequencias: T, HT, HHT, HHHT seq k Pr T 1 1/2 HT 2 1/4 HHT 3 1/8 HHHT 4 1/16 ... HH...HT k 1/2^k {k-1} Distribuição binomial – valor esperado Teorema [6.4.2] (a) O valor esperado de n ensaios de Bernoulli com probabilidade p de sucesso é np. (b) O valor esperado de Binn,p(k) é np. Prova - Abordagem 1 (fácil) : pelo linearidade de esperança - Abordagem 2 (um pouco de álgebra–veja livro) : E(X) = ∑(k=0 to n) k · p(X = k) = ∑(k=0 to n) k · (n choose k) pk q(n-k) = ... = np Revisão REVISÃO Variaveis Aleatórias Definição – Uma variável aleatória X modela um experimento probabilístico, atribuindo um valor numérico a cada resultado, x, com determinada probabilidade, p(X = x). – A distribuição de X em S é o conjunto de pares (x, p(X = x)) para todo x ∈ S, onde p(X = x) é a probabilidade de X assumir o valor x. Valor esperado Definição [6.4.1] O valor esperado ou esperança de uma variável aleatória X() num espaço amostral S é E(X) = \sum_{x \in S} p(X = x) \cdot x Muitos livros usam a letra \mu para denotar o mean (value). Linearidade de esperança Teorema [6.4.3] Sejam X, X1, . . . , Xn variáveis aleatórias em S. Então, para a, b ∈ R temos (i) E(X1 + · · · + Xn) = E(X1) + · · · + E(Xn) (ii) E(aX + b) = aE(X) + b Ensaio de Bernoulli Definição [Veja antes Exemplo 6.2.8] Um ensaio de Bernoulli é um experimento com apenas dois resultados possíveis, chamado de Sucesso ou 1 com probabilide p, ou de Fracasso ou 0, com probabilidade q = 1 − p. Distribuição binomial Exemplo [Veja Exemplo 6.2.8] Quatro bits são gerados, cada resultando em um símbolo 1 com probabilidade p. Qual é a probabilidade de ter um 1 e três 0s? Resposta C(4, 1)p1q3 Distribuição binomial Exemplo [Veja Exemplo 6.2.8] Quatro bits são gerados, cada resultando em um símbolo 1 com probabilidade p. Qual é a probabilidade de ter um 1 e três 0s? Resposta C(4, 1)p1q3 Distribuição binomial Teorema [6.2.2] A distribuição binomial representa a probabilidade de se ter k sucessos em n testes de Bernoulli com probabilidade de sucesso p, e é dada por Bin_{n,p}(k) = \binom{n}{k} p^k q^{n-k} Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém 30 bolas brancas e 70 bolas pretas. Tirando 6 vezes uma bola com reposição, qual é a probabilidade de ter 2 bolas brancas e 4 pretas? Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém 30 bolas brancas e 70 bolas pretas. Tirando 6 vezes uma bola com reposição, qual é a probabilidade de ter 2 bolas brancas e 4 pretas? Solução n = 6, p = 30/(30 + 70) = 0.3, k = 2 então Bin_{n=6,p=0.3}(k = 2) = \binom{6}{2} \cdot 0.3^2 \cdot 0.7^4 Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém N bolas brancas e N - k bolas pretas. Tirando n vezes uma bola com reposição, qual é a probabilidade de ter k bolas brancas (e n - k bolas pretas)? Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém N bolas brancas e N – k bolas pretas. Tirando n vezes uma bola com reposição, qual é a probabilidade de ter k bolas brancas (e n – k bolas pretas)? Solução n = n, p = k / N, q = (N – k) / N, k = k então Bin_{n,p}(k) = \binom{n}{k} \cdot p^k \cdot q^{N – k} Distribuição binomial – tabela Exemplo [Planilha] Seja X = Bin10,0.5. k P(X = k) P(X = k) P(X ≤ k) 0 1/1024 0.000977 0.000977 1 10/1024 0.009766 0.010742 2 45/1024 0.043945 0.054688 3 120/1024 0.117188 0.171875 4 210/1024 0.205078 0.376953 5 252/1024 0.246094 0.623047 6 210/1024 0.205078 0.828125 7 120/1024 0.117188 0.945313 8 45/1024 0.043945 0.989258 9 10/1024 0.009766 0.999023 10 1/1024 0.000977 1.000000 Distribuição binomial – histogram n = 10, p = 0.5 Distribuição binomial – histogram n = 15, p = 0.8 Distribuição binomial – histogram Distribuição binomial – histogram n = 100, p = 0.14 Distribuição binomial – consulta online O site de Wolfram permite procurar essas probabilidades: Entre no https://www.wolframalpha.com/input e digite Prob x <= 50 if x is binomial with n = 100 and p = .5 link Distribuição binomial – consulta online Distribuição binomial – valor máximo Teorema Seja X(k) = Binn,p(k). Defina k = ⌊ n+1 p ⌋. Então Pr(X = k) incrementa até atingir seu máximo, k, e depois decremente. Prova: Exercício para o aluno. Dica: Considere se o quociente de dois valores consecutivos, Pr[X = k] Pr[X = k − 1] é maior ou menor que 1. Distribuição binomial – valor esperado Exemplo – Qual é o número esperado de 1s numa sequencia de 20 bits, se todas as 220 possibilidades são equiprováveis? – Bits com valor 1 são gerados com a probabilidade de 0.5. Os bits são gerados independentemente. Resposta Seja Xi a variável aleatória para posição i. Temos que p(xi = 0) = p(xi = 1) = 1 2. x 0 1 p(Xi = x) 1 2 1 2 Portanto, E(Xi) = 0 · 1 2 + 1 · 1 2 = 1 2 para todo i. Portanto E(X) = E(X1 + · · · + X20) = E(X1) + · · · + E(X20) = 20 · 1 2 = 10 Distribuição binomial – valor esperado Exemplo – Qual é o número esperado de 1s numa sequencia de 20 bits, se todas as 220 possibilidades são equiprováveis? – Bits com valor 1 são gerados com a probabilidade de 0.5. Os bits são gerados independentemente. Resposta Seja Xi a variável aleatória para posição i. Temos que p(xi = 0) = p(xi = 1) = 1 2. x 0 1 p(Xi = x) 1 2 1 2 Portanto, E(Xi) = 0 · 1 2 + 1 · 1 2 = 1 2 para todo i. Portanto E(X) = E(X1 + · · · + X20) = E(X1) + · · · + E(X20) = 20 · 1 2 = 10 Distribuição binomial – valor esperado Exemplo Generalizado o exemplo anterior Qual é o número esperado de 1s numa sequencia de n bits, se Pr[Xi = 1] = p? Resposta Seja Xi a variável aleatória para posição i. Temos que p(Xi = 1) = p. Portanto, E(Xi) = 0 · q + 1 · p = p para todo i. Portanto E(X) = E(X1) + · · · + E(Xn) = n · p = np Distribuição binomial – valor esperado Exemplo Generalizado o exemplo anterior Qual é o número esperado de 1s numa sequencia de n bits, se Pr[Xi = 1] = p? Resposta Seja Xi a variável aleatória para posição i. Temos que p(Xi = 1) = p. Portanto, E(Xi) = 0 · q + 1 · p = p para todo i. Portanto E(X) = E(X1) + · · · + E(Xn) = n · p = np Distribuição binomial – valor esperado Teorema [6.4.2] (a) O valor esperado de n ensaios de Bernoulli com probabilidade p de sucesso é np. (b) O valor esperado de Bin_{n,p}(k) é np. Distribuição geométrica No caso geral obtemos, até obter sucesso: seq k Pr 1 1 p 01 2 qp 001 3 qqp 0001 4 qqqp ... 00 ⋯ 01    k   qʳ⁻¹p        ₖ₋₁ Distribuição geométrica Definição [6.4.2] Uma variável aleatória X tem uma distribuição geométrica de parâmetro p se, para k = 1, 2, 3, . . ., Pr[X = k] = qk−1p Teorema [6.4.4] O valor esperado nesse caso é E(X) = 1/p Prova: A prova disso requer séries de Taylor. Distribuição geométrica Definição [6.4.2] Uma variável aleatória X tem uma distribuição geométrica de parâmetro p se, para k = 1, 2, 3, . . ., Pr[X = k] = qk−1p Teorema [6.4.4] O valor esperado nesse caso é E(X) = 1/p Prova: A prova disso requer séries de Taylor. Variança Compare as distribuições das seguintes variáveis aleatórias: x 0 p(X1 = x) 1 com x −1 1 p(X2 = x) 1 2 1 2 e com x −100 100 p(X3 = x) 1 2 1 2 Repare que E(X1) = E(x2) = E(X3) = 0, mas o ‘alcance’ é bem diferente. Variança Definição [6.4.4] Denote , e Pr[X = x] por p(x). Denote o valor esperado de X por μ. Ou seja, μ = E(X). - A variância de X é V(X) = ∑ (x - μ)² p(x) x∈S - O desvio-padrão de X é a raíz-quadrada da variância, σ(X) = √V(X) Variança Exemplo Resultados de um dado. Lembre que µ = E(X) = 7 2. k k − µ (k − µ)2 Pr(X = k) (k − µ)2 · Pr(X = k) 1 − 5 2 25 4 1 6 25 24 2 − 3 2 9 4 1 6 9 24 3 − 1 2 1 4 1 6 1 24 4 1 2 1 4 1 6 1 24 5 3 2 9 4 1 6 9 24 6 5 2 25 4 1 6 25 24 V (X) = 70 24 = 35 12 = 2.9166 σ(X) = 1.7078 Variança Exemplo x −1 1 p(X2 = x) 1 2 1 2 Obviamente, µ = E(X2) = 0. Temos k k − µ (k − µ)2 Pr(X = k) (k − µ)2 · Pr(X = k) 1 1 1 1 2 1 2 −1 −1 1 1 2 1 2 V (X) = 1 σ(X) = 1 Variança Exemplo x −100 100 p(X3 = x) 1 2 1 2 Obviamente, µ = E(X3) = 0. Temos k k − µ (k − µ)2 Pr(X = k) (k − µ)2 · Pr(X = k) 100 100 10000 1 2 5000 −100 −100 10000 1 2 5000 V (X) = 10000 σ(X) = 100 Variança Exemplo Ensaio de Bernoulli x 0 1 p(X = x) 1 − p p Nesse caso, µ = E(X) = p. Temos k k − µ (k − µ)2 Pr(X = k) (k − µ)2 · Pr(X = k) 0 −p p2 q p2q 1 (1 − p) = q q2 p q2p V (X) = pq(p + q) = pq σ(X) = √pq Veremos depois que a variança de uma distribuição binomial Binn,p é npq. Variança Lembre que E(X) = ∑ p(x) · x x∈S Definimos E(X²) = ∑ p(x) · x² x∈S Variança Teorema [6.4.6] V (X) = E(X 2) − µ2 – Ou seja, V (X) = E(X 2) − E(X)2. – Na prática é a forma mais fácil de se calcular V (X) e σ(X) Variança Exemplo k k2 Pr(X = k) k2 · Pr(X = k) 1 1 1 6 1 6 2 4 1 6 4 6 3 9 1 6 9 6 4 16 1 6 16 6 5 25 1 6 25 6 6 36 1 6 36 6 E(X 2) = 91 6 Portanto V (X) = E(X 2) − E(X)2 = 91 6 − (7 2)2 = 182 − 147 12 = 35 12