·

Sistemas de Informação ·

Matemática Discreta

Envie sua pergunta para a IA e receba a resposta na hora

Fazer Pergunta

Texto de pré-visualização

B3 - Probabilidade Jeroen van de Graaf DCC/UFMG Tópicos probabilidade Aula 1. Aula 2. ▶ Probabilidade condicional, independência, Bayes Aula 3. ▶ Váriaveis aleatórias ▶ distribuições Aula 4. Variaveis Aleatórias VARIÁVEIS ALEATÓRIAS Variaveis Aleatórias ▶ Qual é o número de 1s numa sequencia de 20 bits? ▶ Qual é o número de 1 que aparece lançando uma moeda 10 vezes? Definição ▶ Uma variável aleatória X modela um experimento probabilístico, atribuindo um valor numérico a cada resultado, x, com determinada probabilidade, p(X = x). ▶ A distribuição de X em S é o conjunto de pares (x, p(X = x)) para todo x ∈ S, onde p(X = x) é a probabilidade de X assumir o valor x. E convenção usar maiusculo para a varável aleatória e minúsculo para os resultados. ▶ Notação: X denota a variável, e x os valores que X pode assumir, onde x ∈ X ▶ para simplificar simplifica-se Pr[X = x] para p(x) Variaveis Aleatórias ▶ Qual é o número de 1s numa sequencia de 20 bits? ▶ Qual é o número de 1 que aparece lançando uma moeda 10 vezes? Definição ▶ Uma variável aleatória X modela um experimento probabilístico, atribuindo um valor numérico a cada resultado, x, com determinada probabilidade, p(X = x). ▶ A distribuição de X em S é o conjunto de pares (x, p(X = x)) para todo x ∈ S, onde p(X = x) é a probabilidade de X assumir o valor x. E convenção usar maiusculo para a varável aleatória e minúsculo para os resultados. ▶ Notação: X denota a variável, e x os valores que X pode assumir, onde x ∈ X ▶ para simplificar simplifica-se Pr[X = x] para p(x) Variaveis Aleatórias Exemplo O resultados de um dado comum: X 1 2 3 4 5 6 p(X = x) 1 6 1 6 1 6 1 6 1 6 1 6 Variaveis Aleatórias Exemplo Rosen 6.2.10 Suponha uma moeda seja lançada 3 vezes. Defina X(·) = #(1s que aparecem) Ou seja X(111) = 3 X(110) = X(101) = X(011) = 2 X(100) = X(010) = X(001) = 1 X(000) = 0 Variaveis Aleatórias Exemplo continuado x 0 1 2 3 p(x) 1 8 3 8 3 8 1 8 Variaveis Aleatórias Exemplo [6.2.12] Suponha dois dados são lançados. Defina X((i, j) = i + j = (soma dos resultados) Então X((1, 1)) = 2 X((1, 2)) = X((2, 1)) = 3 ... X((1, 6) = X((2, 5) = X((3, 4) = X((4, 3)) = X((5, 2) = X((6, 1) = 7 ... X((6, 6) = 12 Valor esperado Definição [6.4.1] O valor esperado ou esperança de uma variável aleatória X() num espaço amostral S é E(X) = ∑_{x∈S} p(x) · x Valor esperado \[\begin{array}{cc|c|c} & t & x & p(x) & x \cdot p(x) \\\hline & 111 & 3 & \frac{1}{8} & 3 \cdot \frac{1}{8} = \frac{3}{8} \\ & 110, 101, 011 & 2 & \frac{3}{8} & 2 \cdot \frac{3}{8} = \frac{6}{8} \\ & 100, 010, 001 & 1 & \frac{3}{8} & 1 \cdot \frac{3}{8} = \frac{3}{8} \\ & 000 & 0 & \frac{1}{8} & 0 \cdot \frac{1}{8} = 0 \\\hline \end{array}\] \[\sum = \frac{12}{8} = \frac{3}{2}\] Valor esperado Exemplo [6.4.1] Valor esperado de um dado Sejá X o resultado de lançar um dado. Qual é E(X)? Resposta X adquire os valores 1,2,3,4,5,6 cada um com probabilidade 1/6. Portanto E(X) = 1 6 · 1 + 1 6 · 2 + 1 6 · 3 + 1 6 · 4 + 1 6 · 5 + 1 6 · 6 = 21 6 = 7 2 Valor esperado Exemplo [6.4.3] Valor esperado de um dado Suponha dois dados são lançados. Defina X(i, j) = i + j = (soma dos resultados) Qual é E(X)? Valor esperado Resposta X adquire os valores 2...12 cada um com as seguintes probabilidades: \[\begin{array}{c|c|c} x & p(x) & x \cdot p(x) \\\hline 2 & \frac{1}{36} & 2 \cdot \frac{1}{36} \\ 3 & \frac{2}{36} & 3 \cdot \frac{2}{36} \\ 4 & \frac{3}{36} & 4 \cdot \frac{3}{36} \\ 5 & \frac{4}{36} & 5 \cdot \frac{4}{36} \\ 6 & \frac{5}{36} & 6 \cdot \frac{5}{36} \\ 7 & \frac{6}{36} & 7 \cdot \frac{6}{36} \\ 8 & \frac{5}{36} & 8 \cdot \frac{5}{36} \\ 9 & \frac{4}{36} & 9 \cdot \frac{4}{36} \\ 10 & \frac{3}{36} & 10 \cdot \frac{3}{36} \\ 11 & \frac{2}{36} & 11 \cdot \frac{2}{36} \\ 12 & \frac{1}{36} & 12 \cdot \frac{1}{36} \\\hline \end{array}\] \[\sum = \frac{252}{36} = 7\] Linearidade de esperança Teorema [6.4.3] Sejam X, X1, . . . , Xn variáveis aleatórias em S. Então, para a, b ∈ R temos (i) E(X1 + · · · + Xn) = E(X1) + · · · + E(Xn) (ii) E(aX + b) = aE(X) + b Linearidade de esperança Demonstração (i) \quad \quad \quad \quad \quad \quad E(X_1 + X_2) \quad = \quad \sum_{s \in S} p(s)(X_1(s) + X_2(s)) \quad \quad \quad \quad \quad \quad \quad \quad = \quad \sum_{s \in S} p(s)X_1(s) + \sum_{s \in S} p(s)X_2(s) \quad \quad \quad \quad \quad \quad \quad \quad = \quad E(X_1) + E(X_2) (ii) \quad \quad \quad \quad \quad \quad E(aX + b) \quad = \quad \sum_{s \in S} p(s)(aX(s) + b) \quad \quad \quad \quad \quad \quad \quad \quad = \quad a \sum_{s \in S} p(s)X(s) + b \sum_{s \in S} p(s) \quad \quad \quad \quad \quad \quad \quad \quad = \quad aE(X) + b Linearidade de esperança Exemplo [6.4.3] Valor esperado de dois dados Suponha dois dados são lançados. Defina X(i, j) = i + j = (soma dos resultados) Calcule E(X) usando o teorema Resposta Seja X1 (resp. X2) o resultado do primeiro (segundo) dado. Já calculamos que E(X1) = E(X2) = 7/2, portanto E(X) = E(X1 + X2) = E(X1) + E(X2) = 7/2 + 7/2 = 7 Linearidade de esperança Exemplo Qual é o número esperado de 1s numa sequencia de 20 bits, se todas as 220 possibilidades são equiprováveis? Resposta Seja Xi a variável aleatória para posição i. Temos que p(xi = 0) = p(xi = 1) = 1 2. Portanto, E(Xi) = 0 · 1 2 + 1 · 1 2 = 1 2 para todo i. Portanto E(X) = E(X1) + · · · + E(X20) = 20 · 1 2 = 10 Ensaio de Bernoulli Considere um experimento com apenas dois resultados possíveis: - Lançar uma moeda - Gerar um bit aleatório X = \begin{cases} 1 & \text{com prob. } p \\ 0 & \text{com prob. } q \end{cases} Ensaio de Bernoulli Considere um experimento com apenas dois resultados possíveis: - Lançar uma moeda - Gerar um bit aleatório X = \begin{cases} 1 & \text{com prob. } p \\ 0 & \text{com prob. } q \end{cases} Definição [Veja antes Exemplo 6.2.8] Um \textit{ensaio de Bernoulli} é um experimento com apenas dois resultados possíveis, chamado de \textit{Sucesso} ou 1 com probabilidade $p$, ou de \textit{Fracasso} ou 0, com probabilidade $q = 1 - p$. Ensaio de Bernoulli – valor esperado Teorema Suponha X representa um ensaio de Bernoulli: X = \begin{cases} 1 & \text{com prob. } p \\ 0 & \text{com prob. } q \end{cases} O valor esperado de um ensaio de Bernoulli é E(X) = p Prova: E(X) = 0 \cdot Pr[X = 0] + 1 \cdot Pr[X = 1] = 0 \cdot q + 1 \cdot p = p Distribuição binomial Exemplo [Veja Exemplo 6.2.8] Quatro bits são gerados, cada um resultando em 1 com probabilidade p. Qual é a probabilidade de ter um 1 um e três 0s? Distribuição binomial Exemplo [Veja Exemplo 6.2.8] Quatro bits são gerados, cada um resultando em 1 com probabilidade p. Qual é a probabilidade de ter um 1 um e três 0s? Resposta Temos um 1 nos seguintes casos: 1000, 0100, 0010, 0001. A probabilidade em cada dos 4 casos é pqqq, qpqq, qqpq, qqqp. Ou seja, a probabilidade em cada caso é sempre p^1 q^3. Temos 4 = \binom{4}{1} casos, então a probabilidade procurado é \binom{4}{1} p^1 q^3 Generalizando para ter k uns num string de tamanho n obtemos a fórmula \binom{n}{k} p^k q^{n-k} Distribuição binomial Teorema [6.2.2] A distribuição binomial representa a probabilidade de se ter k sucessos em n testes de Bernoulli com probabilidade de sucesso p, e é dada por Bin_{n,p}(k) = \binom{n}{k} p^k q^{n-k} Distribuição binomial Teorema [6.2.2] A distribuição binomial representa a probabilidade de se ter k sucessos em n testes de Bernoulli com probabilidade de sucesso p, e é dada por Bin_{n,p}(k) = \binom{n}{k} p^k q^{n-k} Prova Os resultados de n testes de Bernoulli pode ser representatdo como um string de tamanho n com k símbolos S e n-k símbolos F. Sabemos que existem \binom{n}{k} desses strings, cada um com probabilidade p^k q^{n-k}. Distribuição binomial Exemplo [6.2.9] Bits com valor 1 são gerados com a probabilidade de 0.9. Os bits são gerados independentemente. Qual é a probabilidade de oito 1s, num total de dez bits? Distribuição binomial Exemplo [6.2.9] Bits com valor 1 são gerados com a probabilidade de 0.9. Os bits são gerados independentemente. Qual é a probabilidade de oito 1s, num total de dez bits? X = \{\begin{array}{ll} \ 1 & \text{com prob. 0.9} \\ \ 0 & \text{com prob. 0.1} \end{array}\right. Solução n = 10, p = 0.9, k = 8 então Bin_{n=10,p=0.9}(k = 8) = \binom{10}{8} \cdot 0.9^8 \cdot 0.1^2 = 0.193710... Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém 3 bolas brancas e 7 bolas pretas. Tirando 6 vezes uma bola com reposição, qual é a probabilidade de ter 2 bolas brancas e 4 pretas? Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém 3 bolas brancas e 7 bolas pretas. Tirando 6 vezes uma bola com reposição, qual é a probabilidade de ter 2 bolas brancas e 4 pretas? Solução n = 6, p = 3/(3 + 7) = 0.3, k = 2 então Bin_{n=6,p=0.3}(k = 2) = \binom{6}{2} \cdot 0.3^2 \cdot 0.7^4 Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém 30 bolas brancas e 70 bolas pretas. Tirando 6 vezes uma bola com reposição, qual é a probabilidade de ter 2 bolas brancas e 4 pretas? Distribuição binomial Exemplo – Amostragem com reposição Uma caixa contém 30 bolas brancas e 70 bolas pretas. Tirando 6 vezes uma bola com reposição, qual é a probabilidade de ter 2 bolas brancas e 4 pretas? Solução n = 6, p = 30/(30 + 70) = 0,3, k = 2 então Bin_{n=6,p=0.3}(k = 2) = \binom{6}{2} \cdot 0.3^2 \cdot 0.7^4 Portanto p não mudou; no caso de reposição apenas a proporção de bolas brancas no total importa. Distribuição binomial – tabela Exemplo [Planilha] Seja X = Bin10,0.5. k P(X = k) P(X = k) P(X ≤ k) 0 1/1024 0.000977 0.000977 1 10/1024 0.009766 0.010742 2 45/1024 0.043945 0.054688 3 120/1024 0.117188 0.171875 4 210/1024 0.205078 0.376953 5 252/1024 0.246094 0.623047 6 210/1024 0.205078 0.828125 7 120/1024 0.117188 0.945313 8 45/1024 0.043945 0.989258 9 10/1024 0.009766 0.999023 10 1/1024 0.000977 1.000000 Distribuição binomial – histogram n = 10, p = 0.5 Distribuição binomial – histogram n = 15, p = 0.8 Distribuição binomial – histogram Probability Binomial Distribution (n=20, p=0.1) Distribuição binomial – histogram n = 100, p = 0.14 Distribuição binomial – consulta online O site de Wolfram permite procurar essas probabilidades: Entre no https://www.wolframalpha.com/input e digite Prob x <= 50 if x is binomial with n = 100 and p = .5 link Distribuição binomial – consulta online Distribuição binomial – valor máximo Teorema Seja X(k) = Binn,p(k). Defina k = ⌊(n + 1)p⌋. Então Pr(X = k) incrementa até atingir seu máximo, k, e depois decremente. Prova: Calcule o valor máximo k para o qual o quociente de dois valores consecutivos, Pr[X = k] Pr[X = k − 1] = · · · = (n − k + 1)p k(1 − p) é maior ou igual a 1 np − kp + p ≤ k − kp ⇐⇒ (n + 1)p ≤ k Note que (n + 1)p nem sempre é um inteiro, mas k sim. Distribuição binomial – valor esperado Exemplo Qual é o número esperado de 1s numa sequencia de 20 bits, se todas as 2^{20} possibilidades são equiprováveis? Distribuição binomial – valor esperado Exemplo Qual é o número esperado de 1s numa sequencia de 20 bits, se todas as 2^{20} possibilidades são equiprováveis? Resposta Seja X_i a variável aleatória para posição i. Temos que p(x_i = 0) = p(x_i = 1) = \frac{1}{2}. X = \begin{cases} 1 & \text{com prob. } \frac{1}{2} \ 0 & \text{com prob. } \frac{1}{2} \end{cases} Portanto, E(X_i) = 0 \cdot \frac{1}{2} + 1 \cdot \frac{1}{2} = \frac{1}{2} \text{ para todo } i. Portanto E(X) = E(X_1) + \cdots + E(X_{20}) = 20 \cdot \frac{1}{2} = 10 Distribuição binomial – valor esperado Exemplo Qual é o número esperado de 1s numa sequencia de n bits, se Pr[Xi = 1] = p? Resposta Seja Xi a variável aleatória para posição i. Temos que p(Xi = 1) = p. Portanto, E(Xi) = 0 · q + 1 · p = p para todo i. Portanto E(X) = E(X1) + · · · + E(Xn) = n · p = np Distribuição binomial – valor esperado Exemplo Qual é o número esperado de 1s numa sequencia de n bits, se Pr[Xi = 1] = p? Resposta Seja Xi a variável aleatória para posição i. Temos que p(Xi = 1) = p. Portanto, E(Xi) = 0 · q + 1 · p = p para todo i. Portanto E(X) = E(X1) + · · · + E(Xn) = n · p = np Distribuição binomial – valor esperado Teorema [6.4.2] (a) O valor esperado de n ensaios de Bernoulli com probabilidade p de sucesso é np. (b) O valor esperado de Bin_{n,p}(k) é np. Distribuição binomial – valor esperado Teorema [6.4.2] (a) O valor esperado de n ensaios de Bernoulli com probabilidade p de sucesso é np. (b) O valor esperado de Bin_{n,p}(k) é np. Prova – Abordagem 1 (fácil) : pelo linearidade de esperança – Abordagem 2 (um pouco de álgebra–veja livro) : E(X) = \sum_{k=0}^{n} k \cdot p(X=k) = \sum_{k=0}^{n} k \cdot \binom{n}{k} p^k q^{n-k} = \ldots = np Distribuição geométrica Exemplo [6.4.10] Lança uma moeda justa até que saia um 1. Qual é a distribuição do número de lances? Distribuição geométrica Exemplo [6.4.10] Lança uma moeda justa até que saia um 1. Qual é a distribuição do número de lances? Possível sequencias: 1, 01, 001, 0001, \begin{tabular}{ccc} seq & k & Pr \\ 1 & 1 & 1/2 \\ 01 & 2 & 1/4 \\ 001 & 3 & 1/8 \\ 0001 & 4 & 1/16 \\ \vdots & & \\ 00\cdots01\text{\{k-1\}} & k & 1/2^k \\ \end{tabular} Distribuição geométrica No caso geral obtemos, até obter sucesso: seq k Pr 1 1 p 01 2 qp 001 3 qqp 0001 4 qqqp ... 00...01 k q^(k−1)p k−1 Distribuição geométrica Definição [6.4.2] Uma variável aleatória X tem uma distribuição geométrica de parâmetro p se, para k = 1, 2, 3, . . ., Pr[X = k] = qk−1p Teorema [6.4.4] O valor esperado nesse caso é E(X) = 1/p Prova: A prova disso requer séries de Taylor. Distribuição geométrica Definição [6.4.2] Uma variável aleatória X tem uma distribuição geométrica de parâmetro p se, para k = 1, 2, 3, . . ., Pr[X = k] = qk−1p Teorema [6.4.4] O valor esperado nesse caso é E(X) = 1/p Prova: A prova disso requer séries de Taylor. Variância Compare as distribuições das seguintes variáveis aleatórias: X = 0 com prob. 1 com {+1 com prob. 1/2 Y = { {-1 com prob. 1/2 e com {+100 com prob. 1/2 Z = { {-100 com prob. 1/2 Repare que E(X) = E(Y) = E(Z) = 0, mas o 'alcance' é bem diferente. Variância Definição [6.4.4] Denote o valor esperado de X por μ. Ou seja, μ = E(X). - A variância de X é V(X) = ∑ (x − μ)²p(x) x∈S - O desvio-padrão de X é a raiz-quadrada da variância, σ(X) = √V(X) Variança Exemplo Resultados de um dado. Lembre que µ = E(X) = 7 2. k k − µ (k − µ)2 Pr(X = k) (k − µ)2 · Pr(X = k) 1 − 5 2 25 4 1 6 25 24 2 − 3 2 9 4 1 6 9 24 3 − 1 2 1 4 1 6 1 24 4 1 2 1 4 1 6 1 24 5 3 2 9 4 1 6 9 24 6 5 2 25 4 1 6 25 24 V (X) = 70 24 = 35 12 = 2.9166 σ(X) = 1.7078 Variança Exemplo Y = \begin{cases} +1 & \text{com prob. } \frac{1}{2} \\ -1 & \text{com prob. } \frac{1}{2} \end{cases} Obviamente, \mu = E(X) = 0. Temos \begin{array}{cccccc} k & k - \mu & (k - \mu)^2 & Pr(X = k) & (k - \mu)^2 \cdot Pr(X = k) \\ \hline 1 & 1 & 1 & \frac{1}{2} & \frac{1}{2} \\ -1 & -1 & 1 & \frac{1}{2} & \frac{1}{2} \\ \end{array} \boxed{V(X) = 1} \boxed{\sigma(X) = 1} Variança Exemplo Y = \begin{cases} +100 & \text{com prob. } \frac{1}{2} \\ -100 & \text{com prob. } \frac{1}{2} \end{cases} Obviamente, \mu = E(X) = 0. Temos \begin{array}{cccccc} k & k - \mu & (k - \mu)^2 & Pr(X = k) & (k - \mu)^2 \cdot Pr(X = k) \\ \hline 100 & 100 & 10000 & \frac{1}{2} & 5000 \\ -100 & -100 & 10000 & \frac{1}{2} & 5000 \\ \end{array} \boxed{V(X) = 10000} \boxed{\sigma(X) = 100} Variança Exemplo Ensaio de Bernoulli Y = \begin{cases} 1 & \text{com prob. } p \\ 0 & \text{com prob. } q \end{cases} Nesse caso, \mu = E(X) = p. Temos \begin{array}{cccccc} k & k - \mu & (k - \mu)^2 & Pr(X = k) & (k - \mu)^2 \cdot Pr(X = k) \\ \hline 0 & -p & p^2 & q & p^2q \\ 1 & (1-p) = q & q^2 & p & q^2p \\ \end{array} \boxed{V(X) = pq(p + q) = pq} \boxed{\sigma(X) = \sqrt{pq}} Veremos depois que a variância de uma distribuição binomial \text{Bin}_{n,p} é npq. Variância Lembre que E(X) = \sum_{x \in S} p(X = x) \cdot x Definimos E(X^2) = \sum_{x \in S} p(X = x) \cdot x^2 Variança Teorema [6.4.6] V (X) = E(X 2) − µ2 – Ou seja, V (X) = E(X 2) − E(X)2. – Na prática é a forma mais fácil de se calcular V (X) e σ(X) Variança Exemplo k k2 Pr(X = k) k2 · Pr(X = k) 1 1 1 6 1 6 2 4 1 6 4 6 3 9 1 6 9 6 4 16 1 6 16 6 5 25 1 6 25 6 6 36 1 6 36 6 E(X 2) = 91 6 Portanto V (X) = E(X 2) − E(X)2 = 91 6 − (7 2)2 = 182 − 147 12 = 35 12