·
Ciências Atuariais ·
Probabilidade
· 2024/1
Send your question to AI and receive an answer instantly
Recommended for you
3
Questões - Probabilidade 2021-1
Probabilidade
USP
3
Lista Preparatória - Probabilidade 2021-1
Probabilidade
USP
22
Exercícios - Variáveis Aleatórias e Distrib de Prob - 2024-1
Probabilidade
USP
4
Exercícios - Probabilidade 2022-1
Probabilidade
USP
4
P2 - Probabilidade - 2022-2
Probabilidade
USP
4
Prova de Recuperação - Probabilidade - 2022-1
Probabilidade
USP
5
P2 - Probabilidade - 2020-1
Probabilidade
USP
4
P2 - Probabilidade - 2019-2
Probabilidade
USP
4
Prova de Recuperação - Probabilidade - 2019-1
Probabilidade
USP
Preview text
Questões de Probabilidade Exercícios terça-feira, 28 de maio de 2024 00:36 Página 1 de probability models Página 2 de probability models Página 3 de probability models Página 4 de probability models Página 5 de probability models Página 6 de probability models Questões de Variáveis Aleatórias Página 7 de probability models Página 8 de probability models Página 9 de probability models Página 10 de probability models Página 11 de probability models Queremos calcular P(T|W). Temos que P(T|W) = P(T|W) = \frac{P(W|T)\cdot P(T)}{P(W)} Temos que P(W|T)\cdot P(T) = \frac{3}{5} \cdot \frac{1}{5} = \frac{3}{25} Além disso, temos pelo Teo. di Probabilidade Total que P(W) = P(W|T)\cdot P(T) + P(W|H)\cdot P(H) = \frac{1}{10} + \frac{5}{7} \cdot \frac{1}{2} + \frac{1}{5} \cdot \frac{1}{4} = \frac{12}{35}, 5/7 Portanto, P(T|W) = \frac{1/10}{1/120} = \frac{12}{120} Variaveis Aleatórias: 52. Seja P(x=K) a probabilidade de ganhar K vezes. Temos que P(x=K) = \binom{n}{k} p^n (1-p)^{n-k} onde n=50 e p=1/100 (a) A probabilidade de ganhar pelo menos uma vez é: P(X \geq 1) = 1 - P(X=0) = 1 -\left( \binom{50}{0} \cdot \left(\frac{1}{100}\right)^0 \cdot \left(\frac{99}{100}\right)^{50} \right) = 1 - (1 \cdot 0.99^{50}) = 1 - 0.605 = 0.395 (b) P(x=1) = \binom{50}{1} \left(\frac{1}{100}\right) \left(\frac{99}{100}\right)^{49} \approx 0.306 (c) P(X \leq 2)=1 - P(X=2) = 1 -(0.395+0.306) = 0.083 As pequenas diferencças são devidas aos arredondamentos 42. Sejam B : moeda viciada F : moeda honesta U : moeda de duas caras H : tirar caras Queremos saber P(U|H). Temos que P(U|H) = \frac{P(H|U)\cdot P(U)}{P(H)} Temos que P(U)\cdot P(H|U) = \frac{1}{3} \cdot \frac{1}{1} = \frac{1}{3} Para calcular P(H) vamos usar o Teorema de Probabilidade Total P(H) = P(H|U)\cdot P(U) + P(H|D)\cdot P(B) + P(H|F)\cdot P(F) = \frac{1}{3} \cdot \frac{1}{3} + \frac{1}{2} \cdot \frac{2}{3} + \frac{1}{2} \cdot \frac{1}{3} = \frac{9}{12} Portanto, P(U|H) = \frac{1/3}{1/12} = \frac{4}{12} 43. Seja B: Flo tem olhos azuis. Sabemos que olhos azuis é recessivo a e olhos marrons é dominante A. Além disso, tanto Jo quanto Joe são Aa, pois tem olhos marrons e seu mais tem olhos azuis. Seja X o número de gens de olhos azul que uma filha de Jo e Joe pode ter. Então P(B) = P(X=1|X\geq 2)=\frac{1/3}{3/4} = \frac{2}{3} Logo definindo como C o evento: Filha de Flb ter olhos azul. Temos que P(C) = P(C\cap_{B})=P(B)\cdot P(C|B)=\frac{2}{3}\cdot \frac{1}{3} = \frac{2}{9} 65. (a) No modelo de Poisson, temos P(X=k) = \frac{\lambda^k\cdot e^{-\lambda}}{k!} De acordo com o enunciado \lambda=2, logo, P(X=2) = \frac{2^2 \cdot e^{-2}}{2!} Queremos saber a probabilidade de acontecer 2 acidentes em 3 dos 5 dias assegui. Logo, P(Y=4) = \binom{5}{3}\cdot (2^2)^3\cdot(1-2^2)^3 = \frac{10\cdot (2^2)^3(1-2^2)^3}{e^6} = \frac{80\cdot (1-2^2)}{e^3} e^3 2^3 (b) Podemos modelar uma variável aleatória Z da soma de duas variáveis aleatórias de Poisson com média 2. A média de Z será \lambda=2\cdot a=2\cdot a. Assim, queremos encontrar P(Z=6) P(Z=6) = \frac{4^6 \cdot e^{-4}}{6!} (c) A probabilidade de que um acidente não seja grave é 1-p. Seja Y o número de acidentes graves amanhã. Dado que X=x, Y segue uma distribuição binomial com parâmetros x e p. Assim, P(Y = 0) = \sum_{x=0}^{\infty} (1-p)^x\cdot P(X=x) Dado X=x P(Y=0|X=x) = (1-p)^2 Portanto, P(Y=0) = \sum_{x=0}^{\infty} (1-p)^x\cdot P(X=x) Com P(X=x) = 2^xe^{-2}/x! P(Y=0) = \sum_{x=0}^{\infty} (1-p)^x\cdot \frac{2^x\cdot e^{-2}}{x!} = e^{-1}\approx e^{-x^(-\lambda^{x^(-p)})} Série de Taylor (a): \frac{1}{x!}\cdot 2p^2 = e^{2p}\cdot e^{-2(1-p)} = e^{1-p} 39. A esperança de X é E(X) = \sum_{i=1}^{6} X_i \cdot P(x_i) = \frac{1}{2} \cdot 1 + \frac{1}{3} \cdot 2 + \frac{1}{4} \cdot 1 + \frac{1}{6} \cdot 2 + \frac{1}{24} \cdot 1 + \frac{1}{31} = 40. Seja X o número de partidas jogadas. Temos que aconteceram no mínimo 4 partidas e no máximo 7. Sejam A o primeiro jogador e B o segundo. Assim: P(X = 4) = P(A ganha 4 ou B ganha 4) = (1-p)^4 = 2 \cdot (1-p)^4 1 = 1+ \frac{1}{4} + \frac{1}{3} = 5 + \frac{1}{5} P(X = 5) = P(A ganha 3 das 3 primeiras) + P(B ganha 4 das 5 primeiras) = \binom{4}{3}(1-p)^3 p + \binom{4}{3}(1-p)^2 p = 4(1-p)^3 p + 4(1-p)^3 p = \sum_{i=1}^{5} 1 \cdot p Como são disjuntos e 1 grupo de união = soma dos pesos \boxed{5}\, = 4\cdot \frac{1}{5} = 4(1-p) = \frac{1}{3} = p = \frac{1}{2} = 1-p) Fazemos o mesmo raciocínio para os casos restantes P\{X = 6\} = P(A ganha 3 das 5 primeiras) + P(B ganha 3 das 5 primeiras) = \binom{5}{3} p^3 (1-p)^3 p + \binom{5}{4} (1-p)^4 p(1-p) = \frac{10}{1} c \frac{10}{3} \cdot (1-p)^4 \cdot (1-p)^2 = 10 \cdot (\frac{10}{2})^{A} 0 = \frac{tip}{20} = \frac{5} = \frac{10}{15} \cdot \frac{2}{5} \cgrid{(1-p)^2c = \frac{10}{32} \cdot \frac{10}{20} = \frac{10}{8} = \frac{P(X=5)}{5+1}) 84 Portanto, E[\text{X}] = \boxed{4} \cdot \frac{1}{\frac{\span{12}} + 5\cdot 7\cdot 3 + 5\cdot{6}\cdot 6 + 2\cdot {8}+20+30+35} = 33 \cdot 6 \cdot 6 \cdot \approx 5.8125 67. A função geradora de momentos M_X(t) de uma V.A. X é definida como a esperança de e^{tX}. Assim, M_X(t):= E[e^{tX}] = \int_0^1 e^{t^2} dx = \frac{1}{t} e^{tX} = \frac{e^{t^2}\cdot e^0}{t} = \frac{e^{t^2}-1}{t} Assim, \frac{d}{dt} M_X(t) = \frac{d}{dt}\left(\frac{e^{t^2}-1}{t}\right)=\frac{t e^{t^2}\cdot e^t+1}{t^4} Por designação E[X] = \lim_{t\rightarrow 0}\frac{t e^{t^2}+e^t\cdot e^t}{2t} = \lim_{t\rightarrow 0}\frac{e^t+1}{t} = 2// Para calcular Var[X] precisamos calcular E[X^2] E[X^2] = \lim_{t\rightarrow 0}\frac{2e^t+e^{t^2}-2t+e^t e^t}{3t^2} Portanto, \text{VAR}[X]=1-\left[\frac{1}{3}\right]^2-\frac{1}{3}\cdot\frac{1}{2}-\frac{4\cdot3}{12}=\frac{1}{12} Probabilidade 31. Considere os eventos: S: Soma dos dados é 7 F: O primeiro dado é 6 Queremos saber a probabilidade do primeiro dado ser 6 dado que a soma é 7, ou seja, P(F|S). Temos que P(F|S) = \frac{P(F \cap S)}{P(S)} Ao lançar dois dados temos 36 possibilidades e a soma resultante pode ser vista na tabela abaixo: Tabela: 1 2 3 4 5 6 1 \overline{7}\ 2 3 4 5 6 Temos que P(S) = \frac{6}{36} = \frac{1}{6} Além disso, temos que F\capS é o evento: A soma dos dados é 7 e o primeiro dado é 6. Logo, P(F\capS) = 1/36. Portanto P(F|S) = \frac{P(F\capS)}{P(S)}= \frac{1/36}{1/6}=\frac{1}{6}// 33. Dois eventos A e B são independentes se P(A|B) = P(A) e P(B|A) = P(B). Mas P(A|B) = P(A \cap B) = P(A), logo, para dois eventoes independentes, temos \\P(A\capB) = P(A)\cdot P(B) Agora, vamos ao exercício.
Send your question to AI and receive an answer instantly
Recommended for you
3
Questões - Probabilidade 2021-1
Probabilidade
USP
3
Lista Preparatória - Probabilidade 2021-1
Probabilidade
USP
22
Exercícios - Variáveis Aleatórias e Distrib de Prob - 2024-1
Probabilidade
USP
4
Exercícios - Probabilidade 2022-1
Probabilidade
USP
4
P2 - Probabilidade - 2022-2
Probabilidade
USP
4
Prova de Recuperação - Probabilidade - 2022-1
Probabilidade
USP
5
P2 - Probabilidade - 2020-1
Probabilidade
USP
4
P2 - Probabilidade - 2019-2
Probabilidade
USP
4
Prova de Recuperação - Probabilidade - 2019-1
Probabilidade
USP
Preview text
Questões de Probabilidade Exercícios terça-feira, 28 de maio de 2024 00:36 Página 1 de probability models Página 2 de probability models Página 3 de probability models Página 4 de probability models Página 5 de probability models Página 6 de probability models Questões de Variáveis Aleatórias Página 7 de probability models Página 8 de probability models Página 9 de probability models Página 10 de probability models Página 11 de probability models Queremos calcular P(T|W). Temos que P(T|W) = P(T|W) = \frac{P(W|T)\cdot P(T)}{P(W)} Temos que P(W|T)\cdot P(T) = \frac{3}{5} \cdot \frac{1}{5} = \frac{3}{25} Além disso, temos pelo Teo. di Probabilidade Total que P(W) = P(W|T)\cdot P(T) + P(W|H)\cdot P(H) = \frac{1}{10} + \frac{5}{7} \cdot \frac{1}{2} + \frac{1}{5} \cdot \frac{1}{4} = \frac{12}{35}, 5/7 Portanto, P(T|W) = \frac{1/10}{1/120} = \frac{12}{120} Variaveis Aleatórias: 52. Seja P(x=K) a probabilidade de ganhar K vezes. Temos que P(x=K) = \binom{n}{k} p^n (1-p)^{n-k} onde n=50 e p=1/100 (a) A probabilidade de ganhar pelo menos uma vez é: P(X \geq 1) = 1 - P(X=0) = 1 -\left( \binom{50}{0} \cdot \left(\frac{1}{100}\right)^0 \cdot \left(\frac{99}{100}\right)^{50} \right) = 1 - (1 \cdot 0.99^{50}) = 1 - 0.605 = 0.395 (b) P(x=1) = \binom{50}{1} \left(\frac{1}{100}\right) \left(\frac{99}{100}\right)^{49} \approx 0.306 (c) P(X \leq 2)=1 - P(X=2) = 1 -(0.395+0.306) = 0.083 As pequenas diferencças são devidas aos arredondamentos 42. Sejam B : moeda viciada F : moeda honesta U : moeda de duas caras H : tirar caras Queremos saber P(U|H). Temos que P(U|H) = \frac{P(H|U)\cdot P(U)}{P(H)} Temos que P(U)\cdot P(H|U) = \frac{1}{3} \cdot \frac{1}{1} = \frac{1}{3} Para calcular P(H) vamos usar o Teorema de Probabilidade Total P(H) = P(H|U)\cdot P(U) + P(H|D)\cdot P(B) + P(H|F)\cdot P(F) = \frac{1}{3} \cdot \frac{1}{3} + \frac{1}{2} \cdot \frac{2}{3} + \frac{1}{2} \cdot \frac{1}{3} = \frac{9}{12} Portanto, P(U|H) = \frac{1/3}{1/12} = \frac{4}{12} 43. Seja B: Flo tem olhos azuis. Sabemos que olhos azuis é recessivo a e olhos marrons é dominante A. Além disso, tanto Jo quanto Joe são Aa, pois tem olhos marrons e seu mais tem olhos azuis. Seja X o número de gens de olhos azul que uma filha de Jo e Joe pode ter. Então P(B) = P(X=1|X\geq 2)=\frac{1/3}{3/4} = \frac{2}{3} Logo definindo como C o evento: Filha de Flb ter olhos azul. Temos que P(C) = P(C\cap_{B})=P(B)\cdot P(C|B)=\frac{2}{3}\cdot \frac{1}{3} = \frac{2}{9} 65. (a) No modelo de Poisson, temos P(X=k) = \frac{\lambda^k\cdot e^{-\lambda}}{k!} De acordo com o enunciado \lambda=2, logo, P(X=2) = \frac{2^2 \cdot e^{-2}}{2!} Queremos saber a probabilidade de acontecer 2 acidentes em 3 dos 5 dias assegui. Logo, P(Y=4) = \binom{5}{3}\cdot (2^2)^3\cdot(1-2^2)^3 = \frac{10\cdot (2^2)^3(1-2^2)^3}{e^6} = \frac{80\cdot (1-2^2)}{e^3} e^3 2^3 (b) Podemos modelar uma variável aleatória Z da soma de duas variáveis aleatórias de Poisson com média 2. A média de Z será \lambda=2\cdot a=2\cdot a. Assim, queremos encontrar P(Z=6) P(Z=6) = \frac{4^6 \cdot e^{-4}}{6!} (c) A probabilidade de que um acidente não seja grave é 1-p. Seja Y o número de acidentes graves amanhã. Dado que X=x, Y segue uma distribuição binomial com parâmetros x e p. Assim, P(Y = 0) = \sum_{x=0}^{\infty} (1-p)^x\cdot P(X=x) Dado X=x P(Y=0|X=x) = (1-p)^2 Portanto, P(Y=0) = \sum_{x=0}^{\infty} (1-p)^x\cdot P(X=x) Com P(X=x) = 2^xe^{-2}/x! P(Y=0) = \sum_{x=0}^{\infty} (1-p)^x\cdot \frac{2^x\cdot e^{-2}}{x!} = e^{-1}\approx e^{-x^(-\lambda^{x^(-p)})} Série de Taylor (a): \frac{1}{x!}\cdot 2p^2 = e^{2p}\cdot e^{-2(1-p)} = e^{1-p} 39. A esperança de X é E(X) = \sum_{i=1}^{6} X_i \cdot P(x_i) = \frac{1}{2} \cdot 1 + \frac{1}{3} \cdot 2 + \frac{1}{4} \cdot 1 + \frac{1}{6} \cdot 2 + \frac{1}{24} \cdot 1 + \frac{1}{31} = 40. Seja X o número de partidas jogadas. Temos que aconteceram no mínimo 4 partidas e no máximo 7. Sejam A o primeiro jogador e B o segundo. Assim: P(X = 4) = P(A ganha 4 ou B ganha 4) = (1-p)^4 = 2 \cdot (1-p)^4 1 = 1+ \frac{1}{4} + \frac{1}{3} = 5 + \frac{1}{5} P(X = 5) = P(A ganha 3 das 3 primeiras) + P(B ganha 4 das 5 primeiras) = \binom{4}{3}(1-p)^3 p + \binom{4}{3}(1-p)^2 p = 4(1-p)^3 p + 4(1-p)^3 p = \sum_{i=1}^{5} 1 \cdot p Como são disjuntos e 1 grupo de união = soma dos pesos \boxed{5}\, = 4\cdot \frac{1}{5} = 4(1-p) = \frac{1}{3} = p = \frac{1}{2} = 1-p) Fazemos o mesmo raciocínio para os casos restantes P\{X = 6\} = P(A ganha 3 das 5 primeiras) + P(B ganha 3 das 5 primeiras) = \binom{5}{3} p^3 (1-p)^3 p + \binom{5}{4} (1-p)^4 p(1-p) = \frac{10}{1} c \frac{10}{3} \cdot (1-p)^4 \cdot (1-p)^2 = 10 \cdot (\frac{10}{2})^{A} 0 = \frac{tip}{20} = \frac{5} = \frac{10}{15} \cdot \frac{2}{5} \cgrid{(1-p)^2c = \frac{10}{32} \cdot \frac{10}{20} = \frac{10}{8} = \frac{P(X=5)}{5+1}) 84 Portanto, E[\text{X}] = \boxed{4} \cdot \frac{1}{\frac{\span{12}} + 5\cdot 7\cdot 3 + 5\cdot{6}\cdot 6 + 2\cdot {8}+20+30+35} = 33 \cdot 6 \cdot 6 \cdot \approx 5.8125 67. A função geradora de momentos M_X(t) de uma V.A. X é definida como a esperança de e^{tX}. Assim, M_X(t):= E[e^{tX}] = \int_0^1 e^{t^2} dx = \frac{1}{t} e^{tX} = \frac{e^{t^2}\cdot e^0}{t} = \frac{e^{t^2}-1}{t} Assim, \frac{d}{dt} M_X(t) = \frac{d}{dt}\left(\frac{e^{t^2}-1}{t}\right)=\frac{t e^{t^2}\cdot e^t+1}{t^4} Por designação E[X] = \lim_{t\rightarrow 0}\frac{t e^{t^2}+e^t\cdot e^t}{2t} = \lim_{t\rightarrow 0}\frac{e^t+1}{t} = 2// Para calcular Var[X] precisamos calcular E[X^2] E[X^2] = \lim_{t\rightarrow 0}\frac{2e^t+e^{t^2}-2t+e^t e^t}{3t^2} Portanto, \text{VAR}[X]=1-\left[\frac{1}{3}\right]^2-\frac{1}{3}\cdot\frac{1}{2}-\frac{4\cdot3}{12}=\frac{1}{12} Probabilidade 31. Considere os eventos: S: Soma dos dados é 7 F: O primeiro dado é 6 Queremos saber a probabilidade do primeiro dado ser 6 dado que a soma é 7, ou seja, P(F|S). Temos que P(F|S) = \frac{P(F \cap S)}{P(S)} Ao lançar dois dados temos 36 possibilidades e a soma resultante pode ser vista na tabela abaixo: Tabela: 1 2 3 4 5 6 1 \overline{7}\ 2 3 4 5 6 Temos que P(S) = \frac{6}{36} = \frac{1}{6} Além disso, temos que F\capS é o evento: A soma dos dados é 7 e o primeiro dado é 6. Logo, P(F\capS) = 1/36. Portanto P(F|S) = \frac{P(F\capS)}{P(S)}= \frac{1/36}{1/6}=\frac{1}{6}// 33. Dois eventos A e B são independentes se P(A|B) = P(A) e P(B|A) = P(B). Mas P(A|B) = P(A \cap B) = P(A), logo, para dois eventoes independentes, temos \\P(A\capB) = P(A)\cdot P(B) Agora, vamos ao exercício.