·
Cursos Gerais ·
Contabilidade Básica
Send your question to AI and receive an answer instantly
Recommended for you
5
Contabilidade Gerencial Aula1 -2
Contabilidade Básica
UMG
3
Teoria da Contabilidade Avaliando pdf pdf
Contabilidade Básica
UMG
7
Aula 6 Contabilidade e Mercado
Contabilidade Básica
UMG
41
Contabilidade Basica
Contabilidade Básica
UMG
7
Prova N2 - Gestao Financeira e Orçamentaria
Contabilidade Básica
UMG
7
Prova de Contabilidade 1 012018 1
Contabilidade Básica
UMG
4
Topicos Especiais em Ciencias Contabeis
Contabilidade Básica
UMG
3
Anhanguera Educacional 1
Contabilidade Básica
UMG
1
Profocie-normal-educadoras
Contabilidade Básica
UMG
2
Lançamento de Novos Produtos - Jornal Gazeta do Povo
Contabilidade Básica
UMG
Preview text
Unidad Tres\nProbabilidad\n\nExperimentos Aleatorios - Espacio Muestral\n\nExperimentos Aleatorios: Son los que pueden dar lugar a varios resultados, sin que pueda ser previsible anunciar concretamente cuál va a darse en la realización del experimento, desde que sus resultados son inciertos.\n\nEspacio Muestral: Es el conjunto formado por todos los resultados posibles de un experimento aleatorio, es el conjunto de todos los puntos muestrales.\n\nPunto Muestral: Cada resultado posible de un experimento aleatorio.\n\nLos puntos muestrales deben ser mutuamente excluyentes y coleccionablemente exhaustivos.\n\nSucesos\n\nEs un acontecimiento que ocurrirá o no, dependiendo del azar, en los resultados del espacio muestral.\n\nPUEDEN SER\n1) Mutuamente excluyentes: Cuando los dos conjuntos no tienen ningún elemento en común. Cuando la presencia de uno excluye al otro.\n\nP(A y B) = φ\n\n2) Coleccionablemente exhaustivos: Cuando entre todos los sucesos constituyen el espacio muestral.\n\nA B\nA U B = S\n\nPROPIEDADES\n\nSimplificación: A U (B A) = A\n\nElemento Nulo: A U φ = A, A ∩ φ = A ∩ φ = φ\n\nLeyes de De Morgan: A U B = A B, A ∩ B = A U B Teoría Clásica: Laplace\n\nTodos los supuestos X, probables, todos los sucesos tienen la misma probabilidad de ocurrencia.\n\nLos sucesos son a priori, permite obtener la probabilidad, sin realizar ningún cálculo anterior.\n\nDefinición de probabilidad:\nP(A) = Casos Favorables\n n = Casos posibles\n\nTeoría De La Frecuencia Relativa\n\nEl principio de estabilidad de las frecuencias relativas. Ante tantas repeticiones en idénticas condiciones, llegan a un punto que las frecuencias se estabilizan y se convierten en estables, cuando llegan a donde se puede calcular.\n\nLos sucesos son a posteriori, se hacen varios cálculos, para obtener la probabilidad.\n\nDefinición de probabilidad: F(A) = n de veces que aparece A / n de veces que realiza el experimento.\n\nInconveniente: Varía según los sucesos de las frecuencias relativas de una serie de realizaciones.\n\nPropiedades:\n\nOK F(A)! \nDistribución: F(A U B) = F(A) + F(B) - F(A ∩ B)\nF(I) = 1 Propiedades\n\n1) Ley de no negación: Varía entre 0 y 1, porque ser negativo. Si la probabilidad vale 0 se llama suceso imposible de ocurrir P(φ) = 0.\n\n2) Ley aditiva especial: Los sucesos son mutuamente excluyentes.\n\nP(A U B) = P(A) + P(B)\n\n3) Propiedad aditiva general: Los sucesos son mutuamente excluyentes.\n\nP(A U B) = P(A) + P(B) - P(A ∩ B)\n\n4) Probabilidad Condicional: Está condicionado a información previa.\n\nP(A/B) = P(A ∩ B) / P(B)\n\n5) Propiedad Multiplicativa Especial: Los sucesos son independientes. (la probabilidad no depende de la extracción)\n\nP(A ∩ B) = P(A) x P(B)\n\nSucesos: DEPENDIENTES: La ocurrencia de un hecho modifica la probabilidad del otro. P(A/B) = P(A ∩ B) / P(A)\n\nSucesos INDEPENDIENTES: La ocurrencia de un hecho no modifica la probabilidad del otro. P(A/B) = P(A)\n\nTabla de Contingencia:\nEs una tabla de doble entrada donde en la 1: Columna aparecen las categorías de las variable cualitativas. \nLos sucesos son DEPENDIENTES porque se pueden dar constantemente.\n\nDiagrama de Árbol:\nConsiste en Ramos 1: P(b). Marginales, rama principal.\n\n2: P(Condicionales)\n\nOBJETIVO -> Acelera la fidelidad del espacio muestral. Probabilidad Total\nLlamamos sistema completo de sucesos, a una familia de sucesos, A1, A2... An, que cumplen 2 condiciones\n1. Son incompatibles los datos A1 ∩ A2 = ∅\n2. La unión de ellos, es el suceso seguro, ∪3 𝑛 𝑖=1 𝑎𝑖 = E\n\nTeorema De La Probabilidad Total\nSea B, B1,... Bn un sistema completo de sucesos tales que la probabilidad de cada uno de ellos es Pi (B), y sea B un suceso, cualquiera del que se conocen las probabilidades condicionales P(B|Ai), entonces la probabilidad del suceso B viene dada por la expresión\n\nP(B) = P(B|A1)P(A1) + P(B|A2)P(A2) ... P(B|An)P(An)\n\nTeorema De Bayes\nSea A1, A2,... An un sistema completo de sucesos tales que las probabilidades de cada uno de ellos son, A0, sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B|Ai), entonces la probabilidad y P(B|Ai) vinienda por la expresión\n\nP(Ai|B) = (P(B|Ai)P(Ai))/(P(B))\nP(Ai|B) P(B) = P(Ai) + P(B|Ai)\nP(Ai|B) = P(A |0) + P(A2|B) + P(B|A1) + P(B|A2|B) Variable Aleatoria y Valor Esperado\n\nVariable Aleatoria\nUna variable es aleatoria, [sistema] distribuidos valores que provienen de un experimento aleatorio. Puede ser \n* Discreta: Cuando puede tomar solo un N° limitado de valores de la variable (n)\n* Continua: Cuando puede tomar cualquier valor dentro de un intervalo.\n\nFuncion De Probabilidad\nEs el conjunto de pares ordenados (xi, p) Cumple la ley de [probabilidad] \n\nCondiciones de una variable Discreta\nL1: 0 ≤ p(xi) ≤ 1 Comprendiendo entre 0 y 1\nL2: La suma de probabilidades repartidas entre todos los valores de la variable es igual a 1\n\nGrafico adecuado → Grafico de Bastones\n\nDe una variable continua para calcular probabilidades asociadas a intervalos se usa la funcion de densidad, de probabilidad que mide la concentración de probabilidades al rededor de un punto.\n\nCondiciones:\nL1: p(x) ≥ 0, ley de no negatividad\nL2: ∫p(x)dx = 1 El área bajo de la función es = 1 Distribuciones De Probabilidad\nEstán relacionadas con las distribuciones de frecuencias. Es un listado de las probabilidades de todos los posibles resultados que podrían adqurirse sobre... Se pueden basar en consideraciones teóricas o en una afirmación subjetiva de la probabilidad. Se pueden usar también en la experiencia (presumiendo).\nLa distribución de probabilidad son modelos, teóricos, que describen el comportamiento que varían los resultados de un experimento aleatorio. Las [dis] la probabilidad de cada resultado.\n\nDistribuciones Discretas\nBinomial\nCaracterísticas:\nL1: Aptas 2 resultados posibles → éxito (a) (éxito)\nL2: El P(valor en cada prueba es independiente de los [.) obtenidos anteriormente\nL3: La probabilidades del éxito es 𝑝 e independencia es 𝑞\nL4: El experimento consiste de concurrencia n de pruebas\nUna variable X que representa el número de éxitos obtenidos en cada prueba del experimento, se llama Variable Aleatoria (Binomial)\n\nRepresentación\tParámetros\tMedia\tVarianza\nB(n, p)\tX\t(n,p)\tnp\tVxnpq\n\nMultinomial\nEs una binomial generalizado donde se abren el espacio muestral, surge cuando cada prueba tiene más de dos posibles resultados, mutuamente excluyentes.\nParámetros: p1,...,pk,y0 Hipergeométrica\nLa probabilidad es constante para los éxitos sedependientes.\nSe toma una muestra de tamaño n, sin reemplazamiento de un conjunto finito de n objetos.\nLos sujetos se pueden clasificar como ÉXITOS y N-k como FRACASOS.\n\nParámetros\nn: muestra\nPoblación -> N unidades\nN-k FRACASOS\n\nH: Éxitos\nMuestra -> n unidades -> x éxitos\nn-k: fracasos\n\nE. Probabilidad\nMedia\n\nμ = n•k/N\n\nVarianza\n0² = N-n • n • k • (N-k)/(N-1)\n\nAproximación a Binomial\nS1, es pequeña en relación a N (0,0,5), la probabilidad de que una varía muy poco de cada prueba dado esencial.\n\nMétrica binomial p-k/N\n\nn720 ps, 0,05 n.ps\n\nPoisson\n\nSería Éxitos (objetos de un sujeto determinado) que ocurren en un intervalo del espacio.\n\nLa probabilidad de obtener en un espacio pequeño es proporcional al tamaño de este y depende de la actividad periódica.\n\nCARACTERÍSTICAS: Son sucesos raros de probabilidad de ocurrencia muy pequeña.\n\nParámetro: Llamada es el promedio\n\nValor Esperado\nEs el producto de cada valor que toma la variable por su respectiva probabilidad.\n\nEs una idea fundamental en el estudio de las distribuciones de probabilidad: Es la media, el promedio establecido.\n\nP/ Variable Aleatoria Discreta μ = Exi•pi\n\nP/ Variable Aleatoria Continua μ = ∫xφx dx. Distribución de Probabilidad Común\n\nSe define generalmente la función Y = p(denominada función de densidad) afirmando que la frecuencia viene dada por el área bajo la curva por lo que:\n 1) El área encerrada bajo la totalidad de la curva es 1.\n 2) Para obtener la probabilidad p(a<x<b), obtenemos la proporción de área que hay bajo la curva desde a hasta b.\n\nLa probabilidad de sucesos puntuales os 0, p(x=a)=0.\n\nDistribución Normal\n\nUna variable es normal cuando se ajusta a la ley de grandes números, es la más utilizada en las aplicaciones estadísticas, por la frecuencia y normalidad con la que ciertos fenómenos tienden a aparecerse en su comportamiento.\n\nTiene una función de densidad cuya gráfica tiene forma de campana, llamada Campana de Gauss.\n\nIMPORTANCIA: Se debe a que hay muchas variables asociadas a fenómenos.\n\nFunción de Densidad: px = (1/σ√2π) e^(-(x-μ)²/(2σ²))\n\nParámetros\nμ: media\nσ: Desvio Estándar\n\nσ²: varianza\n\nSimbolismo\nN(μ,σ²)\n\nUna variable aleatoria X tiene Dist. Normal si:\n\n• Continua\n\n• Sus recorridos son y:ℝ\n\n• Existen 2 parámetros μ y σ²\n\nμ=μX σ²=σ²X.\n\nPropiedades\n1. El máximo de la curva coincide con la media.\n2. Es perfectamente simétrica respecto a la media.\n3. Tiene 2 puntos de inflexión.\n4. Sus colas son asintóticas al eje X.\n5. Un cambio en la media desplaza la curva a la derecha o izquierda.\n6. Un cambio en la varianza o en el desvío estándar cambia la forma de la curva.\n7. Toda área de la curva normal es igual a 1, es unimal.\n8. La amplitud de la curva vale = ∞. Variable Normal Estandarizada\n\nPermite calcular probabilidades normales para cualquier μ[μ,σ²] con una tabla de probabilidades, dado n(0,1) para X es n(μ,σ²).\nLa transformación de la variable X en la variable Z produce efecto de reducir unidades en términos de desvíos estándar alejados de la media.\n\nZab: x el correspondiente diz indica una alzada Z, Z es medida en dirección en términos desvío estándar.\n\nDemostración: E(X) = 0 y σ(X) = 1.\n\nE: E[|X-μ|] = E(x-μ)² porque Ex=μ.\n\nVz: E[Z] = E[X-μ]² = (X-μ)²/σ² = 1.\n\nTambién es posible calcular valores z dados, una probabilidad determinada mediante la fórmula Z = (X-μ)/σ.\n\nCaracterísticas:\nNo depende de ningún parámetro.\nSu media es 0, Vz = 1, σ² = 1.\n\nLa curva pasa simétrica respecto del eje y, su máximo está en este eje.\n\nTiene 2 puntos de inflexión en Z = 1 y Z = -1.\n\nAproximación de Binomial a Normal\n\nPara n grande y pequeño, p como q no sean próximos cero, la distribución Binomial B(n,p) se puede aproximar mediante una distribución normal:\n\nN(np,√npq) y por lo tanto 7 x~N(0,1) y n pq.\n\nCuando mayor sea el valor de n y cuando más próximo sea p, q, se mejora la aproximación realizada se debe verificar que\n\nnp > 5 cuando p < 1/2 y nq > 5 cuando p > 1/2.
Send your question to AI and receive an answer instantly
Recommended for you
5
Contabilidade Gerencial Aula1 -2
Contabilidade Básica
UMG
3
Teoria da Contabilidade Avaliando pdf pdf
Contabilidade Básica
UMG
7
Aula 6 Contabilidade e Mercado
Contabilidade Básica
UMG
41
Contabilidade Basica
Contabilidade Básica
UMG
7
Prova N2 - Gestao Financeira e Orçamentaria
Contabilidade Básica
UMG
7
Prova de Contabilidade 1 012018 1
Contabilidade Básica
UMG
4
Topicos Especiais em Ciencias Contabeis
Contabilidade Básica
UMG
3
Anhanguera Educacional 1
Contabilidade Básica
UMG
1
Profocie-normal-educadoras
Contabilidade Básica
UMG
2
Lançamento de Novos Produtos - Jornal Gazeta do Povo
Contabilidade Básica
UMG
Preview text
Unidad Tres\nProbabilidad\n\nExperimentos Aleatorios - Espacio Muestral\n\nExperimentos Aleatorios: Son los que pueden dar lugar a varios resultados, sin que pueda ser previsible anunciar concretamente cuál va a darse en la realización del experimento, desde que sus resultados son inciertos.\n\nEspacio Muestral: Es el conjunto formado por todos los resultados posibles de un experimento aleatorio, es el conjunto de todos los puntos muestrales.\n\nPunto Muestral: Cada resultado posible de un experimento aleatorio.\n\nLos puntos muestrales deben ser mutuamente excluyentes y coleccionablemente exhaustivos.\n\nSucesos\n\nEs un acontecimiento que ocurrirá o no, dependiendo del azar, en los resultados del espacio muestral.\n\nPUEDEN SER\n1) Mutuamente excluyentes: Cuando los dos conjuntos no tienen ningún elemento en común. Cuando la presencia de uno excluye al otro.\n\nP(A y B) = φ\n\n2) Coleccionablemente exhaustivos: Cuando entre todos los sucesos constituyen el espacio muestral.\n\nA B\nA U B = S\n\nPROPIEDADES\n\nSimplificación: A U (B A) = A\n\nElemento Nulo: A U φ = A, A ∩ φ = A ∩ φ = φ\n\nLeyes de De Morgan: A U B = A B, A ∩ B = A U B Teoría Clásica: Laplace\n\nTodos los supuestos X, probables, todos los sucesos tienen la misma probabilidad de ocurrencia.\n\nLos sucesos son a priori, permite obtener la probabilidad, sin realizar ningún cálculo anterior.\n\nDefinición de probabilidad:\nP(A) = Casos Favorables\n n = Casos posibles\n\nTeoría De La Frecuencia Relativa\n\nEl principio de estabilidad de las frecuencias relativas. Ante tantas repeticiones en idénticas condiciones, llegan a un punto que las frecuencias se estabilizan y se convierten en estables, cuando llegan a donde se puede calcular.\n\nLos sucesos son a posteriori, se hacen varios cálculos, para obtener la probabilidad.\n\nDefinición de probabilidad: F(A) = n de veces que aparece A / n de veces que realiza el experimento.\n\nInconveniente: Varía según los sucesos de las frecuencias relativas de una serie de realizaciones.\n\nPropiedades:\n\nOK F(A)! \nDistribución: F(A U B) = F(A) + F(B) - F(A ∩ B)\nF(I) = 1 Propiedades\n\n1) Ley de no negación: Varía entre 0 y 1, porque ser negativo. Si la probabilidad vale 0 se llama suceso imposible de ocurrir P(φ) = 0.\n\n2) Ley aditiva especial: Los sucesos son mutuamente excluyentes.\n\nP(A U B) = P(A) + P(B)\n\n3) Propiedad aditiva general: Los sucesos son mutuamente excluyentes.\n\nP(A U B) = P(A) + P(B) - P(A ∩ B)\n\n4) Probabilidad Condicional: Está condicionado a información previa.\n\nP(A/B) = P(A ∩ B) / P(B)\n\n5) Propiedad Multiplicativa Especial: Los sucesos son independientes. (la probabilidad no depende de la extracción)\n\nP(A ∩ B) = P(A) x P(B)\n\nSucesos: DEPENDIENTES: La ocurrencia de un hecho modifica la probabilidad del otro. P(A/B) = P(A ∩ B) / P(A)\n\nSucesos INDEPENDIENTES: La ocurrencia de un hecho no modifica la probabilidad del otro. P(A/B) = P(A)\n\nTabla de Contingencia:\nEs una tabla de doble entrada donde en la 1: Columna aparecen las categorías de las variable cualitativas. \nLos sucesos son DEPENDIENTES porque se pueden dar constantemente.\n\nDiagrama de Árbol:\nConsiste en Ramos 1: P(b). Marginales, rama principal.\n\n2: P(Condicionales)\n\nOBJETIVO -> Acelera la fidelidad del espacio muestral. Probabilidad Total\nLlamamos sistema completo de sucesos, a una familia de sucesos, A1, A2... An, que cumplen 2 condiciones\n1. Son incompatibles los datos A1 ∩ A2 = ∅\n2. La unión de ellos, es el suceso seguro, ∪3 𝑛 𝑖=1 𝑎𝑖 = E\n\nTeorema De La Probabilidad Total\nSea B, B1,... Bn un sistema completo de sucesos tales que la probabilidad de cada uno de ellos es Pi (B), y sea B un suceso, cualquiera del que se conocen las probabilidades condicionales P(B|Ai), entonces la probabilidad del suceso B viene dada por la expresión\n\nP(B) = P(B|A1)P(A1) + P(B|A2)P(A2) ... P(B|An)P(An)\n\nTeorema De Bayes\nSea A1, A2,... An un sistema completo de sucesos tales que las probabilidades de cada uno de ellos son, A0, sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B|Ai), entonces la probabilidad y P(B|Ai) vinienda por la expresión\n\nP(Ai|B) = (P(B|Ai)P(Ai))/(P(B))\nP(Ai|B) P(B) = P(Ai) + P(B|Ai)\nP(Ai|B) = P(A |0) + P(A2|B) + P(B|A1) + P(B|A2|B) Variable Aleatoria y Valor Esperado\n\nVariable Aleatoria\nUna variable es aleatoria, [sistema] distribuidos valores que provienen de un experimento aleatorio. Puede ser \n* Discreta: Cuando puede tomar solo un N° limitado de valores de la variable (n)\n* Continua: Cuando puede tomar cualquier valor dentro de un intervalo.\n\nFuncion De Probabilidad\nEs el conjunto de pares ordenados (xi, p) Cumple la ley de [probabilidad] \n\nCondiciones de una variable Discreta\nL1: 0 ≤ p(xi) ≤ 1 Comprendiendo entre 0 y 1\nL2: La suma de probabilidades repartidas entre todos los valores de la variable es igual a 1\n\nGrafico adecuado → Grafico de Bastones\n\nDe una variable continua para calcular probabilidades asociadas a intervalos se usa la funcion de densidad, de probabilidad que mide la concentración de probabilidades al rededor de un punto.\n\nCondiciones:\nL1: p(x) ≥ 0, ley de no negatividad\nL2: ∫p(x)dx = 1 El área bajo de la función es = 1 Distribuciones De Probabilidad\nEstán relacionadas con las distribuciones de frecuencias. Es un listado de las probabilidades de todos los posibles resultados que podrían adqurirse sobre... Se pueden basar en consideraciones teóricas o en una afirmación subjetiva de la probabilidad. Se pueden usar también en la experiencia (presumiendo).\nLa distribución de probabilidad son modelos, teóricos, que describen el comportamiento que varían los resultados de un experimento aleatorio. Las [dis] la probabilidad de cada resultado.\n\nDistribuciones Discretas\nBinomial\nCaracterísticas:\nL1: Aptas 2 resultados posibles → éxito (a) (éxito)\nL2: El P(valor en cada prueba es independiente de los [.) obtenidos anteriormente\nL3: La probabilidades del éxito es 𝑝 e independencia es 𝑞\nL4: El experimento consiste de concurrencia n de pruebas\nUna variable X que representa el número de éxitos obtenidos en cada prueba del experimento, se llama Variable Aleatoria (Binomial)\n\nRepresentación\tParámetros\tMedia\tVarianza\nB(n, p)\tX\t(n,p)\tnp\tVxnpq\n\nMultinomial\nEs una binomial generalizado donde se abren el espacio muestral, surge cuando cada prueba tiene más de dos posibles resultados, mutuamente excluyentes.\nParámetros: p1,...,pk,y0 Hipergeométrica\nLa probabilidad es constante para los éxitos sedependientes.\nSe toma una muestra de tamaño n, sin reemplazamiento de un conjunto finito de n objetos.\nLos sujetos se pueden clasificar como ÉXITOS y N-k como FRACASOS.\n\nParámetros\nn: muestra\nPoblación -> N unidades\nN-k FRACASOS\n\nH: Éxitos\nMuestra -> n unidades -> x éxitos\nn-k: fracasos\n\nE. Probabilidad\nMedia\n\nμ = n•k/N\n\nVarianza\n0² = N-n • n • k • (N-k)/(N-1)\n\nAproximación a Binomial\nS1, es pequeña en relación a N (0,0,5), la probabilidad de que una varía muy poco de cada prueba dado esencial.\n\nMétrica binomial p-k/N\n\nn720 ps, 0,05 n.ps\n\nPoisson\n\nSería Éxitos (objetos de un sujeto determinado) que ocurren en un intervalo del espacio.\n\nLa probabilidad de obtener en un espacio pequeño es proporcional al tamaño de este y depende de la actividad periódica.\n\nCARACTERÍSTICAS: Son sucesos raros de probabilidad de ocurrencia muy pequeña.\n\nParámetro: Llamada es el promedio\n\nValor Esperado\nEs el producto de cada valor que toma la variable por su respectiva probabilidad.\n\nEs una idea fundamental en el estudio de las distribuciones de probabilidad: Es la media, el promedio establecido.\n\nP/ Variable Aleatoria Discreta μ = Exi•pi\n\nP/ Variable Aleatoria Continua μ = ∫xφx dx. Distribución de Probabilidad Común\n\nSe define generalmente la función Y = p(denominada función de densidad) afirmando que la frecuencia viene dada por el área bajo la curva por lo que:\n 1) El área encerrada bajo la totalidad de la curva es 1.\n 2) Para obtener la probabilidad p(a<x<b), obtenemos la proporción de área que hay bajo la curva desde a hasta b.\n\nLa probabilidad de sucesos puntuales os 0, p(x=a)=0.\n\nDistribución Normal\n\nUna variable es normal cuando se ajusta a la ley de grandes números, es la más utilizada en las aplicaciones estadísticas, por la frecuencia y normalidad con la que ciertos fenómenos tienden a aparecerse en su comportamiento.\n\nTiene una función de densidad cuya gráfica tiene forma de campana, llamada Campana de Gauss.\n\nIMPORTANCIA: Se debe a que hay muchas variables asociadas a fenómenos.\n\nFunción de Densidad: px = (1/σ√2π) e^(-(x-μ)²/(2σ²))\n\nParámetros\nμ: media\nσ: Desvio Estándar\n\nσ²: varianza\n\nSimbolismo\nN(μ,σ²)\n\nUna variable aleatoria X tiene Dist. Normal si:\n\n• Continua\n\n• Sus recorridos son y:ℝ\n\n• Existen 2 parámetros μ y σ²\n\nμ=μX σ²=σ²X.\n\nPropiedades\n1. El máximo de la curva coincide con la media.\n2. Es perfectamente simétrica respecto a la media.\n3. Tiene 2 puntos de inflexión.\n4. Sus colas son asintóticas al eje X.\n5. Un cambio en la media desplaza la curva a la derecha o izquierda.\n6. Un cambio en la varianza o en el desvío estándar cambia la forma de la curva.\n7. Toda área de la curva normal es igual a 1, es unimal.\n8. La amplitud de la curva vale = ∞. Variable Normal Estandarizada\n\nPermite calcular probabilidades normales para cualquier μ[μ,σ²] con una tabla de probabilidades, dado n(0,1) para X es n(μ,σ²).\nLa transformación de la variable X en la variable Z produce efecto de reducir unidades en términos de desvíos estándar alejados de la media.\n\nZab: x el correspondiente diz indica una alzada Z, Z es medida en dirección en términos desvío estándar.\n\nDemostración: E(X) = 0 y σ(X) = 1.\n\nE: E[|X-μ|] = E(x-μ)² porque Ex=μ.\n\nVz: E[Z] = E[X-μ]² = (X-μ)²/σ² = 1.\n\nTambién es posible calcular valores z dados, una probabilidad determinada mediante la fórmula Z = (X-μ)/σ.\n\nCaracterísticas:\nNo depende de ningún parámetro.\nSu media es 0, Vz = 1, σ² = 1.\n\nLa curva pasa simétrica respecto del eje y, su máximo está en este eje.\n\nTiene 2 puntos de inflexión en Z = 1 y Z = -1.\n\nAproximación de Binomial a Normal\n\nPara n grande y pequeño, p como q no sean próximos cero, la distribución Binomial B(n,p) se puede aproximar mediante una distribución normal:\n\nN(np,√npq) y por lo tanto 7 x~N(0,1) y n pq.\n\nCuando mayor sea el valor de n y cuando más próximo sea p, q, se mejora la aproximación realizada se debe verificar que\n\nnp > 5 cuando p < 1/2 y nq > 5 cuando p > 1/2.