Contenidos
Distribución Normal o de Gauss
La distribución normal, distribución de Gauss o distribución gaussiana, es v.a. discreta Z que mide el área comprendida en la función que representa la campana de Gauss
Su función de probabilidad es:
\frac{1}{\sqrt{2 \cdot \pi}\cdot \sigma}\int^{+\infty}_Z e^m dx con m =-\frac{(x - \mu)^2}{2 \cdot \sigma^2}
E(\xi) = \mu
\sigma^2(\xi) = \sigma^2
\sigma(\xi) = \sigma
Propiedades de la Normal
- Es simétrica con respecto al eje x = \mu, P(\sigma > \mu) = P(\sigma < \mu) = \frac{1}{2}
- Cuando x \rightarrow \pm\infty tenemos una asíntota general con y = 0
- Tiene puntos de inflexión en x = \mu = \sigma
- Cualquier v.a. construida como combinación lineal de v.a. normales sigue también una distribución normal
Cálculo de una Normal
Normal tipificada
Sea \xi v.a. llamaremos tipificar a otra v.a. cuando:
Z = \frac{\xi - \mu \cdot \xi}{\sigma \cdot \xi}
Si tipificamos una v.a. z tenemos que:
Si \xi \approx N(\xi, \sigma) \Rightarrow Z = \frac{\xi - \mu}{\sigma} \Rightarrow N(0, 1)
La función de probabilidad de la normal tipificada es:
P(Z > z) = \frac{1}{\sqrt{2 \cdot \pi}}\int^{+\infty}_Z e^m dx con m = -\frac{x^2}{2}, \forall x \in \mathbb{R}
E(\xi) = 0
\sigma^2(\xi) = 1
\sigma(\xi) = 1
Propiedades de la normal tipificada
- Es simétrica con respecto al eje x = 0, P(\sigma > 0) = P(\sigma < 0) = \frac{1}{2}
- Cuando x \rightarrow \pm\infty tenemos una asíntota horizontal
- Tiene puntos de inflexión en x = \pm 1
Cálculo de una Normal tipificada
Notas para la Normal
Sea \xi_1, \cdots, \xi_n \approx v.a. (\mu_i, \sigma_i) con \xi = a_0 + a_1 \cdot \xi_1 + \cdots + a_n \cdot \xi_n, \forall i \in \{1, \cdots, n\}
- E[\xi] = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n
- \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots
- Si las \xi_i son independientes ó solo incorreladas \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2
- Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
\begin{cases} \xi \approx N(\mu, \sigma)\text{ with }\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases} - Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
\begin{cases}\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 \end{cases}
Sea \xi_S = \xi_1 + \cdots + \xi_n
- E[\xi_S] = \mu_1 + \cdots + \mu_n
- \sigma^2[\xi_S] = \sigma_1^2 + \cdots + \sigma_n^2 + 2 \cdot Cov(\xi_1, \xi_2) + \cdots
- Si las \xi_i son independientes \sigma^2[\xi_S] = a_1^2 + \cdots + a_n^2
- Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
\begin{cases} \xi_S \approx N(\mu, \sigma)\text{ with }\mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases} - Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
\begin{cases} \mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = \sigma_1^2 + \cdots + \sigma_n^2\end{cases}
Sea \xi_S v.a. independiente e idénticamente distribuida con \xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) y \xi_S = \xi_1 + \cdots + \xi_n \approx v.a.(n \cdot \mu, \sigma \cdot \sqrt{n})
- E[\xi_S] = \overbrace{\mu + \cdots + \mu}^{n\;\rm veces} = n \cdot \mu
- \sigma^2[\xi_S] = \overbrace{\sigma^2 + \cdots + \sigma^2}^{n\;\rm veces} = n \cdot \sigma^2
- Si las \xi_i son v.a.i.i.d. y normales:
\xi_S \approx N(n \cdot \mu, \sqrt{n} \cdot \sigma)
Aproximaciones
Aproximación de la Binomial a la Normal
Sea B \approx B(n, p)
Con B \approx número de éxitos en n pruebas de Bernoulli iguales e independientes con probabilidad de éxito p entonces:
B \approx B(n\cdot p, \sqrt{n \cdot p \cdot q})Teorema de Moivre
Sea B \approx B(n, p) entonces:
\frac{B - m}{\sqrt{n \cdot p \cdot q}}\rightarrow N(0, 1)
Con lo que tenemos que:
E(B) = n \cdot p
\xi^2(B) = n \cdot p \cdot q
\xi(B) = +\sqrt{n \cdot p \cdot q}
Se considera una buena aproximación cuando n \cdot p \geq 5 y n \cdot q \geq 5 y entonces se cumple el Teorema de Moivre con:
B \approx B(n \cdot p, \sqrt{n \cdot p \cdot q})
Sin embargo habrá que realizar una corrección por discontinuidad para obtener el valor buscado, tomando -0.5 si buscamos el menor estricto ó +0.5 en cualquier otro caso
Ejemplos:
P\{B < 4\} usaremos P\{B < 3.5\}
P\{B \leq 4\} usaremos P\{B \leq 4.5\}
P\{B > 4\} usaremos P\{B > 4.5\}
P\{B \geq 4\} usaremos P\{B \geq 4.5\}
Teorema del límite central
\xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) entonces:
\xi_T = \xi_1 + \cdots + \xi_n \approx v.a. (n \cdot \mu, \sqrt{n} \cdot \sigma) ocurre siempre
Teorema de Lery-Lidenberg
Sea \{\xi_i\}, i \in N sucesión de v.a.i.i.d. entonces:
S_n = \xi_1 + \cdots + \xi_n \approx \frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma} \rightarrow N(0, 1)
Se considera una buena aproximación cuando n \geq 30 y entonces se cumple el Teorema de Lery-Lidenberg aproximando por la normal cualquier probabilidad del tipo:
Serie de Taylor para la distribución Normal
Aproximación de Abramowitz y Stegun (1964) conocida como «mejor aproximación de Hastings»
\tiny P(x) = 1 - \phi(x)(b_1 \cdot t + b_2 \cdot t^2 + b_3 \cdot t^3 + b_4 \cdot t^4 + b_5 \cdot t^5) + \epsilon(x)
\begin{cases} \phi(x) = \frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2} \\ t = \frac{1}{1 + (b_0 \cdot x)} \\ b_0 = 0.2316419 \\ b_1 = 0.319381530 \\ b_2 = -0.356563782 \\ b_3 = 1.781477937 \\ b_4 = -1.821255978 \\ b_5 = 1.330274429 \\ \|\epsilon(x)\| < 7.5 \cdot 10^{-8} \end{cases}
Sustituyendo nos queda: