Distribución Normal o de Gauss

Distribución Normal o de Gauss

La distribución normal, distribución de Gauss o distribución gaussiana, es v.a. discreta Z que mide el área comprendida en la función que representa la campana de Gauss

Su función de probabilidad es:

\frac{1}{\sqrt{2 \cdot \pi}\cdot \sigma}\int^{+\infty}_Z e^m dx con m =-\frac{(x - \mu)^2}{2 \cdot \sigma^2}
 
E(\xi) = \mu
 
\sigma^2(\xi) = \sigma^2
 
\sigma(\xi) = \sigma

Propiedades de la Normal

  1. Es simétrica con respecto al eje x = \mu, P(\sigma > \mu) = P(\sigma < \mu) = \frac{1}{2}
  2. Cuando x \rightarrow \pm\infty tenemos una asíntota general con y = 0
  3. Tiene puntos de inflexión en x = \mu = \sigma
  4. Cualquier v.a. construida como combinación lineal de v.a. normales sigue también una distribución normal

Cálculo de una Normal



Normal tipificada

Sea \xi v.a. llamaremos tipificar a otra v.a. cuando:

Z = \frac{\xi - \mu \cdot \xi}{\sigma \cdot \xi}
 
Si tipificamos una v.a. z tenemos que:

Si \xi \approx N(\xi, \sigma) \Rightarrow Z = \frac{\xi - \mu}{\sigma} \Rightarrow N(0, 1)
 
La función de probabilidad de la normal tipificada es:

P(Z > z) = \frac{1}{\sqrt{2 \cdot \pi}}\int^{+\infty}_Z e^m dx con m = -\frac{x^2}{2}, \forall x \in \mathbb{R}
 
E(\xi) = 0
 
\sigma^2(\xi) = 1
 
\sigma(\xi) = 1

Propiedades de la normal tipificada

  1. Es simétrica con respecto al eje x = 0, P(\sigma > 0) = P(\sigma < 0) = \frac{1}{2}
  2. Cuando x \rightarrow \pm\infty tenemos una asíntota horizontal
  3. Tiene puntos de inflexión en x = \pm 1

Cálculo de una Normal tipificada



Notas para la Normal

Sea \xi_1, \cdots, \xi_n \approx v.a. (\mu_i, \sigma_i) con \xi = a_0 + a_1 \cdot \xi_1 + \cdots + a_n \cdot \xi_n, \forall i \in \{1, \cdots, n\}

  1. E[\xi] = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n
  2. \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las \xi_i son independientes ó solo incorreladas \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2
  4. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    \begin{cases} \xi \approx N(\mu, \sigma)\text{ with }\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    \begin{cases}\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 \end{cases}

Sea \xi_S = \xi_1 + \cdots + \xi_n

  1. E[\xi_S] = \mu_1 + \cdots + \mu_n
  2. \sigma^2[\xi_S] = \sigma_1^2 + \cdots + \sigma_n^2 + 2 \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las \xi_i son independientes \sigma^2[\xi_S] = a_1^2 + \cdots + a_n^2
  4. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    \begin{cases} \xi_S \approx N(\mu, \sigma)\text{ with }\mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    \begin{cases} \mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = \sigma_1^2 + \cdots + \sigma_n^2\end{cases}

Sea \xi_S v.a. independiente e idénticamente distribuida con \xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) y \xi_S = \xi_1 + \cdots + \xi_n \approx v.a.(n \cdot \mu, \sigma \cdot \sqrt{n})

  1. E[\xi_S] = \overbrace{\mu + \cdots + \mu}^{n\;\rm veces} = n \cdot \mu
  2. \sigma^2[\xi_S] = \overbrace{\sigma^2 + \cdots + \sigma^2}^{n\;\rm veces} = n \cdot \sigma^2
  3. Si las \xi_i son v.a.i.i.d. y normales:
    \xi_S \approx N(n \cdot \mu, \sqrt{n} \cdot \sigma)

Aproximaciones

Aproximación de la Binomial a la Normal

Sea B \approx B(n, p)

Con B \approx número de éxitos en n pruebas de Bernoulli iguales e independientes con probabilidad de éxito p entonces:

B \approx B(n\cdot p, \sqrt{n \cdot p \cdot q})

Teorema de Moivre

Sea B \approx B(n, p) entonces:

\frac{B - m}{\sqrt{n \cdot p \cdot q}}\rightarrow N(0, 1)
 
Con lo que tenemos que:

E(B) = n \cdot p
 
\xi^2(B) = n \cdot p \cdot q
 
\xi(B) = +\sqrt{n \cdot p \cdot q}
 
Se considera una buena aproximación cuando n \cdot p \geq 5 y n \cdot q \geq 5 y entonces se cumple el Teorema de Moivre con:

B \approx B(n \cdot p, \sqrt{n \cdot p \cdot q})
 
Sin embargo habrá que realizar una corrección por discontinuidad para obtener el valor buscado, tomando -0.5 si buscamos el menor estricto ó +0.5 en cualquier otro caso

Ejemplos:

P\{B < 4\} usaremos P\{B < 3.5\}
 
P\{B \leq 4\} usaremos P\{B \leq 4.5\}
 
P\{B > 4\} usaremos P\{B > 4.5\}
 
P\{B \geq 4\} usaremos P\{B \geq 4.5\}

Teorema del límite central

\xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) entonces:

\xi_T = \xi_1 + \cdots + \xi_n \approx v.a. (n \cdot \mu, \sqrt{n} \cdot \sigma) ocurre siempre

Teorema de Lery-Lidenberg

Sea \{\xi_i\}, i \in N sucesión de v.a.i.i.d. entonces:

S_n = \xi_1 + \cdots + \xi_n \approx \frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma} \rightarrow N(0, 1)
 
Se considera una buena aproximación cuando n \geq 30 y entonces se cumple el Teorema de Lery-Lidenberg aproximando por la normal cualquier probabilidad del tipo:

\frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma}

Serie de Taylor para la distribución Normal

Aproximación de Abramowitz y Stegun (1964) conocida como «mejor aproximación de Hastings»

\tiny P(x) = 1 - \phi(x)(b_1 \cdot t + b_2 \cdot t^2 + b_3 \cdot t^3 + b_4 \cdot t^4 + b_5 \cdot t^5) + \epsilon(x)
 
\begin{cases} \phi(x) = \frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2} \\ t = \frac{1}{1 + (b_0 \cdot x)} \\ b_0 = 0.2316419 \\ b_1 = 0.319381530 \\ b_2 = -0.356563782 \\ b_3 = 1.781477937 \\ b_4 = -1.821255978 \\ b_5 = 1.330274429 \\ \|\epsilon(x)\| < 7.5 \cdot 10^{-8} \end{cases}

Sustituyendo nos queda:

\tiny P(x) = 1 - \left(\frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2}\right) \cdot \left(\left(\frac{0.319381530}{1 + 0.2316419 \cdot x}\right) + \left(\frac{-0.356563782}{1 + 0.2316419 \cdot x}\right)^2 + \left(\frac{1.781477937}{1 + 0.2316419 \cdot x}\right)^3 + \left(\frac{-1.821255978}{1 + 0.2316419 \cdot x}\right)^4 + \left(\frac{1.330274429}{1 + 0.2316419 \cdot x}\right)^5 \right) + \epsilon(x)