Archivo de la categoría: Estadística

La estadística es la ciencia formal que estudia usos y análisis provenientes de una muestra representativa de datos, busca explicar las correlaciones y dependencias de un fenómeno físico o natural, de ocurrencia en forma aleatoria o condicional

Distribución Uniforme

Distribución Uniforme

La distribución uniforme surge al considerar que todos los posibles valores dentro de un intervalo son equiprobables. Por lo tanto, la probabilidad de que una variable aleatoria tome valores en un subintervalo es proporcional a la longitud del mismo

Diremos que una variable aleatoria tiene distribución Uniforme en un intervalo finito [a, b], y lo denotamos como \xi \approx U(a, b) si su función de densidad es:

f(x)=\begin{cases} \frac{1}{b -a},\text{ si }a\leq x\leq b \\ 0,\text{ en el resto} \end{cases}
 
Su función de probabilidad es:

P\{\xi < k \} = \begin{cases} 0, \text{ si }x < a \\ \frac{x-a}{b-a}, \text{ si }a\leq x\leq b \\ 1, \text{ si } x > b \end{cases}
 
E(\xi) = \frac{a+b}{2}
 
\sigma^2(\xi) = \frac{(a+b)^2}{12}
 
\sigma(\xi) = (a+b)\cdot +\sqrt{\frac{1}{12}}

Cálculo de una Uniforme



Distribución Poisson

Distribución Poisson

La distribución Poisson es una v.a. discreta \xi que mide el número de veces que ocurre un suceso en un intervalo de tiempo o espacio y se denota como:

\xi \approx P(\lambda)
 
Su función de probabilidad es:

P(\xi = k ) = e^{-\lambda} \cdot \frac{\lambda^k}{k!}, k \in \{0, \cdots, n\}
 
E(\xi) = \lambda
 
\sigma^2(\xi) = \lambda
 
\sigma(\xi) = +\sqrt{\lambda}

Propiedades

  1. \xi = \xi_1 + \xi_2 \approx P(\lambda) con \lambda = \lambda_1 + \lambda_2 cuando \xi_1, \xi_2 son v.a. independientes
  2. \xi = \xi_1 + \cdots + \xi_r \approx P(\lambda) con \lambda = \lambda_1 + \cdots + \lambda_r cuando \xi_1, \cdots, \xi_r son v.a. independientes

Aproximación de la Binomial a la Poisson

Sea \xi \approx P(\lambda)\approx B(n, p)
 
Si \exists \lim\limits_{n\to\infty, p\to 0}n\cdot p = \lambda \Rightarrow \lim\limits_{n\to\infty, p\to 0}P(\xi = k ) = e^{-\lambda} \cdot \frac{\lambda^k}{k!}
 
con k \in \{0, \cdots, n\}
 
Es decir, una Binomial, donde el número de pruebas de Bernoulli es grande (n tiende a infinito) y la probabilidad de éxito en cada prueba es pequeño (p tiende a 0) es aproximadamente una Poisson de parámetro \lambda=n\cdot p
 
Se considera una buena aproximación cuando n \geq 50 y p \leq 0.1

Cálculo de una Poisson



Distribución Normal o de Gauss

Distribución Normal o de Gauss

La distribución normal, distribución de Gauss o distribución gaussiana, es v.a. discreta Z que mide el área comprendida en la función que representa la campana de Gauss

Su función de probabilidad es:

\frac{1}{\sqrt{2 \cdot \pi}\cdot \sigma}\int^{+\infty}_Z e^m dx con m =-\frac{(x - \mu)^2}{2 \cdot \sigma^2}
 
E(\xi) = \mu
 
\sigma^2(\xi) = \sigma^2
 
\sigma(\xi) = \sigma

Propiedades de la Normal

  1. Es simétrica con respecto al eje x = \mu, P(\sigma > \mu) = P(\sigma < \mu) = \frac{1}{2}
  2. Cuando x \rightarrow \pm\infty tenemos una asíntota general con y = 0
  3. Tiene puntos de inflexión en x = \mu = \sigma
  4. Cualquier v.a. construida como combinación lineal de v.a. normales sigue también una distribución normal

Cálculo de una Normal



Normal tipificada

Sea \xi v.a. llamaremos tipificar a otra v.a. cuando:

Z = \frac{\xi - \mu \cdot \xi}{\sigma \cdot \xi}
 
Si tipificamos una v.a. z tenemos que:

Si \xi \approx N(\xi, \sigma) \Rightarrow Z = \frac{\xi - \mu}{\sigma} \Rightarrow N(0, 1)
 
La función de probabilidad de la normal tipificada es:

P(Z > z) = \frac{1}{\sqrt{2 \cdot \pi}}\int^{+\infty}_Z e^m dx con m = -\frac{x^2}{2}, \forall x \in \mathbb{R}
 
E(\xi) = 0
 
\sigma^2(\xi) = 1
 
\sigma(\xi) = 1

Propiedades de la normal tipificada

  1. Es simétrica con respecto al eje x = 0, P(\sigma > 0) = P(\sigma < 0) = \frac{1}{2}
  2. Cuando x \rightarrow \pm\infty tenemos una asíntota horizontal
  3. Tiene puntos de inflexión en x = \pm 1

Cálculo de una Normal tipificada



Notas para la Normal

Sea \xi_1, \cdots, \xi_n \approx v.a. (\mu_i, \sigma_i) con \xi = a_0 + a_1 \cdot \xi_1 + \cdots + a_n \cdot \xi_n, \forall i \in \{1, \cdots, n\}

  1. E[\xi] = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n
  2. \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las \xi_i son independientes ó solo incorreladas \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2
  4. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    \begin{cases} \xi \approx N(\mu, \sigma)\text{ with }\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    \begin{cases}\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 \end{cases}

Sea \xi_S = \xi_1 + \cdots + \xi_n

  1. E[\xi_S] = \mu_1 + \cdots + \mu_n
  2. \sigma^2[\xi_S] = \sigma_1^2 + \cdots + \sigma_n^2 + 2 \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las \xi_i son independientes \sigma^2[\xi_S] = a_1^2 + \cdots + a_n^2
  4. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    \begin{cases} \xi_S \approx N(\mu, \sigma)\text{ with }\mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    \begin{cases} \mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = \sigma_1^2 + \cdots + \sigma_n^2\end{cases}

Sea \xi_S v.a. independiente e idénticamente distribuida con \xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) y \xi_S = \xi_1 + \cdots + \xi_n \approx v.a.(n \cdot \mu, \sigma \cdot \sqrt{n})

  1. E[\xi_S] = \overbrace{\mu + \cdots + \mu}^{n\;\rm veces} = n \cdot \mu
  2. \sigma^2[\xi_S] = \overbrace{\sigma^2 + \cdots + \sigma^2}^{n\;\rm veces} = n \cdot \sigma^2
  3. Si las \xi_i son v.a.i.i.d. y normales:
    \xi_S \approx N(n \cdot \mu, \sqrt{n} \cdot \sigma)

Aproximaciones

Aproximación de la Binomial a la Normal

Sea B \approx B(n, p)

Con B \approx número de éxitos en n pruebas de Bernoulli iguales e independientes con probabilidad de éxito p entonces:

B \approx B(n\cdot p, \sqrt{n \cdot p \cdot q})

Teorema de Moivre

Sea B \approx B(n, p) entonces:

\frac{B - m}{\sqrt{n \cdot p \cdot q}}\rightarrow N(0, 1)
 
Con lo que tenemos que:

E(B) = n \cdot p
 
\xi^2(B) = n \cdot p \cdot q
 
\xi(B) = +\sqrt{n \cdot p \cdot q}
 
Se considera una buena aproximación cuando n \cdot p \geq 5 y n \cdot q \geq 5 y entonces se cumple el Teorema de Moivre con:

B \approx B(n \cdot p, \sqrt{n \cdot p \cdot q})
 
Sin embargo habrá que realizar una corrección por discontinuidad para obtener el valor buscado, tomando -0.5 si buscamos el menor estricto ó +0.5 en cualquier otro caso

Ejemplos:

P\{B < 4\} usaremos P\{B < 3.5\}
 
P\{B \leq 4\} usaremos P\{B \leq 4.5\}
 
P\{B > 4\} usaremos P\{B > 4.5\}
 
P\{B \geq 4\} usaremos P\{B \geq 4.5\}

Teorema del límite central

\xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) entonces:

\xi_T = \xi_1 + \cdots + \xi_n \approx v.a. (n \cdot \mu, \sqrt{n} \cdot \sigma) ocurre siempre

Teorema de Lery-Lidenberg

Sea \{\xi_i\}, i \in N sucesión de v.a.i.i.d. entonces:

S_n = \xi_1 + \cdots + \xi_n \approx \frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma} \rightarrow N(0, 1)
 
Se considera una buena aproximación cuando n \geq 30 y entonces se cumple el Teorema de Lery-Lidenberg aproximando por la normal cualquier probabilidad del tipo:

\frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma}

Serie de Taylor para la distribución Normal

Aproximación de Abramowitz y Stegun (1964) conocida como «mejor aproximación de Hastings»

\tiny P(x) = 1 - \phi(x)(b_1 \cdot t + b_2 \cdot t^2 + b_3 \cdot t^3 + b_4 \cdot t^4 + b_5 \cdot t^5) + \epsilon(x)
 
\begin{cases} \phi(x) = \frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2} \\ t = \frac{1}{1 + (b_0 \cdot x)} \\ b_0 = 0.2316419 \\ b_1 = 0.319381530 \\ b_2 = -0.356563782 \\ b_3 = 1.781477937 \\ b_4 = -1.821255978 \\ b_5 = 1.330274429 \\ \|\epsilon(x)\| < 7.5 \cdot 10^{-8} \end{cases}

Sustituyendo nos queda:

\tiny P(x) = 1 - \left(\frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2}\right) \cdot \left(\left(\frac{0.319381530}{1 + 0.2316419 \cdot x}\right) + \left(\frac{-0.356563782}{1 + 0.2316419 \cdot x}\right)^2 + \left(\frac{1.781477937}{1 + 0.2316419 \cdot x}\right)^3 + \left(\frac{-1.821255978}{1 + 0.2316419 \cdot x}\right)^4 + \left(\frac{1.330274429}{1 + 0.2316419 \cdot x}\right)^5 \right) + \epsilon(x)