Archivo de la categoría: Distribución

La distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria, la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria

La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x

Prueba de Bernoulli

Bernoulli

Llamaremos prueba de Bernoulli a un experimento aleatorio con dos posibles resultados, a uno de ellos se le denomina éxito y a otro fracaso con probabilidades p\text{ y }1 - p = q respectivamente, es decir:

\begin{cases} \text{P}=\{\acute{e}\text{xito}\}=p \\ P=\{\text{fracaso}\} = q \\ p + q = 1 \end{cases}
 
La v.a. discreta \xi que toma el valor 1 cuando en el experimento de Bernoulli se obtiene éxito y el valor 0 si se obtiene fracaso, se dice que sigue una distribución de Bernoulli de parámetro p = P\{\acute{e}\text{xito}\} y se denota cómo:

\xi \approx B(1, p)
 
Su función de probabilidad es:

P(\xi = k ) = \begin{cases} p\text{ si }k = 0 \\ q\text{ si }k = 1 \end{cases}
 
E(\xi) = p
 
\sigma^2(\xi) = p\cdot q
 
\sigma(\xi) = +\sqrt{p \cdot q}

Cálculo de una Bernoulli





Distribución Binomial

Distribución Binomial

La distribución Binomial mide el número de éxitos en n pruebas de Bernoulli iguales e independientes

La v.a. discreta \xi que mide el número de éxitos en n pruebas de Bernoulli iguales e independientes se dice que sigue una distribución binomial de parámetros n y p = P\{\acute{e}\text{xito}\} y se denota cómo:

\xi \approx B(n, p)

Su función de probabilidad es:

P\{\xi = k \} = \binom{k}{n} \cdot p^k \cdot q^{n - k}, k \in \{0, \cdots, n\}

E(\xi) = n \cdot p

\sigma^2(\xi) = n \cdot p \cdot q

\sigma(\xi) = +\sqrt{n \cdot p \cdot q}

Propiedades de la distribución Binomial

  1. \xi = \xi_1 + \xi_2 \approx B(n_1 + n_2, p) cuando \xi_1, \xi_2 son v.a. independientes
  2. \xi = \xi_1 + \cdots + \xi_r \approx B(n_1 + \cdots + r_n, p) cuando xi_1, \cdots, \xi_r son v.a. independientes

Cálculo de una Binomial



Distribución Uniforme

Distribución Uniforme

La distribución uniforme surge al considerar que todos los posibles valores dentro de un intervalo son equiprobables. Por lo tanto, la probabilidad de que una variable aleatoria tome valores en un subintervalo es proporcional a la longitud del mismo

Diremos que una variable aleatoria tiene distribución Uniforme en un intervalo finito [a, b], y lo denotamos como \xi \approx U(a, b) si su función de densidad es:

f(x)=\begin{cases} \frac{1}{b -a},\text{ si }a\leq x\leq b \\ 0,\text{ en el resto} \end{cases}
 
Su función de probabilidad es:

P\{\xi < k \} = \begin{cases} 0, \text{ si }x < a \\ \frac{x-a}{b-a}, \text{ si }a\leq x\leq b \\ 1, \text{ si } x > b \end{cases}
 
E(\xi) = \frac{a+b}{2}
 
\sigma^2(\xi) = \frac{(a+b)^2}{12}
 
\sigma(\xi) = (a+b)\cdot +\sqrt{\frac{1}{12}}

Cálculo de una Uniforme



Distribución Poisson

Distribución Poisson

La distribución Poisson es una v.a. discreta \xi que mide el número de veces que ocurre un suceso en un intervalo de tiempo o espacio y se denota como:

\xi \approx P(\lambda)
 
Su función de probabilidad es:

P(\xi = k ) = e^{-\lambda} \cdot \frac{\lambda^k}{k!}, k \in \{0, \cdots, n\}
 
E(\xi) = \lambda
 
\sigma^2(\xi) = \lambda
 
\sigma(\xi) = +\sqrt{\lambda}

Propiedades

  1. \xi = \xi_1 + \xi_2 \approx P(\lambda) con \lambda = \lambda_1 + \lambda_2 cuando \xi_1, \xi_2 son v.a. independientes
  2. \xi = \xi_1 + \cdots + \xi_r \approx P(\lambda) con \lambda = \lambda_1 + \cdots + \lambda_r cuando \xi_1, \cdots, \xi_r son v.a. independientes

Aproximación de la Binomial a la Poisson

Sea \xi \approx P(\lambda)\approx B(n, p)
 
Si \exists \lim\limits_{n\to\infty, p\to 0}n\cdot p = \lambda \Rightarrow \lim\limits_{n\to\infty, p\to 0}P(\xi = k ) = e^{-\lambda} \cdot \frac{\lambda^k}{k!}
 
con k \in \{0, \cdots, n\}
 
Es decir, una Binomial, donde el número de pruebas de Bernoulli es grande (n tiende a infinito) y la probabilidad de éxito en cada prueba es pequeño (p tiende a 0) es aproximadamente una Poisson de parámetro \lambda=n\cdot p
 
Se considera una buena aproximación cuando n \geq 50 y p \leq 0.1

Cálculo de una Poisson



Distribución Normal o de Gauss

Distribución Normal o de Gauss

La distribución normal, distribución de Gauss o distribución gaussiana, es v.a. discreta Z que mide el área comprendida en la función que representa la campana de Gauss

Su función de probabilidad es:

\frac{1}{\sqrt{2 \cdot \pi}\cdot \sigma}\int^{+\infty}_Z e^m dx con m =-\frac{(x - \mu)^2}{2 \cdot \sigma^2}
 
E(\xi) = \mu
 
\sigma^2(\xi) = \sigma^2
 
\sigma(\xi) = \sigma

Propiedades de la Normal

  1. Es simétrica con respecto al eje x = \mu, P(\sigma > \mu) = P(\sigma < \mu) = \frac{1}{2}
  2. Cuando x \rightarrow \pm\infty tenemos una asíntota general con y = 0
  3. Tiene puntos de inflexión en x = \mu = \sigma
  4. Cualquier v.a. construida como combinación lineal de v.a. normales sigue también una distribución normal

Cálculo de una Normal



Normal tipificada

Sea \xi v.a. llamaremos tipificar a otra v.a. cuando:

Z = \frac{\xi - \mu \cdot \xi}{\sigma \cdot \xi}
 
Si tipificamos una v.a. z tenemos que:

Si \xi \approx N(\xi, \sigma) \Rightarrow Z = \frac{\xi - \mu}{\sigma} \Rightarrow N(0, 1)
 
La función de probabilidad de la normal tipificada es:

P(Z > z) = \frac{1}{\sqrt{2 \cdot \pi}}\int^{+\infty}_Z e^m dx con m = -\frac{x^2}{2}, \forall x \in \mathbb{R}
 
E(\xi) = 0
 
\sigma^2(\xi) = 1
 
\sigma(\xi) = 1

Propiedades de la normal tipificada

  1. Es simétrica con respecto al eje x = 0, P(\sigma > 0) = P(\sigma < 0) = \frac{1}{2}
  2. Cuando x \rightarrow \pm\infty tenemos una asíntota horizontal
  3. Tiene puntos de inflexión en x = \pm 1

Cálculo de una Normal tipificada



Notas para la Normal

Sea \xi_1, \cdots, \xi_n \approx v.a. (\mu_i, \sigma_i) con \xi = a_0 + a_1 \cdot \xi_1 + \cdots + a_n \cdot \xi_n, \forall i \in \{1, \cdots, n\}

  1. E[\xi] = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n
  2. \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las \xi_i son independientes ó solo incorreladas \sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2
  4. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    \begin{cases} \xi \approx N(\mu, \sigma)\text{ with }\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    \begin{cases}\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 \end{cases}

Sea \xi_S = \xi_1 + \cdots + \xi_n

  1. E[\xi_S] = \mu_1 + \cdots + \mu_n
  2. \sigma^2[\xi_S] = \sigma_1^2 + \cdots + \sigma_n^2 + 2 \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las \xi_i son independientes \sigma^2[\xi_S] = a_1^2 + \cdots + a_n^2
  4. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    \begin{cases} \xi_S \approx N(\mu, \sigma)\text{ with }\mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además \xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    \begin{cases} \mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = \sigma_1^2 + \cdots + \sigma_n^2\end{cases}

Sea \xi_S v.a. independiente e idénticamente distribuida con \xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) y \xi_S = \xi_1 + \cdots + \xi_n \approx v.a.(n \cdot \mu, \sigma \cdot \sqrt{n})

  1. E[\xi_S] = \overbrace{\mu + \cdots + \mu}^{n\;\rm veces} = n \cdot \mu
  2. \sigma^2[\xi_S] = \overbrace{\sigma^2 + \cdots + \sigma^2}^{n\;\rm veces} = n \cdot \sigma^2
  3. Si las \xi_i son v.a.i.i.d. y normales:
    \xi_S \approx N(n \cdot \mu, \sqrt{n} \cdot \sigma)

Aproximaciones

Aproximación de la Binomial a la Normal

Sea B \approx B(n, p)

Con B \approx número de éxitos en n pruebas de Bernoulli iguales e independientes con probabilidad de éxito p entonces:

B \approx B(n\cdot p, \sqrt{n \cdot p \cdot q})

Teorema de Moivre

Sea B \approx B(n, p) entonces:

\frac{B - m}{\sqrt{n \cdot p \cdot q}}\rightarrow N(0, 1)
 
Con lo que tenemos que:

E(B) = n \cdot p
 
\xi^2(B) = n \cdot p \cdot q
 
\xi(B) = +\sqrt{n \cdot p \cdot q}
 
Se considera una buena aproximación cuando n \cdot p \geq 5 y n \cdot q \geq 5 y entonces se cumple el Teorema de Moivre con:

B \approx B(n \cdot p, \sqrt{n \cdot p \cdot q})
 
Sin embargo habrá que realizar una corrección por discontinuidad para obtener el valor buscado, tomando -0.5 si buscamos el menor estricto ó +0.5 en cualquier otro caso

Ejemplos:

P\{B < 4\} usaremos P\{B < 3.5\}
 
P\{B \leq 4\} usaremos P\{B \leq 4.5\}
 
P\{B > 4\} usaremos P\{B > 4.5\}
 
P\{B \geq 4\} usaremos P\{B \geq 4.5\}

Teorema del límite central

\xi_1, \cdots, \xi_n \approx v.a.i.i.d. (\mu, \sigma) entonces:

\xi_T = \xi_1 + \cdots + \xi_n \approx v.a. (n \cdot \mu, \sqrt{n} \cdot \sigma) ocurre siempre

Teorema de Lery-Lidenberg

Sea \{\xi_i\}, i \in N sucesión de v.a.i.i.d. entonces:

S_n = \xi_1 + \cdots + \xi_n \approx \frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma} \rightarrow N(0, 1)
 
Se considera una buena aproximación cuando n \geq 30 y entonces se cumple el Teorema de Lery-Lidenberg aproximando por la normal cualquier probabilidad del tipo:

\frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma}

Serie de Taylor para la distribución Normal

Aproximación de Abramowitz y Stegun (1964) conocida como «mejor aproximación de Hastings»

\tiny P(x) = 1 - \phi(x)(b_1 \cdot t + b_2 \cdot t^2 + b_3 \cdot t^3 + b_4 \cdot t^4 + b_5 \cdot t^5) + \epsilon(x)
 
\begin{cases} \phi(x) = \frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2} \\ t = \frac{1}{1 + (b_0 \cdot x)} \\ b_0 = 0.2316419 \\ b_1 = 0.319381530 \\ b_2 = -0.356563782 \\ b_3 = 1.781477937 \\ b_4 = -1.821255978 \\ b_5 = 1.330274429 \\ \|\epsilon(x)\| < 7.5 \cdot 10^{-8} \end{cases}

Sustituyendo nos queda:

\tiny P(x) = 1 - \left(\frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2}\right) \cdot \left(\left(\frac{0.319381530}{1 + 0.2316419 \cdot x}\right) + \left(\frac{-0.356563782}{1 + 0.2316419 \cdot x}\right)^2 + \left(\frac{1.781477937}{1 + 0.2316419 \cdot x}\right)^3 + \left(\frac{-1.821255978}{1 + 0.2316419 \cdot x}\right)^4 + \left(\frac{1.330274429}{1 + 0.2316419 \cdot x}\right)^5 \right) + \epsilon(x)