Archivo de la categoría: Estadística

La estadística es la ciencia formal que estudia usos y análisis provenientes de una muestra representativa de datos, busca explicar las correlaciones y dependencias de un fenómeno físico o natural, de ocurrencia en forma aleatoria o condicional

Distribución Uniforme

Distribución Uniforme

La distribución uniforme surge al considerar que todos los posibles valores dentro de un intervalo son equiprobables. Por lo tanto, la probabilidad de que una variable aleatoria tome valores en un subintervalo es proporcional a la longitud del mismo

Diremos que una variable aleatoria tiene distribución Uniforme en un intervalo finito [a,b][a, b], y lo denotamos como ξU(a,b)\xi \approx U(a, b) si su función de densidad es:

f(x)={1ba, si axb0, en el restof(x)=\begin{cases} \frac{1}{b -a},\text{ si }a\leq x\leq b \\ 0,\text{ en el resto} \end{cases}
 
Su función de probabilidad es:

P{ξ<k}={0, si x<axaba, si axb1, si x>bP\{\xi < k \} = \begin{cases} 0, \text{ si }x < a \\ \frac{x-a}{b-a}, \text{ si }a\leq x\leq b \\ 1, \text{ si } x > b \end{cases}
 
E(ξ)=a+b2E(\xi) = \frac{a+b}{2}
 
σ2(ξ)=(a+b)212\sigma^2(\xi) = \frac{(a+b)^2}{12}
 
σ(ξ)=(a+b)+112\sigma(\xi) = (a+b)\cdot +\sqrt{\frac{1}{12}}

Cálculo de una Uniforme



Distribución Poisson

Distribución Poisson

La distribución Poisson es una v.a. discreta ξ\xi que mide el número de veces que ocurre un suceso en un intervalo de tiempo o espacio y se denota como:

ξP(λ)\xi \approx P(\lambda)
 
Su función de probabilidad es:

P(ξ=k)=eλλkk!,k{0,,n}P(\xi = k ) = e^{-\lambda} \cdot \frac{\lambda^k}{k!}, k \in \{0, \cdots, n\}
 
E(ξ)=λE(\xi) = \lambda
 
σ2(ξ)=λ\sigma^2(\xi) = \lambda
 
σ(ξ)=+λ\sigma(\xi) = +\sqrt{\lambda}

Propiedades

  1. ξ=ξ1+ξ2P(λ)\xi = \xi_1 + \xi_2 \approx P(\lambda) con λ=λ1+λ2\lambda = \lambda_1 + \lambda_2 cuando ξ1,ξ2\xi_1, \xi_2 son v.a. independientes
  2. ξ=ξ1++ξrP(λ)\xi = \xi_1 + \cdots + \xi_r \approx P(\lambda) con λ=λ1++λr\lambda = \lambda_1 + \cdots + \lambda_r cuando ξ1,,ξr\xi_1, \cdots, \xi_r son v.a. independientes

Aproximación de la Binomial a la Poisson

Sea ξP(λ)B(n,p)\xi \approx P(\lambda)\approx B(n, p)
 
Si limn,p0np=λlimn,p0P(ξ=k)=eλλkk!\exists \lim\limits_{n\to\infty, p\to 0}n\cdot p = \lambda \Rightarrow \lim\limits_{n\to\infty, p\to 0}P(\xi = k ) = e^{-\lambda} \cdot \frac{\lambda^k}{k!}
 
con k{0,,n}k \in \{0, \cdots, n\}
 
Es decir, una Binomial, donde el número de pruebas de Bernoulli es grande (n tiende a infinito) y la probabilidad de éxito en cada prueba es pequeño (p tiende a 0) es aproximadamente una Poisson de parámetro λ=np\lambda=n\cdot p
 
Se considera una buena aproximación cuando n50n \geq 50 y p0.1p \leq 0.1

Cálculo de una Poisson



Distribución Normal o de Gauss

Distribución Normal o de Gauss

La distribución normal, distribución de Gauss o distribución gaussiana, es v.a. discreta Z que mide el área comprendida en la función que representa la campana de Gauss

Su función de probabilidad es:

12πσZ+emdx\frac{1}{\sqrt{2 \cdot \pi}\cdot \sigma}\int^{+\infty}_Z e^m dx con m=(xμ)22σ2m =-\frac{(x - \mu)^2}{2 \cdot \sigma^2}
 
E(ξ)=μE(\xi) = \mu
 
σ2(ξ)=σ2\sigma^2(\xi) = \sigma^2
 
σ(ξ)=σ\sigma(\xi) = \sigma

Propiedades de la Normal

  1. Es simétrica con respecto al eje x=μ,P(σ>μ)=P(σ<μ)=12x = \mu, P(\sigma > \mu) = P(\sigma < \mu) = \frac{1}{2}
  2. Cuando x±x \rightarrow \pm\infty tenemos una asíntota general con y=0y = 0
  3. Tiene puntos de inflexión en x=μ=σx = \mu = \sigma
  4. Cualquier v.a. construida como combinación lineal de v.a. normales sigue también una distribución normal

Cálculo de una Normal



Normal tipificada

Sea ξ\xi v.a. llamaremos tipificar a otra v.a. cuando:

Z=ξμξσξZ = \frac{\xi - \mu \cdot \xi}{\sigma \cdot \xi}
 
Si tipificamos una v.a. z tenemos que:

Si ξN(ξ,σ)Z=ξμσN(0,1)\xi \approx N(\xi, \sigma) \Rightarrow Z = \frac{\xi - \mu}{\sigma} \Rightarrow N(0, 1)
 
La función de probabilidad de la normal tipificada es:

P(Z>z)=12πZ+emdxP(Z > z) = \frac{1}{\sqrt{2 \cdot \pi}}\int^{+\infty}_Z e^m dx con m=x22,xRm = -\frac{x^2}{2}, \forall x \in \mathbb{R}
 
E(ξ)=0E(\xi) = 0
 
σ2(ξ)=1\sigma^2(\xi) = 1
 
σ(ξ)=1\sigma(\xi) = 1

Propiedades de la normal tipificada

  1. Es simétrica con respecto al eje x=0,P(σ>0)=P(σ<0)=12x = 0, P(\sigma > 0) = P(\sigma < 0) = \frac{1}{2}
  2. Cuando x±x \rightarrow \pm\infty tenemos una asíntota horizontal
  3. Tiene puntos de inflexión en x=±1x = \pm 1

Cálculo de una Normal tipificada



Notas para la Normal

Sea ξ1,,ξn\xi_1, \cdots, \xi_n \approx v.a. (μi,σi)(\mu_i, \sigma_i) con ξ=a0+a1ξ1++anξn,i{1,,n}\xi = a_0 + a_1 \cdot \xi_1 + \cdots + a_n \cdot \xi_n, \forall i \in \{1, \cdots, n\}

  1. E[ξ]=a0+a1μ1++anμnE[\xi] = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n
  2. σ2[ξ]=a12σ12++anσn2+2a12Cov(ξ1,ξ2)+\sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las ξi\xi_i son independientes ó solo incorreladas σ2[ξ]=a12σ12++anσn2\sigma^2[\xi] = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2
  4. Si además ξiN(μi,σi),i{1,,n}\xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    {ξN(μ,σ) with μ=a0+a1μ1++anμnσ2=a12σ12++anσn2+2a12Cov(ξ1,ξ2)+\begin{cases} \xi \approx N(\mu, \sigma)\text{ with }\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además ξiN(μi,σi),i{1,,n}\xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    {μ=a0+a1μ1++anμnσ2=a12σ12++anσn2\begin{cases}\mu = a_0 + a_1 \cdot \mu_1 + \cdots + a_n \cdot \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 \end{cases}

Sea ξS=ξ1++ξn\xi_S = \xi_1 + \cdots + \xi_n

  1. E[ξS]=μ1++μnE[\xi_S] = \mu_1 + \cdots + \mu_n
  2. σ2[ξS]=σ12++σn2+2Cov(ξ1,ξ2)+\sigma^2[\xi_S] = \sigma_1^2 + \cdots + \sigma_n^2 + 2 \cdot Cov(\xi_1, \xi_2) + \cdots
  3. Si las ξi\xi_i son independientes σ2[ξS]=a12++an2\sigma^2[\xi_S] = a_1^2 + \cdots + a_n^2
  4. Si además ξiN(μi,σi),i{1,,n}\xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} entonces:
    {ξSN(μ,σ) with μ=μ1++μnσ2=a12σ12++anσn2+2a12Cov(ξ1,ξ2)+\begin{cases} \xi_S \approx N(\mu, \sigma)\text{ with }\mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = a_1^2 \cdot \sigma_1^2 + \cdots + a_n \cdot \sigma_n^2 + 2a_{1 2} \cdot Cov(\xi_1, \xi_2) + \cdots \end{cases}
  5. Si además ξiN(μi,σi),i{1,,n}\xi_i \approx N(\mu_i, \sigma_i), \forall i \in \{1, \cdots, n\} e independientes entonces:
    {μ=μ1++μnσ2=σ12++σn2\begin{cases} \mu = \mu_1 + \cdots + \mu_n \\ \sigma^2 = \sigma_1^2 + \cdots + \sigma_n^2\end{cases}

Sea ξS\xi_S v.a. independiente e idénticamente distribuida con ξ1,,ξn\xi_1, \cdots, \xi_n \approx v.a.i.i.d. (μ,σ)(\mu, \sigma) y ξS=ξ1++ξn\xi_S = \xi_1 + \cdots + \xi_n \approx v.a.(nμ,σn)(n \cdot \mu, \sigma \cdot \sqrt{n})

  1. E[ξS]=μ++μn  veces=nμE[\xi_S] = \overbrace{\mu + \cdots + \mu}^{n\;\rm veces} = n \cdot \mu
  2. σ2[ξS]=σ2++σ2n  veces=nσ2\sigma^2[\xi_S] = \overbrace{\sigma^2 + \cdots + \sigma^2}^{n\;\rm veces} = n \cdot \sigma^2
  3. Si las ξi\xi_i son v.a.i.i.d. y normales:
    ξSN(nμ,nσ)\xi_S \approx N(n \cdot \mu, \sqrt{n} \cdot \sigma)

Aproximaciones

Aproximación de la Binomial a la Normal

Sea BB(n,p)B \approx B(n, p)

Con BB \approx número de éxitos en n pruebas de Bernoulli iguales e independientes con probabilidad de éxito p entonces:

BB(np,npq)B \approx B(n\cdot p, \sqrt{n \cdot p \cdot q})

Teorema de Moivre

Sea BB(n,p)B \approx B(n, p) entonces:

BmnpqN(0,1)\frac{B - m}{\sqrt{n \cdot p \cdot q}}\rightarrow N(0, 1)
 
Con lo que tenemos que:

E(B)=npE(B) = n \cdot p
 
ξ2(B)=npq\xi^2(B) = n \cdot p \cdot q
 
ξ(B)=+npq\xi(B) = +\sqrt{n \cdot p \cdot q}
 
Se considera una buena aproximación cuando np5n \cdot p \geq 5 y nq5n \cdot q \geq 5 y entonces se cumple el Teorema de Moivre con:

BB(np,npq)B \approx B(n \cdot p, \sqrt{n \cdot p \cdot q})
 
Sin embargo habrá que realizar una corrección por discontinuidad para obtener el valor buscado, tomando -0.5 si buscamos el menor estricto ó +0.5 en cualquier otro caso

Ejemplos:

P{B<4}P\{B < 4\} usaremos P{B<3.5}P\{B < 3.5\}
 
P{B4}P\{B \leq 4\} usaremos P{B4.5}P\{B \leq 4.5\}
 
P{B>4}P\{B > 4\} usaremos P{B>4.5}P\{B > 4.5\}
 
P{B4}P\{B \geq 4\} usaremos P{B4.5}P\{B \geq 4.5\}

Teorema del límite central

ξ1,,ξn\xi_1, \cdots, \xi_n \approx v.a.i.i.d. (μ,σ)(\mu, \sigma) entonces:

ξT=ξ1++ξn\xi_T = \xi_1 + \cdots + \xi_n \approx v.a. (nμ,nσ)(n \cdot \mu, \sqrt{n} \cdot \sigma) ocurre siempre

Teorema de Lery-Lidenberg

Sea {ξi},iN\{\xi_i\}, i \in N sucesión de v.a.i.i.d. entonces:

Sn=ξ1++ξnSnnμnσN(0,1)S_n = \xi_1 + \cdots + \xi_n \approx \frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma} \rightarrow N(0, 1)
 
Se considera una buena aproximación cuando n30n \geq 30 y entonces se cumple el Teorema de Lery-Lidenberg aproximando por la normal cualquier probabilidad del tipo:

Snnμnσ\frac{S_n - n \cdot \mu}{\sqrt{n} \cdot \sigma}

Serie de Taylor para la distribución Normal

Aproximación de Abramowitz y Stegun (1964) conocida como «mejor aproximación de Hastings»

P(x)=1ϕ(x)(b1t+b2t2+b3t3+b4t4+b5t5)+ϵ(x)\tiny P(x) = 1 - \phi(x)(b_1 \cdot t + b_2 \cdot t^2 + b_3 \cdot t^3 + b_4 \cdot t^4 + b_5 \cdot t^5) + \epsilon(x)
 
{ϕ(x)=12πe(12)x2t=11+(b0x)b0=0.2316419b1=0.319381530b2=0.356563782b3=1.781477937b4=1.821255978b5=1.330274429ϵ(x)<7.5108\begin{cases} \phi(x) = \frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2} \\ t = \frac{1}{1 + (b_0 \cdot x)} \\ b_0 = 0.2316419 \\ b_1 = 0.319381530 \\ b_2 = -0.356563782 \\ b_3 = 1.781477937 \\ b_4 = -1.821255978 \\ b_5 = 1.330274429 \\ \|\epsilon(x)\| < 7.5 \cdot 10^{-8} \end{cases}

Sustituyendo nos queda:

P(x)=1(12πe(12)x2)((0.3193815301+0.2316419x)+(0.3565637821+0.2316419x)2+(1.7814779371+0.2316419x)3+(1.8212559781+0.2316419x)4+(1.3302744291+0.2316419x)5)+ϵ(x)\tiny P(x) = 1 - \left(\frac{1}{\sqrt{2 \cdot \pi}} \cdot e^{-\left(\frac{1}{2}\right) \cdot x^2}\right) \cdot \left(\left(\frac{0.319381530}{1 + 0.2316419 \cdot x}\right) + \left(\frac{-0.356563782}{1 + 0.2316419 \cdot x}\right)^2 + \left(\frac{1.781477937}{1 + 0.2316419 \cdot x}\right)^3 + \left(\frac{-1.821255978}{1 + 0.2316419 \cdot x}\right)^4 + \left(\frac{1.330274429}{1 + 0.2316419 \cdot x}\right)^5 \right) + \epsilon(x)