Estadísticos de orden

Los estadísticos de orden de una muestra aleatoria $X_{1}, X_{2}, \ldots, X_{n}$ son los valores muestrales puestos en orden ascendente, los cuales se denotan como $X_{(1)}, X_{(2)}, \ldots, X_{(n)}$ tal que $X_{(1)} \leq X_{(2)} \leq \ldots \leq X_{(n)}$.

Ahora si $X_{(1)}, X_{(2)}, \ldots, X_{(n)}$ son los estadísticos de orden de una muestra aleatoria $X_{1}, X_{2}, \ldots, X_{n}$ de una población continua con función de densidad de probabilidad $f(x)$ y función de distribución acumulada $F(x)$, entonces la función de densidad de probabilidad del j-ésimo estadístico de orden $x_{(j)}$ está dada por \begin{align*} f_{j}(x_j) = \frac{n!}{(j-1)!(n-j)!} f(x_j) [F(x_j)]^{j-1}[1-F(x_j)]^{n-j} \quad \text{ para } -\infty < x_j < \infty \end{align*}

Ejercicio

Sea \(X_1, X_2, \ldots, X_8\) una muestra aleatoria iid de una distribución uniforme continua, definida en el intervalo \((0,4)\) tal que \[\begin{align*} f(x) = \frac{1}{4} \quad \text{ para } 0\leq x \leq 4 \end{align*}\] Encuentre la función de densidad para el séptimo estadístico de orden, y con éste calcule la probabilidad de que el valor de este estadístico de orden sea lo más de \(3.2\).

Solución

Con el fin de encontrar la función de densidad del séptimo estadístico de prueba, es necesario encontrar primero la función de distribución acumulada de la distribución uniforme definida en el intervalo \((0,4)\), tal que \[\begin{align*} F(x) &= \int_{0}^x f(t) dt\\ &= \int_{0}^x\frac{1}{4} dt\\ &= \frac{t}{4} \Bigg|_{0}^x\\ &= \frac{x}{4} \quad \text{ para } 0 \leq x \leq 4 \end{align*}\] Conocido el tamaño de la muestra \(n = 8\), la función de densidad de probabilidad y la función de distribución acumulada de la distribución uniforme continua definida en el intervalo \((0,4)\), se procede al cálculo de la función de probabilidad del séptimo estadístico de orden \((j=7)\), tal que \[\begin{align*} f_{7}(x_7) &= \frac{8!}{(7-1)!(8-7)!} f(x_7) [F(x_7)]^{7-1}[1-F(x_7)]^{8-7} \\ &= 56 \left(\frac{1}{4}\right) \left[\frac{x_7}{4}\right]^{6}\left[1-\frac{x_7}{4}\right]^{1}\\ &= 56 \left(\frac{1}{4}\right)^8x_7^6\left(4-x_7\right)\\ &= \frac{7}{8192}x_7^6\left(4-x_7\right) \quad \text{ para } \quad 0 < x_7 < 4 \\ \end{align*}\] Y ya con esta función de probabilidad se procede a realizar el cálculo de la la probabilidad del séptimo estadístico de orden sea a lo más de \(3.2\), tal que \[\begin{align*} \mathbb{P}(x_7 \leq 3.2) &= \int_{0}^{3.2} f_{7}(x_7) dx_7\\ &= \int_{0}^{3.2} \frac{7}{8192}x_7^6\left(4-x_7\right) dx_7\\ &= \frac{7}{8192} \left(\frac{4x_7^7}{7} - \frac{x_7^8}{8}\right) \Bigg|_{0}^{3.2} \\ &=\frac{7}{8192} \left(\frac{4(3.2 - 0)^7}{7} - \frac{(3.2 - 0)^8}{8}\right) \\ &=\frac{7}{8192} \left(\frac{4(3.2)^7}{7} - \frac{(3.2)^8}{8}\right) \\ &= 0.50331648 \\ \end{align*}\] Y por tanto se tendrá una probabilidad del \(50.33\%\) de que el séptimo estadístico de prueba de una variable aleatoria uniforme definida en el intervalo \((0,4)\) sea a lo más de \(3.2\).

Convergencia de variables aleatorias

El término convergencia hace referencia a que a medida que el tamaño de una secuencia de variables aleatorias $X_1, X_2, X_3, \ldots$ es más y más grande, se espera que el valor de $X_n$ se acerque cada vez más a una variable aleatoria $X$ a medida que $n\to\infty$

Para entender el concepto de convergencia, suponga una variable aleatoria desconocida $X$ la cual deseamos conocer su valor. Como la variable aleatoria no puede observarse directamente, se decide realizar algún tipo de medición y obtener una estimación de $X$ la cual podemos llamar $X_1$. Luego se realiza otra medición y se actualiza la estimación que se tenía de $X$, la cual llamamos $X_2$. Entonces si se continúa este proceso, para obtener las estimaciones $X_1, X_2, X_3, \ldots$, se espera entonces que a medida que $n$ aumenta, la estimación $X_n$ para $X$ se acercará cada vez más al valor real, es decir, se espera que $X_n$ converja a $X$ cuando $n\to\infty$.

Aunque el supuesto de que el tamaño de una muestra se acerque a infinito es un supuesto poco realista y se usa meramente como un concepto teórico, a menudo este tipo de supuestos puede proporcionar algunas aproximaciones útiles para el caso en el cual la muestra sea finita, ya que las expresiones suelen simplificarse en el límite.

Existen varios tipos de convergencia en la teoría de probabilidad, y el objetivo será conocer la forma en que éstos se relacionan unos con otros, debido a que existe una jerarquía entre los tipos de convergencia que hace que algunos tipos sean más fuertes que otros, lo cual genera que una secuencia pueda converger en un sentido pero no otro.

Tipos de Convergencia

Convergencia en Distribución

Sea $X_1, X_2, X_3, \ldots$ una secuencia de variables aleatorias, y sea $X$ una variable aleatoria definida en el espacio muestral, entonces, si $F_{X_{n}}$ y $F_{X}$ son las funciones de distribución acumulada de $X_n$ y $X$ respectivamente, se tendrá que $X_n$ converge en distribución a $X$, si \begin{align*} \lim_{n\to\infty} F_{X_{n}}(x) = F_{X}(x) \end{align*} para todos los puntos $x$ donde $F_{X}(x)$ está definida. En tal caso se escribirá que $X_n\stackrel{d}{\to}X$.

Ejercicio

Sea \(X_2, X_3, x_4, \ldots\) una secuencia de variables aleatorias distribuidas, tal que \[\begin{align*} F_{X_i}(x)=1-\left(1-\frac{1}{i}\right)^{ix} \text{ para } x>0 \end{align*}\] muestre que \(X_n\) converge a una distribución \(Exp(1)\).

Solución

Sea \(X\sim Exp(1)\), entonces si aplicamos límite a \(F_{X_n}(x)\) se tendrá que para \(x\geq 0\) \[\begin{align*} \lim_{n\to\infty}F_{X_n}(x)&=\lim_{n\to\infty}\left[1-\left(1-\frac{1}{n}\right)^{nx}\right] \\ &=1-\lim_{n\to\infty}\left(1-\frac{1}{n}\right)^{nx} \\ &=1-e^{-x} \\ &=F_{X}(x) \text{ para todo } x \end{align*}\] concluyendo que \(X_{n}\stackrel{d}{\to}X\).

Convergencia en Probabilidad

Sea $X_1, X_2, \ldots$ una secuencia de variables aleatorias, y sea $X$ una variable aleatoria definida en el espacio muestral, entonces, se tendrá que $X_1, X_2, \ldots$ convergen en probabilidad a $X$, si para todo $\varepsilon>0$ \begin{align*} \lim_{n\to\infty} \mathbb{P}(|X_n - X| \geq \varepsilon) = 0 \end{align*}

o equivalentemente \begin{align*} \lim_{n\to\infty} \mathbb{P}(|X_n - X| < \varepsilon) = 1 \end{align*}

En tal caso se escribirá que $X_n\stackrel{p}{\to}X$.

Ejercicio

Sea \(X_1, X_2, \ldots\) una secuencia de variables aleatorias distribuidas exponencialmente de la forma \(X_i \sim Exp(\lambda=i)\), entonces demuestre que \(X_n \stackrel{p}{\to} 0\), es decir, demuestre que la secuencia \(X_1, X_2, \ldots\) converge en probabilidad a la variable aleatoria \(X=0\).

Solución

Como tenemos que \(X_n \sim Exp(\lambda=n)\) y \(X_n \geq 0\) entonces \[\begin{align*} \lim_{n\to\infty}\mathbb{P}(|X_n - 0| \geq \varepsilon) &= \lim_{n\to\infty}\mathbb{P}(X_n \geq \varepsilon) \\ &= \lim_{n\to\infty}e^{-n\varepsilon} \\ &= 0 \quad \text{ para todo } \varepsilon >0\\ \end{align*}\] concluyendo que \(X_n\stackrel{p}{\to}X\).

Ley de los grandes números

La ley de los grandes números tiene un papel muy central en la probabilidad y la estadística, puesto que éste establece que si repite un experimento de forma independiente una gran cantidad de veces y promedia el resultado, lo que obtenga debe estar cerca del valor esperado.

Existen dos versiones principales de la ley de los grandes números, a saber, la ley débiles de los grandes números y la ley fuertes de los grandes números, en donde la diferencia de ambas leyes es principalmente teórica.

Teorema: Ley débil de los grandes números

Sea $X_1, X_2, \ldots, X_n$ una secuencia de variables aleatorias iid con media y varianza finita tal que $\mathbb{E}(X_i) = \mu<\infty$, $Var(X_i) = \sigma^2 <\infty$ entonces para todo $\varepsilon > 0$ se tendrá que \begin{align*} \lim_{n\to \infty} \mathbb{P}(|\bar{X} - \mu| \geq \varepsilon) =0 \end{align*} en donde $\bar{X}$ representa a la media muestral, con media y varianza dadas por \begin{align*} \mathbb{E}(\bar{X}) =\mu \quad \quad Var(\bar{X}) = \frac{\sigma^2}{n} \end{align*}

En tal caso se escribirá que $\bar{X}\stackrel{p}{\to}\mu$.

Ejercicio

Sea \(X_1, X_2, \ldots, X_n\) una secuencia de variables aleatorias iid con media dada por \(\mathbb{E}(X_i) = \mu\) y varianza dada por \(Var(X_i) = \sigma^2\), demuestre que \(\bar{X} \stackrel{p}{\to}\mu\).

Solución

Como tenemos que \(\bar{X}\) posee una media de \(\mathbb{E}(\bar{X}) =\mu\) y una varianza de \(Var(\bar{X}) = \frac{\sigma^2}{n}\), entonces se tendrá que para todo \(\varepsilon > 0\) \[\begin{align*} \mathbb{P}(|\bar{X} - \mu| \geq \varepsilon) &= \mathbb{P}((\bar{X} - \mu)^2 \geq \varepsilon^2) \\ &\leq \frac{\mathbb{E}[(\bar{X} - \mu)^2]}{\varepsilon^2} \quad \text{ (Por teorema de Chebyshev)} \\ &\leq \frac{Var(\bar{X})}{\varepsilon^2} \\ &\leq \frac{\sigma^2}{n\varepsilon^2} \end{align*}\] y por tanto al aplicar límite cuando \(n\to\infty\) se tendrá que \[\begin{align*} \lim_{n\to\infty}\mathbb{P}(|\bar{X} - \mu| \geq \varepsilon) &\leq \lim_{n\to\infty}\frac{\sigma^2}{n\varepsilon^2} \\ \lim_{n\to\infty}\mathbb{P}(|\bar{X} - \mu| \geq \varepsilon) &=0 \quad \text{ para todo } \varepsilon>0 \end{align*}\] concluyendo que \(\bar{X}\stackrel{p}{\to} \mu\)

Convergencia en Media

Sea $r\geq 1$ un número fijo, entonces la secuencia de variables aleatorias $X_1, X_2, X_3, \ldots$ convergen en la $r$-ésima media o en la $L^r$ forma a la variable aleatoria $X$, si $\mathbb{E}(|X_n|^r)<\infty$ y \begin{align*} \lim_{n\to \infty} \mathbb{E}(|X_n - X|^r) =0 \end{align*}

En tal caso se escribirá que $X_n\stackrel{L^r}{\to}X$. Si $r=2$ se llama convegencia de media cuadrática y se escribiría $X_n\stackrel{m.c}{\to}X$

Nota: Si una sucesión de variables aleatorias converge en media de orden $r$, entonces también converge en media en ordenes menores a $r$.

Ejercicio

Sea \(X_1, X_2, \ldots\) una secuencia de variables aleatorias distribuidas exponencialmente de la forma \(X_i\sim Unif(0,\frac{1}{i})\), muestre que \(X_{n}\stackrel{L^r}{\to}0\) para cualquier \(r\geq1\), es decir, demuestre que la secuencia \(X_1, X_2, \ldots\) converge en la `$r$`-ésima media a la variable aleatoria \(X=0\)

Solución

Para demostrar esto, defina la función de probabilidad de \(X_{n}\) tal que \[\begin{align*} f_{X_n}(x)= n \text{ para } 0\leq x \leq \frac{1}{n} \end{align*}\] entonces se tendrá que \[\begin{align*} \mathbb{E}(|X_n - 0|^r) &= \mathbb{E}(X_n^r)\\ &= \int_{0}^{\frac{1}{n}} x^r f_{X_n}(x)\ dx\\ &= \int_{0}^{\frac{1}{n}} x^r n\ dx\\ &= \frac{1}{(r+1)n^r} \\ \end{align*}\] y por tanto al aplicar límite cuando \(n\to\infty\) se tendrá que \[\begin{align*} \lim_{n\to \infty} \mathbb{E}(|X_n - 0|^r) &= \lim_{n\to \infty} \frac{1}{(r+1)n^r} \\ &= 0 \quad \text{ para todo } r\geq 1 \\ \end{align*}\] concluyendo que \(X_n\stackrel{L^r}{\to} 0\)

Convergencia Casi Segura

Sea $X_1, X_2, \ldots$ una secuencia de variables aleatorias definidas en el espacio muestral $S = \{s_1, s_2,\ldots, s_k\}$, y sea $X$ una variable aleatoria definida en el espacio muestral, entonces, se tendrá que $X_1, X_2, \ldots$ convergen casi seguramente a $X$, si para todo $\varepsilon>0$ \begin{align*} \mathbb{P}\left(\{s\in S:\lim_{n\to \infty}|X_n(s) - X(s)|^r < \varepsilon\} \right) = 1 \end{align*}

o equivalentemente \begin{align*} \mathbb{P}\left(\{s\in S:\lim_{n\to \infty}X_n(s) = X(s)\}\right) = 1 \end{align*}

En tal caso se escribirá que $X_n\stackrel{cs}{\to}X$.

Ejercicio

Sea el espacio muestral \(S\) definido en el intervalo \([0,1]\) y sea \(X_1, X_2, \ldots\) una secuencia de variables aleatorias distribuidas de la forma \(X_i(s)=s^{i}\), muestre que \(X_{n}\stackrel{cs}{\to}0\), es decir, demuestre que la secuencia \(X_1, X_2, \ldots\) converge casi seguramente a la variable aleatoria \(X(s)=0\)

Solución

Para demostrar esto defina un punto muestral fijo \(s\in[0,1)\), entonces la secuencia de variables aleatoria \(X_n(s)\) tendrá límite igual a \[\begin{align*} \lim_{n\to \infty} X_n(s)=\lim_{n\to \infty} s^{n} = 0 \end{align*}\] sin embargo, si \(s=1\), la secuencia de variables aleatorias \(X_n(s)\) tendrá límite igual a \[\begin{align*} \lim_{n\to \infty} X_n(1)=\lim_{n\to \infty} 1^{n} = 1 \end{align*}\] Lo cual significa que la secuencia de variables aleatorias \(X_n\) no convergerá puntualmente a \(X\) cuando \(s=1\) porque \[\begin{align*} \lim_{n\to \infty} X_n(1)=1 \neq X(1)=0 \end{align*}\] Ahora, como la probabilidad puntual para la igualdad de este límite cuando \(s=1\) es igual a \(0\), \[\begin{align*} \mathbb{P}\left(\{s=1:\lim_{n\to \infty}X_n(1) = X(1)\}\right) = 0 \end{align*}\] significa que para \(s\in [0,1)\), \(X_n(s)\) convergerá casi seguramente a \(X(s)\) ya que \[\begin{align*} \mathbb{P}\left(\{s\in[0,1):\lim_{n\to \infty}X_n(s) = X(s)\}\right) = 1 \end{align*}\] concluyendo que \(X_n\stackrel{cs}{\to} 0\)

Teorema: Ley fuerte de los grandes números

Sea $X_1, X_2, \ldots, X_n$ una secuencia de variables aleatorias iid con media y varianza finita tal que $\mathbb{E}(X_i) = \mu<\infty$, $Var(X_i) = \sigma^2 <\infty$ entonces para todo $\varepsilon > 0$ se tendrá que \begin{align*} \mathbb{P}\left(\lim_{n\to \infty}|\bar{X} - \mu| < \varepsilon \right) = 1 \end{align*} en donde $\bar{X}$ representa a la media muestral, con media y varianza dadas por \begin{align*} \mathbb{E}(\bar{X}) =\mu \quad \quad Var(\bar{X}) = \frac{\sigma^2}{n} \end{align*}

En tal caso se escribirá que $\bar{X}\stackrel{cs}{\to}\mu$.