Desde Bernouilli hasta la Exponencial


Imagen de Jakub Orisek en Pixabay

Introducción a la discusión

En este ejercicio vamos a estudiar como se relacionan modelos a priori estancos como un simple Bernouilli con la distribución exponencial. Como pensando en sucesos singulares, que se repiten en el tiempo, podemos llegar a entender la distribución de los tiempos de espera entre esos sucesos. Empecemos…

Supongamos que estamos observando un suceso aleatorio, cuyo resultado es binario, digamos 0 ó 1, con una probablidad de éxito p. Este suceso se repite a lo largo del tiempo. Y podemos medir cuantos sucesos tienen éxito en un determinado espacio temporal. Y hemos de dar por hecho que no es posible que se ejecuten dos sucesos en el mismo instante de tiempo. Esta aproximación la podemos asumir «estirando» la escala de tiempo. Buscaríamos una unidad de tiempo más pequeña que consiga que esos sucesos estén separados. Por ejemplo : si el suceso que estamos estudiando es «un coche pasa por este determinado carril» y usamos como unidad de tiempo un minuto nos encontraremos, con alta probabilidad, que en determinados minutos pasan dos o más vehículos, luego recortaríamos la franja de tiempo a los segundos necesarios y suficientes para que no nos enfrentáramos con esa situación.

Empezamos la observación

Nos abstraemos del valor absoluto del intervalo de tiempo, nos da lo mismo si es un \mu segundo o son los 365 días del año, la condición necesaria implica que el suceso sólo puede ocurrir una vez en ese intervalo de tiempo. La probabilidad de que tenga éxito es p, equivalente a probabilidad de no éxito q=1-p. Y queremos medir cuantos sucesos en n intervalos han tenido éxito. La variable aleatoria es X y el número de sucesos exitosos k.

Este experimento se puede modelar como una binomial de n experimentos tipo Bernouilli, que nos da una probabilidad de que obtengamos k éxitos dentro de las n pruebas tal que :

P(X=k) =  {\displaystyle {n \choose k}}p^{k} \times (1-p)^{(n-k)}

Y ya lo tenemos!…sabemos el número de experimentos que realizamos, n y sabemos la tasa de que sea exitoso, p con lo que podemos fácilmente calcular la probabilidad de que tengamos k éxitos.

..y si no sabemos cuantos experimentos se están realizando?

Por un momento pensemos en el ejemplo del coche, ¿hemos elegido bien el nº de experimentos?…es posible que se solapen? ¿sabemos cual es la probabilidad que hemos denominado de éxito?, ¿y si solo conocemos el ratio de éxito en un determinado tiempo?. Como por ejemplo: el nº de coches por hora….en este caso conoceríamos una tasa \lambda que será igual al numero de experimentos por la probabilidad de éxito. Esa tasa es en realidad el producto de \lambda = n \times p pero es importante resaltar que no conocemos ni n ni p, solo conocemos su producto.

Hagamos a continuación este cambio: apliquemos esta última expresión al resultado de la Binomial.

P(X=k) = {\displaystyle {n \choose k}}p^{k} \times (1-p)^{(n-k)} = \dfrac{n!}{k!\,(n-k)!}\left (\dfrac{\lambda}{n}\right)^{k}\left(1-\dfrac{\lambda}{n}\right)^{(n-k)}

Y ahora, recordando que no conocemos ni n ni p consideremos que n\to\infty y p es lo suficientemente bajo para mantener la tasa \lambda bajo control, a efectos prácticos significa que observamos un nº muy elevado de experimentos, cada uno en un intervalo de tiempo muy corto, y con una probabilidad de éxito muy baja. Aplicamos límites en la expresión anterior, veamos que nos encontramos:

\lim\limits_{n\to\infty} P(X=k) = \lim\limits_{n\to\infty} {n \choose k}p^{k} \times (1-p)^{(n-k)} =  \lim\limits_{n\to\infty} \left[ \dfrac{n!}{k!\,(n-k)!}\left (\dfrac{\lambda}{n}\right)^{k}\left(1-\dfrac{\lambda}{n}\right)^{(n-k)} \right]

podemos sacar de límite las expresiones no afectadas por n : \lambda^k y \dfrac{1}{k!}, luego nos queda una expresión tal que :

\lim\limits_{n\to\infty} P(X=k) = \dfrac{\lambda^k}{k!} \lim\limits_{n\to\infty}  \left[ \dfrac{n!}{(n-k)!}\left( \dfrac{1}{n^k}\right) \left(1-\dfrac{\lambda}{n}\right)^{n}  \left(1-\dfrac{\lambda}{n}\right)^{-k} \right]

Sabemos que, en general, y si estos existen, el límite de un producto de funciones es equivalente al producto de los límites. Luego vamos a descomponer esa expresión en tres funciones y calcularemos, entonces, el límite de cada una:

Empezamos por \lim\limits_{n\to\infty}  \dfrac{n!}{(n-k)!} \dfrac{1}{n^k} que los podemos descomponer en : \lim\limits_{n\to\infty} \dfrac{n(n-1)(n-2)\cdot\cdot\cdot(n-k+1)(n-k)(n-k-1)(n-k-2)\cdot\cdot\cdot(3)(2)(1)}{(n-k)(n-k-1)(n-k-2)\cdot\cdot\cdot(3)(2)(1)}\left(\dfrac{1}{n^k}\right)

Podemos comprobar que hay igual número de terminos de n en el denominador que en el numerador, que es equivalente a decir que ambos términos son del mismo orden, de orden k de hecho, luego por L’Hopital podemos ver que ese límite es 1 al tender n a \infty.

Vamos a por la segunda expresión: \lim\limits_{n\to\infty} \left(1-\dfrac{\lambda}{n}\right)^{n}

Vamos a realizar una sustitución de variable para resolver este límite. Vamos a llamar x a -\frac{n}{\lambda} con lo que la expresión queda tal que \lim\limits_{n\to\infty} \left(1-\dfrac{\lambda}{n}\right)^{n} = \lim\limits_{x\to\infty}\left(1+\dfrac{1}{x}\right)^{-x\lambda}. Podemos ver que es equivalente al número e elevado a la potencia de -\lambda, luego el límite que buscamos es e^{-\lambda}.

Finalmente calculemos el valor de la tercera expresión : \lim\limits_{n\to\infty}  \left(1-\dfrac{\lambda}{n}\right)^{-k} , en la que claramente vemos que el segundo sumando, con n en el denominador, tiende a cero. Luego el valor de este límite es 1.

Aplicando los tres resultados anteriores llegamos a la siguiente expresión: \lim\limits_{n\to\infty} P(X=k) = \dfrac{\lambda^k}{k!} \times{1}\times e^{-\lambda} \times 1 = \dfrac{\lambda^k}{k!} e^{-\lambda} que equivale al PDF de una distribución de Poisson. En la que \lambda representa la tasa de sucesos «exitosos» en un determinado intervalo, y k representa el número de sucesos «exitosos» del que queremos calcular la probabilidad. Ojo con este concepto de «suceso exitoso», siguiendo el ejemplo de paso de coches indicaría que un coche ha pasado, mientras no están pasando coches están sucediendo n\to\infty «sucesos no exitosos», vemos claramente aquí que no conocemos ni este n de sucesos ni la probabilidad p de que sea exitosa, tan solo conecemos la tasa \lambda en un determinado intervalo : 3 coches por minuto, o 180 coches por hora como ejemplo. Mientras vemos el carril vacío podemos asimilarlo a que están ejecutándose sucesos aleatorios sin éxito.

Hemos pensado en como modelar un determinado suceso aleatorio, partiendo de un nº conocido de sucesos n con una probabilidad conocida p, hemos «retorcido» el problema asumiendo que no conocemos ninguno de esos dos parámetros, pero su producto \lambda que nos indica el número, en valor absoluto, de sucesos exitosos en un determinado intervalo de tiempo, y hemos visto como esa distribución se convierte en una Poisson.

¿Y si nos preguntamos cual será el tiempo entre esos sucesos? ¿cómo calculamos el tiempo entre cada paso de coches?

De Poisson a la Exponencial

Photo by Jordan Benton on Pexels.com

De la expresión anterior: \lim\limits_{n\to\infty} P(X=k)  = \dfrac{\lambda^k}{k!} e^{-\lambda} podemos sacar el valor correspondiente a k=0, \lim\limits_{n\to\infty} P(X=0) = \dfrac{\lambda^0}{0!} e^{-\lambda} = e^{-\lambda}

¿Qué nos indica este número?, es la probabilidad de que no pase ningún coche en el intervalo de tiempo al que hace referencia la tasa \lambda, si está indicaba 3 coches/minuto, e^{-\lambda}=e^{-3}\approx 0.05 nos indica la probabilidad de que ningún coche pase en un minuto. Podemos jugar con esa expresión y pensar en la probabilidad de que no pase ningún coche, no sólo en ese minuto, sino en 10 minutos por ejemplo. En ese caso deberíamos multiplicar esa expresión 10 veces : {\displaystyle P(\text{no coche en 10 minutos}) = P(\text{no  coche  en  un  minuto}) \times 10 = e^{-3}e^{-3}\cdot\cdot\cdot e^{-3}=e^{-3\times10}=e^{-30}} (recordemos que una de las características de las distribuciones de Poisson es la «no memoria», que permite hacer esta suposición de 10x). Y generalizando podemos asegurar que la probabilidad de que no haya un suceso exitoso en un tiempo t es e^{-\lambda t}. Visto de otra manera nos indica la probabilidad de que el tiempo «de espera» sea superior a t, es decir: P(T>t) = e^{-\lambda t} siendo t la variable de unidades de tiempo sobre la que está presentada la tasa \lambda.

La expresión P(T>t) = e^{-\lambda t} la podemos escribir tal que: P(T<t) = 1-e^{-\lambda t} . Lo que estamos indicando aquí es la probabilidad de que el tiempo de espera entre sucesos sea menor que un determinado tiempo t…y esa expresión es la Cumulative Density Function (CDF) de la variable tiempo de espera. Sabemos que la Probability Density Function (PDF) es la derivada de la CDF, luego :

F_{PDF}(T)=\dfrac{d}{dt}\left(1-e^{-\lambda t}\right) = \lambda e^{-\lambda T} que el la PDF de una distribución exponencial.

Recordemos que hemos empezado con un suceso Bernouilli con probabilidad de éxito p y hemos terminando con el modelado de tiempo de espera entre sucesos.

Este cadena entre modelos es lo que más me ha gustado durante la preparación de este trabajo. Siempre pensé en modelos «estancos» y hemos visto que no siempre es así, y como modelos aparentemente inconexos no dejan de ser casos particulares, o relacionados en la medida de algún parámetro.

…memoryless?

En un determinado momento he mencionado que el proceso de Poisson «no tiene memoria», ¿qué significa eso?: que el tiempo de espera hasta observar un suceso exitoso es independiente del tiempo que llevamos observando, del tiempo que llevamos esperando a que suceda.

Matemáticamente se puede expresar tal que: P(T>m+n\mid T>n)=P(T>m), que viene a decir que la probabilidad de que el tiempo de espera sea superior a 3+2 minutos habiendo ya pasado 2 minutos (es decir, que en ese momento nos queden por esperar 3 minutos) es equivalente al tiempo de espera de 3 minutos aunque no hayan pasado esos dos minutos. Comprobémoslo: P(T>m+n\mid T>n)=\dfrac{P(T>m+n)}{P(T>n)} por el teorema de probabilidad condicional. Si aplicamos la expresión de la CDF que calculamos en el capítulo anterior podemos llegar a que: P(T>m+n \mid T>n)=\dfrac{P(T>m+n)}{P(T>n)} = \dfrac{e^{-\lambda (m+n)}}{e^{-\lambda n}}=e^{-\lambda (m+n-n)}=e^{-\lambda m} = P(T>m)

Y es esta una de las característas que hacen difícil modelas sucesos como poisonianos. Un ejemplo muy utilizado es el de llegada de autobús a una parada: el tiempo de espera es independiente del momento en el que lleguemos: pues no!..los autobuses tienen una determinada cadencia de salida, y por muchos eventos aleatorios que vayan sucediendo, esa cadencia se va manteniendo a lo largo de la jornada.

A lo largo de este trabajo he intentado mostrar como llegar a las expresiones de las distribuciones de Poisson y Exponencial reflexionando sobre los sucesos aleatorios imples que la componen. Y como, en particula,r, la distribución de Poisson es una Binomial en la que n tiende a infinito.

Deja una respuesta

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.