Derivar la distribución de Poisson a partir de la probabilidad por tiempo del evento

Supongamos que tenemos una probabilidad por tiempo λ que algo (por ejemplo, la descomposición nuclear, la caminata aleatoria da un paso, etc.) sucede. Es un resultado conocido que la probabilidad de que norte Los eventos ocurren en un intervalo de tiempo de longitud T , viene dada por la distribución de Poisson

PAGS ( norte ) = mi λ T ( λ T ) norte norte ! .
¿Cómo probamos esto?

Ja, vi esta pregunta y pensé "raro, habría esperado que Daniel supiera la respuesta a esto". Luego me desplacé hacia abajo...
@Floris, bueno, me tomó un tiempo obtener ayuda con la integral...
Escribí una alternativa que no necesita explícitamente integrales
@Floris sí, y me gusta la relación explícita con la distribución binomial, pero no estoy seguro de que ese enfoque responda directamente a esta pregunta. Tal vez pueda argumentar que muchos pequeños intervalos de tiempo son como muchos intentos de baja probabilidad...
Sí, eso es exactamente lo que argumento. En el límite de infinitas porciones de tiempo con el producto pags norte permaneciendo constante, está haciendo efectivamente la transición de discreto a continuo, sin que parezca que se integra.
@Floris, tu publicación en realidad no presenta ese argumento...
Verdadero. no lo hizo Ahora lo hace.

Respuestas (3)

Distribución de probabilidad del tiempo hasta el próximo evento

Primero calculamos la densidad de probabilidad de que un tiempo t pasa sin que suceda ningún evento. Dividir t dentro norte pequeños intervalos cada uno de longitud d t = t / norte . Definición λ como la probabilidad por tiempo de que ocurra el evento, la probabilidad de que no ocurra ningún evento dentro de cualquier intervalo de tiempo corto es aproximadamente ( 1 λ d t ) . Por lo tanto, la probabilidad de que no ocurra ningún evento en ninguno de los intervalos, pero luego ocurra dentro de un intervalo de longitud d t justo al final de todos los intervalos es

( i = 1 norte ( 1 λ d t ) ) λ d t = ( 1 λ t norte ) norte λ d t = norte λ d t Exp ( λ t ) .
En otras palabras, dada una hora de inicio 0 , la densidad de probabilidad de que ningún evento haya ocurrido después de un tiempo t , pero luego sucede justo en t es λ Exp ( λ t ) .

Probabilidad de múltiples eventos

Ahora preguntamos la probabilidad de que obtengamos norte eventos en el intervalo de tiempo T . Supongamos que el primer evento ocurre en t 1 , el segundo incluso sucede en t 2 , etc. Tenemos por tanto una serie de intervalos

{ [ 0 , t 1 ] , [ t 1 , t 2 ] , [ t norte , T ] }
con eventos que suceden al final de cada intervalo. La probabilidad de que nuestros eventos ocurran de esta manera es
PAGS ( t 1 , t 2 , t norte ) = λ Exp ( λ t 1 ) λ Exp ( λ ( t 2 t 1 ) ) λ Exp ( λ ( T t norte ) ) = λ norte Exp ( λ T ) .
Por supuesto, cualquier disposición de { t 1 , t 2 , t norte } tal que t 1 < t 2 < < t norte cuenta como un norte -disposición de eventos, por lo que tenemos que sumar las probabilidades de todas estas posibles disposiciones, es decir, la probabilidad de norte eventos es
PAGS ( norte  eventos ) = 0 T d t 1 t 1 T d t 2 t norte 1 T d t norte PAGS ( t 1 , t 2 , t norte ) = λ norte Exp ( λ T ) 0 T d t 1 t 1 T d t 2 t norte 1 T d t norte .
La integral múltiple es el volumen de un símplex recto y tiene valor T norte / norte ! , por lo que el resultado final es
PAGS ( norte  eventos ) = ( λ T ) norte Exp ( λ T ) norte !
que es la distribución de Poisson con media λ T .

Relacionado

En su primera derivación debe λ = 1 producir una densidad de probabilidad de 1 en todas partes. Si la densidad de probabilidad de que el evento ocurra en t = t , y no antes, es λ mi λ t d t después yo a metro b d a = 1 PAGS D F ( t ) = mi t d t entonces para cualquier t deberíamos conseguir pags ( t ) = 0 t PAGS D F ( t ) = mi t + 1 no 1 . [edición mod para arreglar MathJax - DZ]
@DW No entiendo este comentario. λ tiene dimensiones de 1/tiempo, por lo que no puede tener valor 1. ¿Podría aclarar?
Perdóname, no estoy criticando tu respuesta ni sugiriendo que estés equivocado, solo estoy tratando de entender tu derivación por mí mismo. no es λ la probabilidad por unidad de tiempo de que algo suceda? ¿Qué pasa si algo está garantizado que sucederá? ¿No correspondería eso a un valor de λ = 1 (la probabilidad por unidad de tiempo de que ocurra el evento es 1)
@DW Sé que no estás criticando. No hay problema. De hecho, el caso que estás describiendo donde el evento siempre ocurre incluso por tiempos infinitesimalmente pequeños correspondería a λ . Puede conectar eso en las diversas ecuaciones en cualquier punto y ver cómo resultan los resultados. ¿Eso ayuda?
Si, gracias. Todavía estoy un poco confundido en cuanto a cómo un evento que tiene una probabilidad de ocurrir en todo momento corresponde a una probabilidad por unidad de tiempo que se acerca al infinito, pero eso es para que lo reflexione.
@DW Bueno, piense en lo que significa "probabilidad por tiempo". Significa que, por tiempos lo suficientemente pequeños d t , la probabilidad de que algo suceda es λ d t . Para cualquier valor fijo de λ , podemos hacer d t lo suficientemente pequeño como para que λ d t 0 . Por lo tanto, la única forma de asegurarse de que siempre suceda algo para cantidades arbitrariamente pequeñas d t Es hacer λ realmente grande, es decir, infinito.
¡Ay, genial! Sí, eso tiene mucho sentido ahora, gracias.
Excelente respuesta, pero ¿podría modificarla para explicar qué es lambda antes de usarla? Todavía estoy un poco confundido con la ecuación en la que aparece por primera vez.
@ user1717828 vea el primer párrafo editado, y avíseme a través de un comentario si está bien ahora.
He aceptado mi propia respuesta porque obtuvo el mayor número de votos. Las otras respuestas también son excelentes, así que échales un vistazo. Me gusta especialmente la respuesta de leonbloy .

La distribución de Poisson describe la probabilidad de un cierto número ( norte ) de eventos improbables ( pags 1 ) sucediendo dado norte oportunidades.

Esto es como hacer un lanzamiento de moneda muy injusto. norte veces, con la probabilidad pags de la moneda que sale cara. El número de cabezas seguiría la distribución binomial:

PAGS ( norte | pags , norte ) =   norte C norte   pags norte ( 1 pags ) norte norte = norte ! ( norte norte ) !   norte ! pags norte ( 1 pags ) norte norte

Ahora falta probar que cuando norte y pags 0 tiempo norte pags λ T , que lo anterior converge al resultado conocido. En esencia, sostengo que cuando haces que el número de oportunidades tienda al infinito, pasas de un enfoque discreto a uno continuo; pero siempre que tenga cuidado con sus infinitos, el resultado aún debería ser válido.

Primero, encontramos una aproximación para ( 1 pags ) norte norte . Tomando el registro, obtenemos

Iniciar sesión ( ( 1 pags ) norte norte ) = ( norte norte ) Iniciar sesión ( 1 pags ) ( norte norte ) ( pags )

Ya que norte norte , obtenemos ( 1 pags ) norte norte mi norte pags

A continuación, aproximamos el   norte C norte término usando la aproximación de Stirling que Iniciar sesión norte ! norte Iniciar sesión norte norte y notando que norte norte

Después

Iniciar sesión ( norte ! ( norte norte ) ! ) = norte Iniciar sesión norte norte ( norte norte ) Iniciar sesión ( norte norte ) + ( norte norte ) = norte Iniciar sesión norte ( norte norte ) Iniciar sesión ( norte norte ) norte = norte Iniciar sesión norte ( norte norte ) ( Iniciar sesión ( norte ) + Iniciar sesión ( 1 norte norte ) ) norte norte Iniciar sesión norte ( norte norte ) ( Iniciar sesión ( norte ) norte norte ) norte norte Iniciar sesión norte + norte norte Iniciar sesión norte norte = norte Iniciar sesión ( norte norte )

Resulta que norte ! ( norte norte ) ! norte ! norte norte norte !

Finalmente, notamos que pags norte = λ T , y obtenemos

PAGS ( norte | norte , pags ) = norte norte pags norte mi norte pags norte !

esto se reorganiza fácilmente para

PAGS ( norte ) = ( λ T ) norte mi λ T norte !

Cuál es el resultado que nos propusimos demostrar.

Hice uso de este artículo para recordarme algunos de los pasos en esto.

Pequeño detalle: en realidad es la aproximación de Stirling, no la de Sterling
De hecho, no se preocupen si les parece mal, el nombre de Max Planck lo deletreé durante años igual que el trozo de madera o el título del cortometraje de Eric Sykes. Y sé alemán bastante bien (o lo suficientemente bien para gran parte de mis comunicaciones para mi trabajo). Tenía 50 años antes de que me corrigieran. Eso no es lo peor. Pasé varios meses o más visitas al Instituto Max Planck antes de darme cuenta.
Me gusta esta respuesta. Sería bueno explicar por qué pags norte = λ T es la forma correcta de pasar del límite de la distribución binomial discreta al caso continuo. De lo contrario, se siente un poco ondulado a mano.

Dejar A t norte ser el evento: exactamente norte eventos puntuales ocurrieron durante un intervalo de tiempo t . Luego, por pequeños Δ t

PAGS ( A t + Δ t norte ) = PAGS ( A t norte A Δ t 0 ) + PAGS ( A t norte 1 A Δ t 1 ) = PAGS ( A t norte ) PAGS ( A Δ t 0 ) + PAGS ( A t norte 1 ) PAGS ( A Δ t 1 )
donde hemos utilizado la independencia de ocurrencia. Ahora, definiendo pags norte ( t ) PAGS ( A t norte ) y λ = límite Δ t 0 pags 1 ( Δ t ) / Δ t , y tomando el límite para Δ t 0 obtenemos

pags norte ( t + d t ) = pags norte ( t ) ( 1 λ d t ) + pags norte 1 ( t ) λ d t

lo que conduce a las ecuaciones diferenciales:

pags norte ( t ) = { λ ( pags norte ( t ) pags norte 1 ( t ) ) norte > 0 λ pags norte ( t ) norte = 0

con las condiciones iniciales

pags norte ( 0 ) = { 0 norte > 0 1 norte = 0 .

La solución viene dada por la distribución de Poisson:

pags norte ( t ) = ( λ t ) norte Exp ( λ t ) norte ! .

Aprendí dos nuevas formas de probar esto hoy, aparte de la respuesta de Floris, que era la que ya conocía :). ¡La más elegante!