¿Definición de valor esperado incorrecta en el libro? [duplicar]

Actualmente estoy hospitalizado y leyendo un libro de teoría de colas. Encontré esto en una prueba, y no entiendo cómo es esto cierto:

mi [ R j ] = 0 PAG ( R j > tu ) d tu

Aparte del hecho de que R j es una variable aleatoria definida en [ 0 , ) No creo que se necesite más contexto para mi pregunta.

Debido a mi hospitalización, no tengo buen acceso a mis libros de probabilidad más básicos, pero realmente no recuerdo haber leído ninguna definición alternativa similar para el valor esperado.

Si alguien tiene curiosidad o cree que el contexto es importante, en un proceso de renovación estocástica con tiempos de espera X j , para un valor dado X > 0 , R j Se define como R j = X j cuando X j X , y R j = 0 de lo contrario.

Sin embargo, independientemente del contexto, encuentro que la línea en cuestión es difícil de comprender.

R j es de hecho continuo y positivo, simplemente no entiendo por qué la fórmula es verdadera. La única definición de valores esperados de variables aleatorias continuas con la que estoy familiarizado es mi ( R j ) = tu PAG ( R j = tu ) d tu
Se puede probar (por Fubinii) que para una variable aleatoria no negativa X , ambos Ω X ( ω ) d PAG ( ω ) (es decir, la definición estándar de expectativa) y 0 PAG ( X > t ) d t (es decir, su definición de expectativa) da el mismo resultado. Este último se conoce como representación de pastel de capas y se puede generalizar a mi [ | X | pag ] = 0 pag t pag 1 PAG ( | X | > t ) d t (o incluso más, por ejemplo, funciones de Young)
Gracias por su respuesta, no sabía sobre la representación del pastel de capas, ¡tendré que estudiar sobre eso!
@Surb por qué R j tiene que ser continuo? Tiene que ser no negativo, porque la expresión más general sería mi [ R j ] = 0 PAG ( R j > tu ) d tu 0 PAG ( R j < tu ) d tu
@Henry: De hecho, la continuidad no es obligatoria.

Respuestas (2)

Si X 0 tienes eso

mi [ X ] = Ω X d PAG = R t d F X ( t ) = [ 0 , ) t d F X ( t ) = [ 0 , ) [ 0 , ) [ s t ] d s d F X ( t ) = [ 0 , ) [ 0 , ) [ s t ] d F X ( t ) d s = [ 0 , ) PR [ X s ] d s

dónde [ s t ] es un bracket de Iverson. En general tienes eso

mi [ X ] = Ω X d PAG = R t d F X ( t ) = [ 0 , ) t d F X ( t ) + ( , 0 ) t d F X ( t ) = [ 0 , ) PR [ X s ] d s + ( , 0 ) ( , 0 ) [ s t ] d s d F X ( t ) = [ 0 , ) PR [ X s ] d s ( , 0 ) ( , 0 ) [ s t ] d F X ( t ) d s = [ 0 , ) PR [ X s ] d s ( , 0 ) PR [ X s ] d s

Wow, eso tiene mucho sentido, traté de entenderlo integrando por partes, pero así tiene mucho más sentido. ¡Gracias! :)

Permítanme hacer una demostración manual que llegue a la intuición: un caso discreto para que quede más claro. Digamos que tiene un proceso simple que devuelve X, que es 1, 2 o 3 con probabilidades pag 1 , pag 2 y pag 3 . El valor esperado es 1 pag 1 + 2 pag 2 + 3 pag 3 . Otra forma de escribir esto es así:

1 pag 1 +
1 pag 2 + 1 pag 2 +
1 pag 3 + 1 pag 3 + 1 pag 3
Si lees esta suma por columna , obtienes tres términos: 1 pag 1 + 1 pag 2 + 1 pag 3 , y 1 pag 2 + 1 pag 3 y luego 1 pag 3 . la primera parte es PAG ( X 1 ) , la segunda parte es PAG ( X 2 ) y la tercera parte es PAG ( X 3 ) . Entonces el valor esperado es la suma de las probabilidades de excedencia.

¡Muchas gracias! Esa es una forma muy intuitiva de pensar al respecto.