Un proceso tipo Ornstein-Uhlenbeck en tiempo discreto

Consideremos un proceso estocástico

X t + 1 = X t + Δ X t
dónde Δ X t es una Gaussiana con media λ X t Δ t y varianza 2 Δ t dónde λ y Δ t son parámetros del modelo.

Entonces podemos escribir la densidad de probabilidad de transición como

PAG ( X t + 1 = X | X t = y ) = 1 4 π Δ t Exp [ [ X y ( 1 λ Δ t ) ] 2 4 Δ t ]

Podemos encontrar la distribución estacionaria de este proceso que tomará la forma

PAG ( X ) = a 2 π mi a X 2 / 2
dónde a depende de los parametros λ y Δ t . Es fácil ver que si escalamos el tiempo por Δ t y en el limite Δ t va a 0 , obtenemos algo como el proceso de Ornstein-Uhlenbeck.

Si inicializamos el proceso en el estado X 0 distribuido como el estado estacionario, y luego quiero que el t -propagador de pasos de este proceso, que es, PAG ( X t = X | X 0 = 0 ) , es fácil ver que esto también será un gaussiano (ya que es una suma de gaussianos). Pero, ¿hay alguna manera de calcular la distribución exactamente?

Respuestas (1)

Así que podría comenzar con el propagador, encadenarlos e integrarlos sobre los valores intermedios y terminará con una versión discretizada de la integral de trayectoria. Sin embargo, esto es bastante tedioso, así que escribamos la ecuación de diferencia estocástica:

Δ X norte = λ Δ t + 2 Δ W norte
Aquí Δ W norte son incrementos gaussianos independientes con varianza Δ t y media 0 ; W 0 = 0 . Note entonces que norte = 0 norte 1 Δ W norte = W norte W 0 = W norte norte ( 0 , Δ t norte ) ya que la varianza es aditiva. Así que supongo que puedes ver a dónde vamos con esto:
X norte X 0 = norte = 0 norte 1 Δ X norte = norte = 0 norte 1 ( λ Δ t + 2 Δ W norte ) = λ Δ t norte + 2 W norte
Entonces X norte se distribuye normalmente con media X 0 λ Δ t norte y varianza 2 Δ t norte .

Ahora nada de esto está relacionado con Orstein--Uhlenbeck. Tal vez en su lugar quisiste decir:

Δ X norte = λ X norte Δ t + 2 Δ W norte
Esto, al igual que lo anterior, se puede resolver de manera muy similar al SDE correspondiente. Comienza por lo más simple: Δ Z norte = λ Z norte Δ t Z norte + 1 = ( 1 λ Δ t ) Z norte Z norte = ( 1 λ Δ t ) norte Z 0 , y así hacemos la sustitución X norte = ( 1 λ Δ t ) norte Y norte a la ecuación original y quedan:
( 1 λ Δ t ) norte + 1 Y norte + 1 ( 1 λ Δ t ) norte Y norte = λ ( 1 λ Δ t ) norte Y norte Δ t + 2 Δ W norte
o reorganizar
Δ Y norte = 2 ( 1 λ Δ t ) norte + 1 Δ W norte
De este modo Y norte es nuevamente solo una suma de normales, tan malo Y 0 y varianza 2 norte = 0 norte 1 ( 1 ( 1 λ Δ t ) 2 ) norte + 1 Δ t = 2 Δ t 1 ( 1 λ Δ t ) 2 norte ( 1 λ Δ t ) 2 1 , y entonces
X norte norte ( X 0 ( 1 λ Δ t ) norte , 2 Δ t ( 1 λ Δ t ) 2 norte 1 ( 1 λ Δ t ) 2 1 )

Para cerrar, algo de código Python:

import numpy as np
import matplotlib.pyplot as plt

dt = .01
N  = 100
l  = .05
X0 = .75

M = 1000000
res = np.zeros(M) + X0
for _ in range(N):
    res += -l*res*dt + np.sqrt(2*dt) * np.random.randn(M)

yy, xx = np.histogram(res, 128, normed=True)
plt.plot(.5*(xx[1:]+xx[:-1]), yy, 'b')
mu    = X0 * (1-l*dt)**N
sigma = np.sqrt(2*dt*(((1-l*dt)**(2*N)-1) / ((1-l*dt)**2 - 1)))
plt.plot(xx, 1./np.sqrt(2*np.pi*sigma**2)*np.exp(-(xx-mu)**2/(2*sigma**2)), 'r-.')

Y los gráficos van uno encima del otro:

solución numérica

Tienes razón, no sé cómo me perdí esa parte crucial de la media de Δ X t Dependiendo de X t .
¿Hay alguna ventaja en considerar 2 Δ W norte dónde Δ W norte tiene varianza Δ t sobre considerando Δ W norte con varianza 2 Δ t ?
@StatisticalMechanic Sin ventaja, solo la convención (el movimiento browniano se define con d t escalado) y, como tal, más explícito y más fácil de seguir.