¿Por qué el ruido de Johnson es un proceso gaussiano?

Con frecuencia se supone que los procesos de ruido en ingeniería y física son procesos gaussianos . Esto permite el uso de técnicas analíticas convenientes. Entonces surge la pregunta de por qué los procesos naturales son gaussianos. En particular, me gustaría entender por qué el ruido eléctrico de Johnson es un proceso gaussiano.


Posible línea de razonamiento

Una línea que encontré es que el proceso de Ornstein-Uhlenbeck es gaussiano y satisface la ecuación de Fokker Planck . Esto podría sugerir que cualquier proceso físico que obedezca a la ecuación de Fokker Planck es un proceso de Ornstein-Uhlenbeck y, por lo tanto, un proceso gaussiano. Sin embargo, esto aún deja la pregunta de por qué el ruido de Johnson obedece a la ecuación de Fokker Planck.

Una pregunta relacionada obvia es si el ruido de Johnson es o no un proceso de Ornstein-Uhlenbeck.

El argumento que recuerdo es del Teorema del Límite Central en la forma de que, para un gran número de eventos, la distribución de Poisson tiende a coincidir con la distribución de Gauss.
Por favor, deje que mi mano de espuma gigante que gesticula salvajemente lance los términos "emisores no correlacionados" y "teorema del límite central" en la refriega. Aunque es una muy buena pregunta.
@ThePhoton Gaussian distribuido en un momento determinado no es lo mismo que ser un proceso gaussiano. Al menos, no lo creo. Entiendo que el teorema del límite central explica por qué tantas cosas en física son gaussianas; cualquier variable que sea una suma de muchas otras variables siempre es gaussiana, pero nuevamente (creo) eso no es lo mismo que ser un proceso gaussiano.
De wiki, un proceso gaussiano es un proceso para el cual "cualquier combinación lineal finita de muestras tiene una distribución gaussiana conjunta". Dado que una muestra es una combinación lineal finita de muestras, esto significa que una sola muestra de un proceso gaussiano tiene una distribución gaussiana. (pero no significa que los dos conceptos sean absolutamente idénticos)
@ThePhoton Es lo contrario que creo que no siempre es cierto.
Probablemente no lo sea. Pero si también afirma/sabe/cree que las muestras individuales se distribuyen de forma independiente, implicaría un proceso gaussiano.
@ThePhoton En cualquier sistema real, la densidad espectral de potencia no es plana hasta una frecuencia infinita, por lo que los valores de cualquier realización del proceso definitivamente no están correlacionados en tiempos arbitrarios. Tal vez haya casos en los que la autocorrelación sea lo suficientemente corta como para que los valores puedan tratarse como independientes en ciertos casos prácticos.
@DanielSank: El límite de ancho de banda en una buena fuente de ruido de Johnson siempre estará dado por el ancho de banda del sistema de muestreo que se usa para medir el ruido, por lo que la función de autocorrelación es la del aparato de medición, no la de la fuente de ruido. No creo que los límites prácticos en el ancho de banda de medición deban usarse como criterios físicos para la definición de ruido gaussiano.
@CuriousOne cuando realmente miras el ruido de Johnson-Nyquist, no es un espectro plano hasta una frecuencia infinita. ¡Eso tendría un poder infinito! La fórmula completa implica una distribución de Planck que se desarrolla a alta frecuencia. Entonces, incluso sin el filtrado analógico en el sistema, el ruido de Johnson no tiene una densidad espectral blanca.
@DanielSank: Nada se extiende hasta el infinito, por lo que no es razonable esperar que lo haga. Debe elegir una definición que tenga una correlación insignificante dentro de su ancho de banda de muestreo y continuar con ella. Habiendo dicho eso, los muchachos de RF pueden indicarle técnicas para hacer fuentes de ruido de banda ancha a decenas de GHz ... así que en realidad no es un problema hacer una física normal que satisfaga requisitos razonables en una fuente de ruido gaussiano blanco. .
@CuriousOne El ruido de una resistencia no es blanco, ni siquiera en los límites prácticos. Si realizo experimentos a 25 mK, cuando llegue a 1 GHz, el espectro del cuerpo negro (que es lo que realmente es el ruido de Johnson) ya no es plano con la frecuencia.
@DanielSank: A 25 mK, la suposición de que las correlaciones en una muestra pequeña no importan simplemente no es correcta, si recuerdo correctamente mis viejas lecciones sobre fonones, por lo que no estoy seguro de por qué esperaría obtener el ruido de Johnson de tal una muestra fría? En todo caso, el espectro de ruido se convierte en una herramienta de investigación en la física de la muestra. Y no, no todos los sólidos producen ruido de Johnson, por lo que dije "los muchachos de RF pueden decirle cuáles lo hacen". ¿Quizás estamos hablando de escenarios muy diferentes? Todavía estoy hablando de emisores no correlacionados y el teorema del límite central.

Respuestas (1)

Hay varias formas en que puedo interpretar la pregunta, por lo que mi enfoque principal será la autocorrelación de un proceso de Ornstein-Uhlenbeck (OU). Entonces, ¿qué es un proceso OU y en qué se diferencia de la difusión browniana normal?

difusión browniana

La ecuación diferencial estocástica (SDE) para la difusión browniana de una partícula se puede escribir como

d X t = d W t
dónde X es desplazamiento y d W un proceso estocástico tal que integramos ambos lados, X T X 0 = 0 T d W t = norte ( 0 , T ) , la distribución gaussiana con media 0 y varianza T . Un poco más de notación física sería
d X d t = η
dónde η es una variable aleatoria gaussiana.

Así que puedes ver en tu mente que mientras agregas estos pequeños desplazamientos aleatorios en direcciones aleatorias, terminarás con la difusión. Otra forma de describir la difusión, y más común entre los físicos, es una ecuación diferencial parcial (la ecuación de Fokker-Planck), en la que escribes la distribución de probabilidad de la partícula en función del tiempo y la posición. Otra forma más de escribir esto es como una integral de trayectoria de Wiener (la transformación entre estas representaciones pasa por la ecuación de Feynman-Kac).

Procesos de Ornstein-Uhlenbeck

Finalmente, pasando a la ecuación de OU:

d X t = X t d t + d W t
o si lo prefieres
d X d t = X + η
¿Cómo cambia el nuevo término el comportamiento? En lugar de difundir hasta el infinito, estás restringiendo la partícula con una fuerza lineal. En otras palabras, tiene una partícula en un potencial armónico y algo de ruido se agrega a la posición. La solución está a solo un cambio de variables de distancia: X t = mi t y t , entonces por el lema de Ito tenemos:
mi t d y t mi t y t d t = d X t = mi t y t d t + d W t
asi que
y T y 0 = 0 T mi s d W s
eso es
X T = X 0 mi T + 0 T mi ( s T ) d W s = norte ( X 0 mi T , 1 2 ( 1 mi 2 T ) )
donde el último paso sigue de sustituir a la definición de valor esperado y varianza.

Entonces ¿Qué vemos? Vemos que nuestra observación X T en el momento T Depende de dónde vimos por última vez. X . Pero que esta dependencia (autocorrelación) se extingue exponencialmente. De hecho, después de una cantidad infinita de tiempo, tenemos X T = norte ( 0 , 1 ) . Tenga en cuenta que no obtuvimos X T = norte ( 0 , T ) , sino que nuestra Gaussiana está restringida en tamaño y llegará a tener ese tamaño a una velocidad exponencial (a medida que el efecto de la última observación desaparece).

ruido johnson

Ok, entonces tienes una resistencia en serie con un inductor sobre algún voltaje y escribes

L d yo d t = R yo + V
¿Parecer familiar? Supongamos que el voltaje es casi cero, pero como los portadores de carga se difunden, este voltaje es en realidad estocástico. Eso es un proceso de OU. Ahora, suponga que mide la corriente en el tiempo 0, y luego nuevamente en el tiempo T . ¿En qué sentido son éstos gaussianos e independientes? Como se discutió en la sección anterior, si espera lo suficiente, cada medición será independiente entre sí y ambas muestrearán la misma distribución finita (a diferencia de la distribución infinita que vimos en la difusión). Esta Gaussianidad y su autocorrelación es lo que creo que buscabas. Finalmente, pasemos a algo que no creo que hayas buscado, pero que, sin embargo, puede parecerte interesante.

Ruido microscópico de los portadores de carga

Ahora, ¿por qué debería V ser estocástico y por qué debería ser gaussiano? Esta es una discusión más larga y solo voy a repasarla muy cualitativamente y brevemente. Supongamos que tenemos un sistema simple: una partícula en un potencial y una gran cantidad de osciladores armónicos (sugerentemente llamados "el baño de calor") acoplados a ella, de modo que podamos escribir el hamiltoniano (un poco simplificado del modelo de Caldeira Leggett) como

H = pags 2 2 metro + V ( q ) + i ( pags i 2 2 metro i + 1 2 metro i ω i 2 X i 2 ) + q i X i

Resulta que esto en realidad se puede convertir en una ecuación de Langevin generalizada de la forma

d 2 q d t 2 = d V d q 0 T d t d q d t ξ ( T t ) + R ( t )
donde esta el kernel de memoria ξ ( T t ) y la "fuerza aleatoria" R ( t ) son ambas algunas funciones de la materia en el hamiltoniano. Lo notable es que la fuerza aleatoria, aunque determinista, se comporta exactamente como si fuera una fuerza térmica gaussiana "real" (teorema de disipación de fluctuación, su correlación con las otras cantidades, etc.). Entonces, solo diremos que es aleatorio y de esta manera integramos algunos grados de libertad que no nos importan.

Esto se puede hacer de manera más rigurosa para sistemas básicamente arbitrarios que describen alguna evolución del espacio de fase mediante el uso de la teoría de Mori-Zwanzig. Allí se toma un operador de proyección, que se proyecta sobre el subespacio que contiene los grados de libertad de interés, y los demás grados de libertad se comportan como un baño termal. Muchos libros hacen que esto sea algo muy complicado, pero en realidad es solo álgebra matricial (o realmente operador).

El punto es que si tiene un sistema y tiene un conocimiento perfecto de todo el espacio de fase, si omite algunos detalles, esos detalles actuarán en muchos sentidos como si hubiera un baño termal gaussiano empujando el sistema.

¿Existe una fuente razonablemente digerible donde un físico pueda aprender a leer y usar ecuaciones diferenciales estocásticas?
@DanielSank ¿El tipo de matemáticas o el tipo de física? Para este último, los Procesos estocásticos en física y química de van Kampen es probablemente su mejor opción. Es un libro fantástico: funciona como introducción al tema y como referencia. Para las matemáticas introductorias (cosas con las integrales correctamente definidas y con la notación "adecuada"), las ecuaciones diferenciales estocásticas de Oksendal . Los libros de finanzas también tienen muchos SDE y, dado que se encuentran en un contexto aplicado, también puede encontrarlos divertidos.
Esta puede ser una referencia útil.
Quiero aceptar esto, pero también quiero asegurarme de que lo entiendo primero. Creo que el razonamiento básico es este: 1) El proceso de OU es gaussiano. 2) Un circuito unipolar tiene la misma ecuación de movimiento que el proceso OU (suponiendo que el voltaje de la fuente es un d W , sea lo que sea). 3) El ruido de voltaje de una resistencia es un d W por el modelo de Caldeira-Leggett.
@DanielSank Correcto. Sin embargo, deseo enfatizar que la distribución que muestrea del proceso OU es iid (lo que creo que quiso implicar con "Gaussian") solo si lo hace "muy lentamente": el tiempo de relajación depende de los coeficientes L y r
Pensé que la distribución para el proceso de OU siempre es gaussiana y tiene σ y m condicionado a cuánto tiempo hace que tomó muestras por última vez y qué valor obtuvo. ¿Es eso incorrecto?
@DanielSank Correcto, pero obviamente su distribución muestreada no siempre será iid ya que la distribución de cada variable aleatoria depende del valor anterior.
Ok, pero dado que un "proceso gaussiano" se define como conjuntamente gaussiano, el proceso OU no califica como un "proceso gaussiano".
@DanielSank, creo que sí. La distribución conjunta tendrá una matriz de covarianza bastante complicada, aunque
Parece que aparecieron algunos 2 mágicos. En el proceso de OU, terminamos con norte ( X 0 Exp ( T ) , ( 1 / 2 ) ( 1 Exp [ 2 T ] ) . Esto debe significar que 0 T Exp ( s t ) d W s = ( 1 / 2 ) ( 1 Exp [ 2 T ] ) . ¿Es eso correcto? Si es así, ¿puede dirigirme a un recurso que explique por qué, o simplemente motivarlo intuitivamente? De alguna manera, esto es solo pensar en lo que sucede cuando agrega un factor de peso a una integral sobre d W ...
@DanielSank Eso no es correcto. Estás integrando sobre un proceso browniano, por lo que deberías terminar con una variable aleatoria. p.ej X , Y normal no correlacionado, a X + b Y = norte ( 0 , a 2 + b 2 ) . En lugar de una suma, tenemos una integral. d W s descorr. normal p.ej mi s d W s = norte ( 0 , mi 2 s d s ) (Ito a la isometría, pero la analogía debería ser clara). Tenga en cuenta que en ambos casos (suma e integral) obtenemos una variable aleatoria, no una constante.
Oh, cometí un error realmente estúpido en mi comentario. ¡No quise decir que la integral debería ser una constante! En cualquier caso, creo que esto está claro ahora.