¿Ecuación de Schrödinger para un hamiltoniano con dependencia temporal explícita?

¿Puedo escribir una ecuación de Schrödinger para un hamiltoniano dependiente del tiempo como esta:

i d d t ψ ( t ) = H ( t ) ψ ( t )

y luego realizar la integración de Euler de esta manera:

ψ ( t + Δ t ) = ( 1 i H ( t ) Δ t ) ψ ( t )

Podemos hacer esto cuando H es independiente del tiempo para muy pequeños Δ t . Pero cuando H depende del tiempo ¿es válido hacer esto?

Con respecto a la solución formal del TDSE , consulte physics.stackexchange.com/q/103503/2451
La ecuación de Schrödinger se puede escribir como una ecuación integral ψ ( t + Δ t ) = ψ t i t t + Δ t H ( s ) ψ ( s ) d s . Básicamente, está preguntando el error que comete al sustituir el integrando con el valor constante (wrt time) H ( t ) ψ ( t ) . Esto depende en gran medida de la supuesta regularidad de la solución. ψ ( t ) de la ecuación de Schrödinger, y la regularidad de H ( t ) como una función del tiempo. Ya que por lo general ψ ( t ) es una función integrable al cuadrado, y H ( t ) un operador ilimitado, las cosas pueden complicarse bastante rápido.
Esencialmente, puede tener la esperanza de cuantificar el error si se encuentra en una situación en la que el L 2 -norma de H ( ) ψ ( ) está uniformemente acotada en intervalos de tiempo compactos, y si se cumplen los requisitos mínimos para la existencia de una solución de la ecuación de Schrödinger (estos requisitos son demasiado técnicos para mencionarlos aquí).
@yuggib Gracias. yo asumo eso H ( t ) está ligado. ¿Cuál es el efecto sobre el error si H ( t ) no conmuta en tiempo diferente?

Respuestas (4)

La integración de Euler

ψ ( t + Δ t ) = ( 1 i H Δ t ) ψ ( t ) ψ ( t ) = ( 1 i H Δ t ) t / Δ t ψ ( 0 )
no es numéricamente estable incluso para independientes del tiempo o incluso constantes H (es decir, un estado propio) porque la normalización de la función de onda no se conserva: el operador 1 i H Δ t no es unitario:
| ψ ( t + Δ t ) | 2 = | ( 1 i mi Δ t ) ψ | 2 = | ψ | 2 ( 1 + i mi Δ t ) ( 1 i mi Δ t ) = ( 1 + ( mi Δ t ) 2 ) | ψ | 2 | ψ ( t ) | 2
Si intenta esto computacionalmente, su función de onda explotará después de suficientes pasos, y no se normalizará incluso después de unos pocos. Que el error es de orden ( Δ t ) 2 generalmente no lo salvará a menos que su H está bien delimitado desde arriba, de modo que puede hacer mi Δ t suficientemente pequeño también, pero esta pérdida de unitaridad no es realmente lo que quieres en cualquier caso.

Una discretización adecuada de la ecuación de Schrödinger debe utilizar un operador de paso de tiempo unitario, como

tu ( Δ t ) = ( 1 + i 2 H Δ t ) 1 ( 1 i 2 H Δ t )
que funcionará para hamiltonianos independientes del tiempo adecuadamente comportados (preferiblemente también en una red espacial).

Si H depende del tiempo, debe elegir sus pasos de tiempo tan pequeños que H ( t + Δ t ) H ( t ) , donde la precisión necesaria de esta aproximación depende en gran medida de su hamiltoniano específico y del método de aproximación numérica elegido. No se puede decir nada más sin conocer ambos.

¿Qué pasa si vuelvo a normalizar la función de onda después de cada paso de tiempo en el método de integración de Euler? ¿Sigue siendo bueno?
@diff: No sé qué sucede entonces, pero no me parece una buena idea. Solo usa un paso de tiempo unitario. De todos modos, el método de integración de Euler tiene una convergencia muy lenta, no hay razón para usarlo en ninguna aplicación real sobre los mejores métodos numéricos (por ejemplo, Runge-Kutta).
La integración de Euler es inestable no por ser no unitaria. El esquema de Runge-Kutta tampoco es unitario, pero es condicionalmente estable.
Además, su operador unitario sugerido da como resultado un esquema de integración necesariamente implícito. Pero para hamiltonianos reales (es decir, no magnéticos, etc.) existen algoritmos explícitos, consulte, por ejemplo, este documento .
@diff Eso no funcionará en absoluto a menos que los valores propios del operador discretizado tengan la misma magnitud. Si hay una función propia discretizada "dominante" (es decir, cuya magnitud de vector propio es incluso un poco más grande que las demás), lo que está haciendo al volver a normalizar es "criar selectivamente la función propia dominante". Los valores propios efectivos de las funciones propias no dominantes son menores que 1, el de la dominante es aproximadamente uno, ¡así que todos los demás desaparecen rápidamente de la imagen, devorados por la selección natural! De hecho, este método es en realidad un método rápido para encontrar una guía de ondas....
... modo fundamental. Puede reforzarlo multiplicando los índices de refracción en una simulación por i : introduce ruido y vuelve a normalizar después de cada paso: el modo con la parte real más positiva crece más rápido y los otros se "eliminan" rápidamente a medida que disminuyen. Entonces, sospecho que si hiciera lo que sugiere, al principio obtendría algo que parecía una salida de campo significativa, pero después de algunas simulaciones se daría cuenta de que, independientemente de las condiciones de entrada que use, la misma salida de modo dominante sale de la simulación. . ¡Entonces también puede escribir un software para imprimir una constante!
@diff Sin embargo, dependiendo de su hamiltoniano, puede ser fácil de calcular Exp ( i H ( t ) Δ t / h b a r ) directamente: si Δ t es lo suficientemente pequeño, incluso la simple serie de Taylor converge rápidamente; o puede usar el método que he usado muchas veces: es rápido y sucio, pero funcionará muy bien en la mayoría de los casos. Los métodos de Fourier de paso dividido también son muy efectivos: búsquelos también si no lo ha hecho.

Mientras buscaba una referencia. para esta respuesta, la búsqueda en Google produjo esta tesis sobre " Métodos numéricos para resolver el TDSE ". Está justo en el tema, contiene todo lo siguiente y más. Todavía estoy publicando esto porque puede resultar útil como una guía rápida.

Los métodos numéricos estables para el TDSE suelen ser métodos implícitos. Es decir, cada iteración de tiempo implica resolver numéricamente un sistema de ecuaciones lineales grande, pero generalmente escaso, lo que significa que debe seleccionar los solucionadores adecuados. El método mencionado por ACuriousMind es el más simple de esta clase y, a veces, se lo denomina método Crank-Nicholson. Es parte de una jerarquía de métodos basados ​​en aproximaciones de Padé a la exponencial e involucrando potencias superiores del paso de tiempo y el hamiltoniano. La precisión de un método diagonal de orden n, usando términos hasta ( H Δ t ) norte en ambos lados de la ecuación para ψ norte + 1 , es O ( Δ t 2 norte + 1 ) .

Una alternativa económica, si se usa con cuidado, es la que proporcionan los métodos de iteración explícitos condicionalmente estables, posiblemente con un paso de tiempo adaptativo. El precio a pagar es que el procedimiento implícito de un solo paso se cambia por uno de varios pasos, que involucra la solución en dos o más pasos en el tiempo. El método más simple se conoce como esquema de diferenciación de segundo orden , consulte aquí (párrafo alrededor de la ecuación (2.175)) y este artículo . La idea es usar una discretización de segundo orden para la derivada del tiempo, lo que da

ψ norte + 1 ψ norte 1 = 2 i ( H Δ t ) ψ norte
El método tiene la ventaja de que conserva la norma (y la energía para hamiltonianos independientes del tiempo), pero la estabilidad requiere que
Δ t / mi máximo
dónde mi máximo es el valor propio máximo del hamiltoniano discretizado. Para un hamiltoniano dependiente del tiempo, esto significa que necesita una estimación de mi máximo durante toda la duración de la simulación o alguna forma de ajustar el paso de tiempo en consecuencia en cada iteración. Además, el primer paso requiere el conocimiento no sólo de ψ 0 pero también de ψ 1 , que tiene que ser precalculado por algún otro método adecuado.

Métodos más sofisticados que puede considerar: iteración de Chebyshev, reducción de Lanczos.

La respuesta corta: el operador unitario de evolución temporal en la mecánica cuántica es

tu ( 0 , t ) = T ^ Exp ( i 0 t d t H ( t ) ) ,

dónde T ^ denota el orden del tiempo. Este es el operador unitario que produce el TDSE correcto. La respuesta más larga...

La exponencial de una matriz está definida por

Exp ( METRO ) = norte = 0 METRO norte norte ! .

(Aparte: el exponencial de una matriz siempre converge para matrices de dimensión finita).

Suponer que METRO depende del tiempo; es decir METRO METRO ( t ) . Luego, después de un poco de álgebra, se puede demostrar que

d d t Exp ( METRO ( t ) ) = 0 1 d s Exp ( s METRO ( t ) ) d d t METRO ( t ) Exp ( ( 1 s ) METRO ( t ) ) .

Usando Baker-Campbell-Hausdorff,

d d t Exp ( METRO ( t ) ) = norte = 0 1 norte ! [ METRO ( t ) , [ , [ METRO ( t ) , d d t METRO ( t ) ] ] ] Exp ( METRO ( t ) ) ,

donde el norte el término tiene norte conmutadores con d d t METRO ( t ) .

Lo que quieres es lo siguiente: un operador de evolución de tiempo unitario tu ( 0 , t ) que satisface

d d t tu ( 0 , t ) = i H ( t ) tu ( 0 , t ) ,

porque tu ( 0 , t ) ψ ( 0 ) = ψ ( t ) por un estado ψ (suponiendo que t > 0). Sustitución de ψ ( t ) produce el TDSE. Resolviendo ingenuamente la ecuación diferencial para tu da tu ( 0 , t ) = Exp ( i 0 t d t H ( t ) ) . Sin embargo, la expansión de la exponencial utilizando la fórmula antes mencionada involucra conmutadores del hamiltoniano consigo mismo en diferentes momentos. Porque H es un operador, no se garantiza que se desplace consigo mismo en diferentes momentos. Si bien puede escribir el operador de evolución en el tiempo de esta manera, el operador de evolución en sí mismo no obedecerá a la TDSE, es decir, tendrá que usar la expansión de matriz completa para obtener la ecuación correcta de evolución dependiente del tiempo para el estado ψ ( t ) . La forma correcta de resolver esta ecuación diferencial, tal que el operador unitario que actúa sobre ψ obedece al TDSE--es recursivamente. La solución formal es

tu ( 0 , t ) = 1 + i 0 t d t H ( t ) tu ( 0 , t ) .

La ecuación diferencial ahora se ha convertido en una ecuación integral. Continúe sustituyendo la solución por tu en la ecuación anterior. Tenga en cuenta que 0 < t < t . Para la segunda iteración, encontrarás que 0 < t < t < t . Este patrón continúa hasta el infinito . Esto proporciona un ordenamiento temporal de la expansión, lo que garantiza que los hamiltonianos actúen sobre el estado. ψ en el orden correcto en el tiempo. Esto produce la exponencial ordenada en el tiempo:

T ^ Exp ( i 0 t d t H ( t ) ) = norte = 0 ( i ) norte t t d t 0 t ( norte 1 ) d t ( norte ) H ( t ) H ( t ) H ( t ( norte 1 ) ) H ( t ( norte ) )

Es este operador unitario el que a) evoluciona ψ de un tiempo anterior a un tiempo posterior y b) obedece por sí solo al TDSE. En total:

d d t ψ ( t ) = d d t tu ( 0 , t ) ψ ( 0 ) = i H ( t ) tu ( 0 , t ) ψ ( 0 ) = i H ( t ) ψ ( t ) .

NB: el operador sin ordenación temporal es un operador unitario para la traducción temporal, pero la traducción temporal en pasos de tiempo infinitesimales zigzaguea a través del tiempo en lugar de tomar un camino ordenado por el tiempo. Debido a que ese operador tiene una expansión en un número infinito de conmutadores anidados, su acción en ψ no produce un TDSE a primera vista, pero creo que debería ser equivalente a la acción de la exponencial ordenada en el tiempo sobre el estado después de un número infinito de manipulaciones algebraicas (corríjanme si me equivoco en este punto). El factor adicional de 1 norte ! en la exponencial no ordenada (cf. la fórmula que implica la derivada de METRO ( t ) arriba) da cuenta del conteo excesivo de caminos equivalentes a través del tiempo.

En su expresión final para d d t Exp ( METRO ( t ) ) debe ser el denominador ( norte + 1 ) ! en lugar de norte ! ?

La fórmula linealizada para la "evolución por Δ t " es exactamente igual de precisa para un dependiente del tiempo H ( t ) como lo es para uno independiente del tiempo: el error es de orden O ( Δ t ) 2 en ambos casos. Solo debe recordar sustituir el derecho relevante H ( t ) cada vez que usa la fórmula en un nuevo momento t .

No es difícil ver por qué la precisión no empeora: el cambio extremo relacionado con la dependencia del tiempo sería si lo sustituyera H ( t + Δ t ) en lugar de H ( t ) al lado derecho. Pero estos dos de nuevo difieren por Δ t veces la derivada de H con respecto al tiempo (linealización de la derivada) y esto H y es O ( Δ t ) el margen de error se multiplica por otro Δ t en esa ecuación, por lo que el error en la ecuación es sólo O ( Δ t ) 2 de nuevo.