¿Rotura espontánea de la simetría en el modelo de Heisenberg?

La ruptura espontánea de la simetría se puede definir de la siguiente manera (Teresa & Antonio, 1996; pg89):

Un sistema físico tiene una simetría que se rompe espontáneamente si las interacciones que gobiernan la dinámica del sistema poseen tal simetría pero el estado fundamental de este sistema no.

Estoy un poco confundido sobre el significado de 'estado fundamental' en esta expresión en el contexto de la materia condensada. En el caso del modelo de Heisenberg, el estado fundamental se puede tomar como:

ρ norte | GRAMO S norte GRAMO S norte |
dónde | GRAMO S norte es el norte th estado fundamental. Ahora, para tal matriz de densidad de estado fundamental, la S tu ( 2 ) se conserva la simetría del hamiltoniano. Solo en el caso de que tengamos un campo de ruptura de simetría espontáneo obtenemos una matriz de densidad que no conserva la S tu ( 2 ) simetría del hamiltoniano. Pero en tal caso, el hamiltoniano estrictamente hablando no tiene esta simetría de todos modos.

¿Este sistema, por lo tanto, estrictamente hablando, tiene una ruptura de simetría espontánea? y ¿qué significa el término 'estado fundamental' en la definición anterior se refiere a individuos | GRAMO S norte o a la matriz de densidad ρ ? ¿Se refiere a antes o después de que se apliquen los campos de ruptura de simetría?

physics.stackexchange.com/q/373931/169288 Hay una pregunta relacionada. Aunque para el modelo con ssb, aún puede encontrar el estado sin ssb en el subespacio de estado fundamental.

Respuestas (3)

Me gustaría ofrecer una respuesta contrastante a la de @tparker. Quiero enfatizar el hecho de que en realidad no es necesario introducir ningún campo que rompa la simetría, siempre que use la configuración adecuada. (Por supuesto, puede usar campos que rompan la simetría o condiciones de contorno adecuadas para lograrlo, pero creo que es conceptualmente interesante que no tenga que hacerlo).

Solo discutiré el caso de los sistemas clásicos, ya que estoy mucho más familiarizado con el marco matemático relevante.

El objetivo es definir una medida de Gibbs para un sistema infinito. Esto es necesario, ya que solo los sistemas verdaderamente infinitos experimentan transiciones de fase genuinas (por supuesto, los sistemas finitos grandes pueden mostrar "transiciones de fase" aproximadas y suavizadas). La definición habitual basada en el peso de Boltzmann mi β H es inútil en este caso, ya que la energía de un sistema infinito suele ser indefinida.

El marco más eficiente para resolver este problema, la llamada teoría de Dobrushin-Lanford-Ruelle, funciona de la siguiente manera. Comento el caso del modelo Ising en Z 2 por simplicidad, pero el enfoque es completamente general. Se dice que una medida de probabilidad m en el conjunto de infinitas configuraciones { 1 , 1 } Z 2 es una medida de Gibbs de volumen infinito si, para cualquier conjunto finito Λ Z 2 y cualquier configuración η { 1 , 1 } Z 2 Λ , la probabilidad condicional de ver una configuración σ adentro Λ , dado que la configuración fuera Λ es dado por η , está dada por la medida de Gibbs de volumen finito en Λ con condición de contorno η . Este último está bien definido (a través del peso habitual de Boltzmann), ya que Λ es finito

Para modelos con giros compactos (como el modelo de Ising o el modelo de Heisenberg), se garantiza la existencia de medidas de Gibbs de volumen infinito. La unicidad, sin embargo, no se sostiene en general. Para el modelo Ising en Z 2 , por ejemplo, existe un valor crítico β C ( 0 , ) de la temperatura inversa tal que hay una única medida de volumen infinito cuando β β C , mientras que hay infinitas medidas de Gibbs de volumen infinito cuando β > β C . Resulta que cualquier medida de Gibbs de volumen infinito m se puede expresar como una combinación convexa de dos de ellos: m = α m β + + ( 1 α ) m β , para algunos 0 α 1 . Estas dos medidas m β + y m β por lo tanto contienen toda la física relevante, y hay buenas razones para considerarlos como los verdaderamente relevantes físicamente. Resulta que la magnetización promedio bajo m β + es igual a metro ( β ) > 0 , la magnetización espontánea (ese es el valor de la magnetización que obtendrías si primero hubieras agregado un campo magnético h > 0 y luego deja h disminuir a 0 ). Bajo m β , por otro lado, la magnetización promedio es metro ( β ) < 0 . En este sentido preciso, existe una ruptura espontánea de la simetría, aunque el procedimiento descrito anteriormente no rompe explícitamente la simetría en ningún paso.

Permítanme ahora vincular brevemente el enfoque anterior (todavía para el modelo Ising en Z 2 ) con el que utiliza una ruptura de simetría explícita. Una forma estándar de proceder en este caso es considerar una secuencia creciente de subconjuntos finitos Λ norte Z 2 . Entonces consideramos la medida de Gibbs m Λ norte ; β + asociado al modelo de Ising en Λ norte , con + condición de contorno. Entonces se puede considerar el límite (débil) de las medidas de probabilidad m Λ norte ; β + como Λ norte crece para cubrir Z 2 . Resulta que la medida límite coincide con la medida de Gibbs de volumen infinito m β + derivado arriba. Eso sí, se recupera la medida m β utilizando una secuencia con condición de contorno.

Entonces, los dos enfoques arrojan el mismo resultado, pero insisto en que el primero no requiere una ruptura de simetría explícita. (Además, proporciona un marco mucho más poderoso).

¿El formalismo anterior explica (o motiva) por qué los sistemas reales siempre se encuentran en estados puros en lugar de estados arbitrarios de Gibbs?
@tparker: Este problema no es trivial. Debe comprender que un estado de Gibbs (puro o no) solo describe el comportamiento "local" en lo profundo del sistema. Esto se debe a la topología utilizada al construir los estados o, si prefiere el enfoque a través del límite termodinámico, al hecho de que está enviando el límite al infinito. En particular, puede obtener mezclas dependiendo de cómo se haya preparado el sistema.
La situación más trivial es si tomó el límite termodinámico utilizando condiciones de contorno libres o periódicas. En este caso, el estado límite es la mezcla 1 2 m β + + 1 2 m β . Obtiene una mezcla porque no sabe qué fase se realiza, siendo ambas igualmente probables. Pero hay otras formas de obtener un estado mixto.
Como un ejemplo sencillo, considere el modelo de Ising con la condición de contorno de Dobrushin (es decir, + en el semiplano superior y en el semiplano inferior) en una secuencia de cuadrados crecientes centrados en el origen. En ese caso, la secuencia de sistemas finitos que está considerando tendrá una interfaz que separa las regiones respectivamente ocupadas por el + y etapas.
En el límite termodinámico, las fluctuaciones de esta interfaz (en Z 2 ) se vuelven ilimitados, lo que implica que el estado límite de Gibbs es nuevamente la mezcla 1 2 m β + + 1 2 m β . En este caso, sabe muy bien lo que está haciendo el sistema, pero aun así obtiene una mezcla, porque la medición que está realizando ocurre a una distancia finita de 0 , y no sabe en qué lado de la interfaz ocurre.
Entonces, en este sentido, hay situaciones naturales en las que se dan mezclas. Por lo tanto, el formalismo no puede decirle demasiado sobre lo que es probable que se observe o no. Por otro lado, las fases puras (o más generalmente, las medidas extremas de Gibbs) tienen ciertas propiedades notables que las distinguen de las mezclas y las hacen candidatas más naturales para describir sistemas macroscópicos. En particular, son los únicos que producen predicciones deterministas al medir cantidades macroscópicas.
Eso tiene sentido: dado que los estados puros respetan la descomposición del cúmulo, el comportamiento en lo profundo del bulto debería, en cierto sentido, ser insensible a las fluctuaciones en las condiciones de contorno.

Tres comentarios:

  1. Es cierto que en algún momento necesitas un pequeño campo que rompa la simetría. Pero no es necesario que actúe en todos los sitios de manera uniforme; incluso un campo que actúa en un solo sitio es suficiente para romper la simetría. De manera realista, no se puede esperar que pueda realizar un seguimiento de estos pequeños campos en un sistema real. Entonces, filosóficamente, supongo que podría decir que la "ruptura de simetría" no ocurre en la vida real porque la simetría nunca es exacta, pero el punto es que el sistema es inestable a pequeñas asimetrías que no puede rastrear de manera realista.

  2. Está asumiendo que el hamiltoniano no cambia en el tiempo. Pero el punto de SSB es que incluso un campo de ruptura de simetría momentáneo es suficiente para romper la simetría permanentemente . Una vez que el sistema cae en una configuración que rompe la simetría, se "atasca" y no puede "saltar" de nuevo a la configuración simétrica.

  3. Es cierto que el conjunto de Gibbs siempre es simétrico. Pero el punto de SSB es que en la fase de ruptura de simetría, el conjunto de Gibbs no describe el sistema , sino solo un subconjunto asimétrico del conjunto. Entonces, solo se encuentra en uno de los estados fundamentales, no en una mezcla igualmente ponderada de todos ellos. Esto se llama "romper la ergodicidad".

El libro (Altland y Simons, 2010; pág. 258) (o pág. 263 en la edición de 2006) establece lo siguiente (cita textual de la edición de 2006):

A pesar de la innegable existencia de sólidos, imanes y condensados ​​de Bose de fase definida, la noción de un estado fundamental que no comparte completamente la simetría de la teoría puede parecer paradójica, o al menos "antinatural". Por ejemplo, incluso si cualquier estado fundamental particular del potencial del "sombrero mexicano" que se muestra en la figura anterior "rompe" la simetría rotacional, ¿no deberían todos estos estados entrar en la suma de la partición con el mismo peso, de modo que el resultado neto de la teoría es de nuevo simétrico?

Luego, el libro analiza cómo los campos de ruptura de simetría producen ruptura de simetría como un fenómeno observable. De esta discusión, por lo tanto, deduzco las siguientes dos cosas:

  • La ruptura espontánea de la simetría se refiere a los estados fundamentales | GRAMO S norte no poseyendo la misma simetría que la dinámica.
  • La razón por la que vemos una ruptura espontánea de la simetría se debe a las imperfecciones.
No estoy de acuerdo con eso: si muestrea una configuración al azar de acuerdo con el estado de Gibbs asociado a, digamos, el modelo 2d Ising a bajas temperaturas, entonces la simetría se romperá en el sentido de que la magnetización promedio 1 norte i σ i en la muestra estará cerca de ± metro ( T ) , dónde metro ( T ) es un valor determinista distinto de cero (la magnetización espontánea a temperatura T ). Por lo tanto, las configuraciones típicas no son invariantes ante la inversión de todos los espines, aunque el hamiltoniano no prefiere ningún tipo de espines.
Por supuesto, la medida de Gibbs sigue siendo simétrica para un sistema finito: cada uno de los dos valores ± metro ( β ) ocurre con la misma probabilidad. En el límite termodinámico, sin embargo, hay un número infinito de estados de Gibbs diferentes, y las fases puras (las físicamente relevantes) muestran una magnetización espontánea igual a metro ( T ) con probabilidad 1 o igual a metro ( T ) con probabilidad 1 .
Entonces, en el límite termodinámico (que en cualquier caso es necesario para hablar propiamente de transiciones de fase), la simetría se rompe al nivel de los propios estados de Gibbs (relevantes).
@YvanVelenik "si muestrea una configuración al azar de acuerdo con el estado de Gibbs asociado a, por ejemplo, el modelo 2d Ising a bajas temperaturas, entonces se romperá la simetría"; esto depende de los detalles de su procedimiento de muestreo. Es cierto para un procedimiento de actualización local como la cadena de Markov Monte Carlo, pero no para ciertos procedimientos de muestreo no locales. La naturaleza local de las perturbaciones ambientales es clave para comprender la ruptura de la simetría.
@tparker: Estaba hablando de un verdadero muestreo del estado de Gibbs, que no tiene nada que ver con ningún procedimiento algorítmico. (Por supuesto, en la práctica probablemente usaría alguna cadena de Markov que tenga el estado de Gibbs como distribución invariante). Tenga en cuenta que este uso del verbo "muestra" es el habitual en la teoría de la probabilidad.
@YvanVelenik ¿Podría aclarar su afirmación de que "hay una cantidad infinita de estados de Gibbs diferentes"? A temperatura fija T , ¿por qué no hay un solo estado de Gibbs con PDF? pag ( s ) = mi mi ( s ) / T / Z ? Creo que estás usando una definición diferente de "estado de Gibbs" que yo.
@tparker: Escribí una respuesta con más detalles. Espero que esto ayude. Puedo dar mucha más información, pero esto rápidamente se volvería técnico.
@YvanVelenik Esa es una gran respuesta que escribiste, ¡gracias! Dado que este es un punto sutil al que el OP probablemente no ha estado expuesto, vale la pena señalar explícitamente que la medida de Gibbs del sistema finito pag ( s ) = mi β H ( s ) / Z no es una distribución de probabilidad válida para un sistema infinito, por lo que la definición de la "medida de Gibbs" debe generalizarse adecuadamente.
@tparker: exactamente. Esto es algo que rara vez se discute en las clases de física (supongo que con buenas razones). No obstante, es un tema conceptualmente muy interesante. En realidad, hay propiedades mucho más notables que puede extraer de este formalismo, merecería una respuesta más larga, pero la actual probablemente ya sea demasiado larga;).