¿En qué medida se ha probado "directamente" en el laboratorio el modelo de conjunto canónico en física estadística?

La siguiente declaración, y extensiones similares de la misma a varios otros conjuntos estadísticos, forma una base para muchos cálculos en física estadística:

Si construimos un gran número de copias idénticas de un sistema, y ​​si el estado de cada sistema se prepara poniéndolo en contacto térmico con un baño de calor que tiene temperatura T y esperando lo suficiente (meta comentario: para "termalización), entonces la medición de la energía de cada sistema producirá una distribución de energías que es Boltzmann .

La aplicación de esta declaración a modelos microscópicos de sistemas se puede utilizar para predecir correctamente hechos termodinámicos empíricos bien conocidos, como las ecuaciones de estado. Además, el aparente éxito teórico y empírico general de las predicciones del aparato mecánico estadístico basado en la declaración anterior es una evidencia bastante convincente a su favor. Sin embargo, personalmente encontraría una prueba más "elemental, directa" más convincente.

Pregunta. ¿Se ha realizado alguna vez en el laboratorio un experimento de la siguiente estructura o algo moralmente equivalente?

  1. Construir un número razonablemente grande de sistemas casi idénticos.
  2. Poner cada uno en contacto con un baño de calor a una temperatura determinada.
  3. Espera un momento.
  4. Medir la energía de cada sistema.
  5. Construya un histograma de frecuencias de energía.
  6. Determine si el histograma es consistente con la distribución de Boltzmann.

Se agradecen las referencias.

¿Contaría las confirmaciones de la ley de Planck o la distribución de Maxwell-Boltzmann?
@knzhou Depende de la forma que tomaron los experimentos. ¿Tiene referencias que describan experimentos que tiene en mente que uno podría inspeccionar?
Relacionado: Equilibrio térmico lento . ¿Esto cuenta como una respuesta aquí? =P
Cuando tomé estadística mecánica en la universidad, mi profesor (un teórico) nos ofreció una referencia (de la década de 1970) para la medición de las fluctuaciones de temperatura en un sistema pequeño que es, quizás, casi lo que está pidiendo. Llamó al resultado "un tour-de-force en la medición" . Por desgracia, no puedo recordar cuál podría ser el papel, pero tal vez eso ofrezca un lugar para comenzar a buscar.
Si cree en la hipótesis ergódica, entonces los dos procesos son equivalentes en el límite norte : 1) Crear norte copias de su sistema y mida la energía de cada copia 2) Realice norte mediciones en el mismo sistema.
@dmckee Me encantaría ver ese documento aunque no es precisamente lo que estoy buscando. Por favor, hágamelo saber si recuerda algún otro detalle. Intentaré buscarlo mientras tanto.
@ valerio92 Dudo en invocar hipótesis ergódicas aquí porque (1) quiero evitar invocar declaraciones teóricas de alto poder que vinculan el muestreo de tiempo y el muestreo de conjunto, ya que estoy buscando una medición directa que verifique la validez de la imagen del conjunto. (2) No tengo suficiente confianza en los intentos de invocar hipótesis ergódicas en cualquier cosa que no sea el más simple de los sistemas clásicos para los que se conocen los resultados matemáticos, y esos casos no parecen directamente aplicables a los sistemas "reales".
Estoy de acuerdo con Josh: probablemente sea mejor mantener la hipótesis ergódica fuera de esto.
Algunas referencias de fluctuación térmica (pero no de la que estaba hablando antes): journals.aps.org/pr/abstract/10.1103/PhysRev.120.1551 journals.aps.org/prl/abstract/10.1103/PhysRevLett.104.040602 (AKA arxiv. org/abs/0908.3227 ). No creo que necesite la hipótesis ergódica completa para relacionar las fluctuaciones térmicas con la imagen del conjunto, solo necesita creer que el equilibrio térmico es un estado que ha olvidado la historia del sistema (que también es una pregunta bastante grande como postulado , para estar seguro).
Siempre que hablamos de probabilidad en sentido frecuentista, surge el problema de los conjuntos. Yo que hago experimentos sobre flujos turbulentos, me enfrento exactamente al mismo problema en su descripción estadística. Pero los experimentos suelen ser (muy) caros, sin mencionar el tiempo y el esfuerzo que implican, así que no creo que nadie gaste su dinero y su tiempo de vida en hacer un conjunto de experimentos de un tipo en particular. Es poco probable que encuentre lo que busca. Por eso me encanta la forma de ver la probabilidad de ET Jaynes, como una función de la información y prescindiendo de los conjuntos.
@Deep Estoy de acuerdo en que hay algo bastante atractivo sobre el punto de vista de la teoría de la información en este caso y, en particular, sobre la interpretación de las asignaciones de probabilidades como indicaciones del grado de ignorancia inherente al procedimiento de preparación del estado. Sin embargo, un problema que tengo con esa imagen es que no me queda claro cómo encajan las "fluctuaciones" en ella. ¿Conoces referencias que aborden ese punto desde la perspectiva jaynesiana?
Desde el punto de vista de Jaynes de observar la probabilidad, la probabilidad es una función de la información que poseemos. Las "fluctuaciones" físicas no forman parte de este punto de vista. Por ejemplo, si hay un cuerpo de masa desconocida, basándonos en nuestra información (limitada), podemos trazar una distribución de probabilidad para varios valores posibles de su masa. Pero la masa del cuerpo es una constante (es decir, no hay "fluctuaciones"), aunque desconocida. La dispersión de la distribución de probabilidad representa nuestra propia incertidumbre más que algo físico. El libro y los artículos de Jaynes deberían ser una lectura relevante.

Respuestas (1)

Puede que no se ajuste a los requisitos, pero un experimento reciente en gases ultrafríos del grupo Greiner hace algo como esto. Creo que ya escribí sobre este documento para alguna otra pregunta similar, pero no puedo encontrarlo.

Para resumir: los autores toman un sistema cuántico aislado de "muchos cuerpos" de seis partículas, lo inicializan en algún estado definido de no equilibrio, luego permiten que se termalice con cada partícula individual viendo las otras cinco partículas como un baño. Al observar las estadísticas de ocupación en cada sitio, ven que esto evoluciona desde la condición inicial de una partícula por sitio hasta la distribución del conjunto canónico en cada sitio, con una temperatura determinada por la densidad de energía inicial. Aquí está la trama relevante:

ingrese la descripción de la imagen aquí

donde los puntos rojos son la predicción del conjunto canónico.

Como es evidente, a pesar del pequeño tamaño del sistema, se termaliza en una buena aproximación, al menos cuando se observan sitios individuales. Repiten esto muchas veces, con una nueva copia de este sistema cada vez, para obtener estadísticas.

Aunque no es directamente relevante para su pregunta, los autores también pueden verificar directamente que el estado cuántico de muchos cuerpos permanece puro mientras que los subsistemas se convierten en estados térmicos mixtos, por lo que también prueban la imagen de la termalización cuántica debido al desarrollo de entrelazamiento.

Entonces, las diferencias entre este y su experimento deseado son que utiliza sistemas bastante pequeños, no hay un baño de calor mantenido a una temperatura fija y no pueden medir la distribución de energía directamente. Sin embargo, muestra la evolución de un observable hacia una distribución de conjunto canónico y, como beneficio adicional, muestra que esto sucede en todas partes del sistema, aunque esté aislado.

+1 gracias Esto es realmente interesante, relacionado y empírico. Definitivamente voy a leer ese periódico. En cierto sentido, mi pregunta es , en última instancia, sobre el grado en que se ha observado la termalización en el laboratorio, considerando cómo se podría definir un sistema que logra una distribución canónica como el proceso de termalización.