¿Es la probabilidad de Gibbs/Boltzmann la probabilidad 'verdadera' de que una partícula se encuentre en un estado particular en el conjunto canónico?

Con base en la interpretación clásica de la probabilidad, la probabilidad de que una sola partícula esté en el i th estado de energía, en un norte sistema de partículas, debe estar dado por el número de partículas en ese estado, dividido por el número total de partículas:

pag ( i ) = norte i norte

Aquí norte i representa el número real de partículas en el sistema. Sin embargo, debido a las colisiones y fluctuaciones aleatorias, el número real de partículas en un nivel de energía particular nunca es constante y sigue cambiando si el número total de partículas es finito. Según esa lógica, la probabilidad 'verdadera' de encontrar una partícula en un cierto nivel de energía debería ser imposible de determinar, ya que no podemos hablar con sensatez sobre el número de partículas en un estado, para un caso finito de todos modos.

Por lo tanto, usamos la distribución de Gibbs/Botzmann y afirmamos que la probabilidad de que una partícula se encuentre en cierto estado viene dada por lo siguiente:

pag ( i ) = mi β mi i Z

Sin embargo, esta no es la verdadera probabilidad exacta, ¿verdad? ¿No es técnicamente más como nuestra mejor suposición de cuál es la verdadera probabilidad de que una partícula esté en estado mi i debiera ser ? Dado que el número de partículas en cada estado sigue cambiando, no tiene sentido hablar de esta "verdadera" probabilidad de encontrar la partícula en un cierto estado de energía a la vez.

Entonces, ¿sería correcto suponer que la probabilidad de Gibbs es la probabilidad promedio o la probabilidad 'esperada' de encontrar una partícula en un estado particular? Dado que esta es la probabilidad promedio y no la verdadera, se vuelve imposible averiguar el número de partículas en ese estado. Debido a esto, el número de partículas en un estado se convierte en una variable aleatoria con una distribución, cuya media está dada por norte pag ( i ) .

Entonces, ¿podemos decir que en el sentido más verdadero de la probabilidad clásica, la probabilidad de Boltzmann es la probabilidad promedio de encontrar una partícula en un cierto estado en el sistema, solo porque la verdadera probabilidad sigue cambiando a medida que el sistema sufre colisiones y otras cosas, y la ocupación de un estado nunca es constante?

En el límite infinito de partículas, las fluctuaciones desaparecen y el número real de partículas se acerca al número esperado de partículas, por lo que se puede afirmar que la probabilidad de Gibbs es aproximadamente igual a la probabilidad clásica.

Si pudiéramos conocer teóricamente la probabilidad 'verdadera' de encontrar una partícula en un cierto estado, lo cual es imposible, por supuesto, podríamos encontrar el número exacto de partículas en ese estado. En ese caso, la cantidad de partículas en el estado no sería una distribución, sino más bien una pregunta de sí o no, como sacar bolas de colores de una bolsa; si conoce la probabilidad de sacar una bola azul de una bolsa de 100 bolas, podría encontrar fácilmente el número de bolas azules. Sería exactamente la probabilidad multiplicada por el número total de bolas y no una distribución de varias posibilidades.

Pero en este caso, dado que no conoce la probabilidad exacta y el número de partículas en el estado sigue cambiando, solo puede hablar sobre el número esperado de partículas en un estado, es decir, obtiene una distribución del número total de partículas en un estado.

Lo siento si paso demasiado tiempo forzando una interpretación de un problema bastante simple, pero ¿alguien puede decirme si mi interpretación de la situación es correcta o no?

La interpretación clásica de pag ( i ) es el número de veces que su partícula elegida al azar resultó estar en estado i dividido por el número total de intentos. Esto es diferente de lo que describiste. Aunque en sistemas que no interactúan, pag ( i ) también se puede calcular como la expectativa de norte i encima norte . Ver physics.stackexchange.com/questions/678299/…

Respuestas (2)

Su idea tiene sentido, pero creo que sería más adecuada si la discutiéramos en términos de una noción bayesiana de probabilidad en lugar de una visión frecuentista.

La definición de probabilidad que presentó es "frecuentista", en el sentido de que entiende las probabilidades en términos de la frecuencia con la que ocurrirá un determinado resultado. Otro punto de vista posible es pensar en la probabilidad en términos de "apuestas": si te digo que tengo una caja llena con 120 bolas y 80 de ellas son azules, ¿cuánto estarías dispuesto a apostar a que saque una bola azul? Si es azul, gano yo, de lo contrario, ganas tú. No querrás apostar más de 1:2 (es decir, si ganas te pago 2 dólares, si gano me pagas 1 dólar), porque si te cobro más es probable que pierdas dinero. Tenga en cuenta, sin embargo, que si sabe que suelo mentir sobre el número de bolas en una caja, su disposición a apostar 1:2 no será la misma. En su lugar, querrá apostar un poco menos, porque también está tomando en consideración cierta información adicional que tenía de antemano. Esto demuestra que la probabilidad no es un concepto absoluto, sino algo que depende de la información que tengas.

Consideremos como ejemplo un gas. Quiere atribuir probabilidades a cuál es el microestado en el que se encuentra actualmente el gas. ¿Cómo puede hacer eso? Bueno, usas el Postulado Fundamental de la Mecánica Estadística y afirmas que todos los microestados disponibles son igualmente probables.

Pero suponga que ahora sabe que su gas está en equilibrio térmico con un depósito a cierta temperatura T . La temperatura es solo una medida de la energía media de las partículas en su gas, por lo que esto equivale a decir que tiene un valor medio bien definido para su energía. Esta vez, tiene más información de la que solía tener y le gustaría usarla para determinar sus probabilidades de la misma manera que la usó cuando apostó contra mí. La última vez, usó una probabilidad que era uniforme, lo que podemos justificar diciendo que no teníamos información sobre por qué un estado debería preferirse a otro. Esta vez, también queremos elegir una distribución que no suponga información adicional a la que tenemos, por lo que elegiremos una probabilidad que maximice la "desinformación" (también conocida como entropía) de nuestro sistema sujeto a las restricciones proporcionadas por la información que tenemos. tienen (el valor medio de la energía es fijo).

¿Este proceso nos dará la probabilidad correcta? Cito la adaptación de DOI: 10.3390/e18070247 de una cita de Jaynes para responder a la pregunta:

Si, en un contexto dado, necesita formular una distribución de probabilidad en la que basar sus apuestas, elija, entre todas las distribuciones posibles que concuerden con lo que sabe sobre el problema, la que tenga la máxima entropía . ¿Por qué? ¿Se garantiza que esta sea la distribución de probabilidad "real" (lo que sea que eso signifique)? ¡Por supuesto que no! De hecho, lo más probable es que lo reemplace por uno nuevo tan pronto como vea el resultado de la próxima prueba, porque para entonces tendrá una información más. ¿Porqué entonces? Porque cualquier otra opción, que equivaldría a tirar parte de la información que tiene o asumir información que no tiene, sería indefendible.

Por lo tanto, tiene razón en la idea de que la probabilidad de Boltzmann es la "mejor estimación" de cuántas partículas ocupan cada estado dada la información disponible . Si obtiene más información, probablemente abandonará la distribución de Boltzmann tan pronto como suceda y actualizará sus probabilidades en consecuencia, al igual que alguien que cuenta cartas en el Blackjack actualiza la probabilidad de obtener dinero con cada nueva carta que ve. Tenga en cuenta que conocer la "verdadera probabilidad" significaría tener información completa sobre el sistema y, como mencionó, esto termina conduciendo a una sola posibilidad en la que sabe exactamente cuántas partículas hay en cada estado.

Si estas ideas te interesan, quizás quieras echarle un vistazo a este post: Referencia para la mecánica estadística desde la perspectiva de la teoría de la información .

Muchas gracias por esto. Sin embargo, hice una pregunta de seguimiento con respecto a esto aquí , con respecto a qué distribución debo usar para la cantidad de partículas en un nivel de energía.
Mi primera intuición me dice que la distribución binomial es lo suficientemente buena, pero una vez que profundizo un poco más, parece haber otra distribución posible que modela mejor el sistema.

Las estadísticas bayesianas, como se explica en la respuesta de @NíckolasAlves, es la forma de principio de resolver el problema filosófico de que es imposible medir las probabilidades a través de un número infinito de medidas. Tenga en cuenta, sin embargo, que las estadísticas bayesianas también pueden criticarse por estar basadas en creencias, codificadas en lo anterior, como nuestra suposición razonable de cuál podría ser la distribución de probabilidad. Eventualmente, ambos marcos producen resultados idénticos, si se aplican consistentemente.

Física estadística en el marco frecuentista
Sin embargo, incluso dentro del marco frecuentista, las cosas son algo diferentes a la forma en que se presentan en el OP. En particular, la probabilidad no se define como la razón norte i / norte , sino como el límite

pag i = límite norte + norte i norte .
No necesitamos saber el valor de este límite; es suficiente creer que existe tal límite (y satisface las restricciones básicas sobre la probabilidad, como ser positivo y sumar a uno). Entonces, para cualquier muestra de tamaño finito tenemos un estimador de cuál podría ser la probabilidad:
pag ^ i = norte i norte .
Tenga en cuenta que el estimador es en sí mismo una variable aleatoria , cuya media, desviación estándar y otras propiedades (por ejemplo, su consistencia, sesgo, etc.) pueden estudiarse mediante muestreo. norte partículas de un sistema teóricamente infinitamente grande y luego promediando sobre las muestras ( promedio de conjunto ).

La mecánica estadística nos da los valores medios de dichos estimadores calculados para sistemas simplificados, donde las probabilidades pueden calcularse explícitamente en el límite termodinámico , norte + . Así, las aproximaciones reales en mecánica estadística no tienen que ver con las suposiciones sobre el tamaño del sistema, sino con hacer las aproximaciones que permitan evaluar los límites exactos.

Por ejemplo, el ejemplo bien estudiado de un gas ideal ignora las colisiones entre los átomos/moléculas, lo que permite una evaluación exacta de sus propiedades. Sin embargo, estas colisiones son esenciales para el establecimiento del equilibrio termodinámico. Otro ejemplo es la suposición de ergodicidad, que sugiere que después de mucho tiempo el sistema explorará todas las configuraciones posibles y, por lo tanto, su estado puede ser descrito por los promedios del conjunto (en lugar de los promedios de tiempo); esta suposición se rompe en los fenómenos críticos.

Lectura recomendada: Capítulo de estadísticas de Review of Particle Physics.

He agregado una pregunta de seguimiento con respecto a esto. Comentó en alguna otra publicación que la cantidad de partículas en un estado es una variable aleatoria y se puede modelar usando la distribución binomial donde pag i es la probabilidad de que una sola partícula esté en ese estado
Sin embargo, ¿no crees que puede haber una mejor distribución que podemos usar sobre la binomial? Por ejemplo, ¿no podemos considerar norte + 1 diferentes sistemas con diferentes valores de norte i y por lo tanto, diferentes 'estimadores', y verificar la probabilidad de que estos estimadores produzcan el mismo resultado que la probabilidad de Boltzmann?
Según la distribución de Boltzmann, el número estimado de partículas en un estado es m = pag i norte . Entonces de un sistema de norte partículas, podemos esperar ver m partículas en el estado particular. Así que ahora, en lugar de verificar la probabilidad de obtener exactamente norte i partículas utilizando la distribución binomial simple, ¿qué tal si verificamos la probabilidad de obtener m partículas en el estado de norte , para cada uno de estos sistemas con diferentes valores de norte i y en adelante diferentes estimadores?
Sin embargo, en ambos casos obtendría lo mismo. metro mi a norte , así que al final supongo que no importaría. Sin embargo, me parece que esta nueva distribución es más precisa que la distribución binomial simple. Si tuviera la amabilidad de echar un vistazo a esta pregunta de seguimiento