¿Puede alguien explicarme cuál es la definición formal de temperatura ?
Ni mi libro de texto, ni mi profesor, ni ninguna de las fuentes en línea que he consultado pueden darme una definición adecuada de temperatura. Incluso Feynman no define la temperatura. Honestamente, la cantidad de definiciones circulares y ambigüedades que he encontrado al tratar de comprender las definiciones precisas de los conceptos termodinámicos es asombrosa.
Lo mejor que obtuve fue que la temperatura de un sistema de partículas es una medida de su energía cinética promedio.
Al derivar la ley de los gases ideales para gases monoatómicos, la derivación de la fórmula de energía interna me queda claro Sin embargo, entonces se usa que la energía cinética promedio de un sistema se da en términos de su temperatura como . Para un gas monoatómico, la energía total es simplemente el número de moléculas multiplicado por la energía cinética promedio (ya que se supone que las moléculas no tienen energía de rotación), y por lo tanto , lo que da que es la ley de los gases ideales.
Entonces, ¿debo tomar la afirmación de que la energía cinética promedio de un sistema es igual a una constante multiplicada por su temperatura? como una definición de temperatura? No lo creo porque, de hecho, este es el teorema de equipartición, lo que significa que la temperatura debe definirse de forma independiente en otro lugar.
Entonces, ¿cuál es la definición adecuada de temperatura en termodinámica y teoría cinética y, además, por qué cuando colocamos un termómetro en un baño de agua podemos decir que la lectura que obtenemos es una medida de la energía cinética promedio de las moléculas en ¿el baño?
Ya que Fabian les dio una perspectiva termodinámica, intentaré darles el punto de vista de la física estadística. De hecho, te acercaste mucho cuando citaste el teorema de equipartición, ya que el panorama general es mucho más.
Versión ultra concisa: la temperatura es el inverso del multiplicador de Lagrange que garantiza la conservación de la energía en la maximización de la entropía estadística.
Voy a quedarme en un marco clásico para no tener que abrumarlos con la maquinaria mecánica cuántica del operador de densidad. Digamos que tenemos un sistema de partículas Nos damos una densidad de fase : la probabilidad de que la i-ésima partícula tenga una posición entre y , y un impulso entre y es proporcional a . Luego construimos la entropía estadística . Esto es por lo tanto un funcional, es decir, una función de la función :
donde no escribí los argumentos de para la legibilidad.
Ahora el juego es encontrar que maximiza bajo las restricciones de que se conocen algunas cantidades macroscópicas. El ejemplo más simple es el del conjunto canónico donde la energía macroscópica es conocida.
dónde es la energía microscópica para el punto dado en el espacio de fases. Por ejemplo, para el gas perfecto, solo podemos tener en cuenta la energía cinética,
dónde sería la masa de cada molécula en el gas.
Esa maximización restringida se transforma luego en una no restringida al maximizar realmente
dónde se introduce para hacer cumplir la restricción, siempre presente, que tiene que normalizarse a 1 para que la definición probabilística anterior tenga sentido. y se llaman multiplicadores de Lagrange. el resultado es que
donde la normalización se llama la función de partición. Esta es la distribución de Boltzmann-Gibs. Finalmente, podemos definir la temperatura como
Desde un punto de vista lógico y termodinámico, la definición de temperatura debe estar dada por la Ley Cero de la Termodinámica.
Digamos que no sabemos qué es la temperatura. Sin embargo, sabemos que si dejamos que dos cuerpos interactúen, pueden cambiar algunas propiedades termométricas (como el volumen, la presión, la resistencia eléctrica,...) entre sí. Cuando no hay ningún cambio en ninguna propiedad termométrica, decimos que los cuerpos han alcanzado el equilibrio térmico. La Ley Cero consiste en el hecho empírico de que si está en equilibrio térmico con y está en equilibrio térmico con , después está en equilibrio térmico con . Esta es una relación de equivalencia que clasifica un conjunto de cuerpos en subconjuntos llamados clases de equivalencia . Luego etiquetamos cada clase con un número que llamaremos temperatura. La Ley Cero nos permite establecer el equilibrio térmico sólo en términos de una variable recién definida llamada temperatura.
Sin embargo, la definición anterior no es absoluta. El número que asociamos a cada subconjunto de cuerpos en equilibrio térmico es arbitrario. Para eliminar esta arbitrariedad (al menos parcialmente) usamos la Segunda Ley de la Termodinámica para definir la llamada temperatura absoluta o termodinámica . La segunda ley implica que cualquier motor térmico reversible que opera entre dos fuentes tiene una eficiencia dada por
Aquí está la definición de temperatura en termodinámica:
Sin embargo, tenga en cuenta que el calor no está definido para un estado del sistema, pero necesita conocer el proceso (ruta) por el cual ha llegado al estado actual. Es decir solo el cambio se define en (1) y no sí mismo.
A través de (2) la temperatura se define hasta una constante multiplicativa. Esta constante generalmente se define (a través de la constante de Boltzmann) de tal manera que hay 100 unidades entre la temperatura de congelación y la de ebullición del agua a presión ambiente.
Editar:
Gracias a Valter Moretti he descubierto que hay que añadir la condición a (2) que tiene que ser extenso.
Matemático:
La temperatura es el cambio en la energía interna con respecto a la entropía cuando se mantienen constantes el volumen y el número.
Inglés simple: la temperatura es una medida de la energía libre en un objeto. Diferentes objetos tienen diferente capacidad para retener energía. Por ejemplo, a temperatura ambiente, el amoníaco puede contener unas 10 veces más energía que el argón gaseoso (por gramo). Para complicar aún más las cosas, la capacidad de un material para adaptarse a los cambios de energía libre con la temperatura. En lugar de simplemente informar la energía libre en un objeto, la temperatura informa la energía libre normalizada según la capacidad que tiene ese objeto a esa temperatura. Todo esto nos lleva de vuelta a esa definición que se siente muy circular y realmente no explica mucho fuera de contexto:
Heurística: la temperatura es la cualidad de la materia que es la misma cuando los objetos en contacto alcanzan el equilibrio térmico.
Revisión mecanicista: has escuchado sobre el movimiento de las moléculas en un gas y el movimiento de los átomos en un sólido, y esa es una forma de entender las cosas, pero también hay fotones y fonones (matemáticos) que le dan temperatura a las cosas. Resulta que sabemos la temperatura del sol no porque enviamos un termómetro, sino porque irradia fotones como todo lo demás, y la distribución de frecuencia de la luz saliente es consistente con la superficie del sol a unos 5800K. Incluso sabemos que la mayor parte del espacio tiene una temperatura constante de alrededor de 3K debido a la misma propiedad.
Editorial: La energía va de objeto a objeto y de tipo a tipo todo el tiempo. La energía es un concepto abstracto que relaciona todas las ciencias físicas (y describe cientos de formas de energía), por lo que realmente no podemos esperar que su derivado con respecto a la Entropía sea solo un fenómeno. Seguir explorando.
¿Qué es la temperatura? Hay respuestas matemáticas muy formales a esta pregunta. Sin embargo, la mejor respuesta que he encontrado en mis seis años de educación física fue en mi curso original de termodinámica de mi segundo año, en Física térmica de Schroeder , páginas 85-91. Sin embargo, mi comprensión ha evolucionado con la exposición a la probabilidad y la teoría de la información.
La temperatura se define inequívocamente como "cuánto cambia la entropía de un sistema cuando cambia la energía de ese sistema".
Por lo tanto, cualquier comprensión de la temperatura que uno desee obtener está fundamentalmente limitada por su comprensión de lo que es la entropía. La entropía es una medida de la cantidad de información (en bits, ya que estamos en computadoras en este momento) se requiere para conocer el estado de un sistema.
El estado de un sistema (en realidad, el estado cuántico) es todo lo que posiblemente se pueda conocer simultáneamente sobre un sistema. Una vez que sabe todo lo que hay que saber sobre un sistema , ha determinado su estado.
La entropía es equivalente al número esperado de preguntas sí/no mínimamente requeridas para determinar el estado de un sistema . Tenga en cuenta la palabra "esperado" (que significa promedio) y la palabra "mínimamente" (que significa hacer las mejores preguntas que pueda).
Probablemente nunca haya escuchado esta definición de entropía, pero esta definición es completamente correcta, excepto que en física multiplicamos este número por (un número) simplemente por razones históricas. Entonces, cada vez que lea entropía , debe intentar pensar en el número esperado de preguntas de sí/no . Si no sabes si una moneda es cara o cruz, la entropía es 1 pregunta binaria: "¿La moneda es cara?".
Hay una ley simple que dice que el número esperado de preguntas sí/no requeridas para determinar el estado de un sistema cerrado nunca puede disminuir . Esto se conoce como la segunda ley de la termodinámica. Es una ley genial. Y cuando la entropía se define como el número esperado de preguntas, es una ley exacta que siempre se cumple. Incluso vale para el Demonio de Maxwell.
El número esperado de preguntas para determinar el estado de un sistema cerrado ciertamente puede aumentar . Y ciertamente lo hará, hasta que llegue a un límite. Un sistema que ha llegado a este "límite de incognoscibilidad" ocupa todos los estados posibles con igual probabilidad, y yo llamo a este sistema ergódico . Esto siempre sucede si espera lo suficiente, gracias en mi opinión a las matemáticas de las cadenas de Markov (todo sistema cerrado es necesariamente una cadena de Markov irreducible y ergódica que se acerca a una distribución estacionaria). Esto se llama la hipótesis ergódica en física.
Considere dos sistemas ergódicos, uno de alta temperatura y otro de baja temperatura.
Cuando un sistema tiene alta temperatura, significa que pequeños cambios en la energía del sistema provocan grandes cambios en la entropía del sistema (de hecho, esta es la definición de temperatura). Pensando en la entropía como el número esperado de preguntas de sí/no, esto significa que tendrá que hacer muchas más preguntas para determinar el estado del sistema si agrega un poco de energía.
Cuando un sistema tiene baja temperatura, significa que pequeños cambios en la energía del sistema no cambian mucho la entropía del sistema. No tendrá que hacer muchas más preguntas para determinar el estado del sistema si tiene un poco más de energía.
Ahora considere el sistema combinado, aislado del resto del universo. La 3ª Ley establece una restricción en el número esperado de preguntas de sí/no para determinar el estado del sistema combinado. Considere lo que sucede si los sistemas pueden intercambiar energía (¡y solo energía!).
Si no se intercambia energía entre los sistemas de baja y alta temperatura, entonces el número esperado de preguntas requeridas para todo el sistema es solo la suma del número esperado de preguntas para cada subsistema: .
Sin embargo, ¿qué sucede si los dos subsistemas pueden intercambiar energía y lo hacen? La 3ª Ley dice que, pase lo que pase, el número esperado de preguntas requeridas para determinar el estado del sistema combinado no puede disminuir .
Si sabe que fluyó más energía desde el sistema de alta temperatura al sistema de baja temperatura (lo cual ciertamente puede suceder, la energía fluye al azar), sabe por la definición de temperatura que la cantidad de preguntas requeridas para determinar el estado del sistema combinado tiene disminuido, en aparente violación de la 2ª Ley: . Sin embargo, este conocimiento sobre el "flujo de energía hacia atrás" no se puede obtener sin hacer una cierta cantidad de preguntas. del sistema: el número exacto exigido por la 2ª Ley .
Por otro lado, si todo lo que sabe es que el intercambio de energía está ocurriendo en este sistema combinado, según la hipótesis ergódica, el número esperado de preguntas que tendrá que hacer solo está aumentando, acercándose rápidamente al límite ergódico. Esto requiere que la energía fluya en promedio (al azar) de lo caliente a lo frío. Y el límite ergódico es cuando lo caliente y lo frío están a la misma temperatura.
Selene Routley
Valerio
Selene Routley
Mitchell
jpmc26
DanielSank
N. Virgo
brillar
usuario121330
brillar
usuario121330
brillar