En este sitio , el cambio de entropía se define como la cantidad de energía dispersada dividida por la temperatura absoluta. Pero quiero saber: ¿Cuál es la definición de entropía? Aquí , la entropía se define como la capacidad calorífica promedio promediada sobre la temperatura específica. Pero no pude entender esa definición de entropía:
=
. ¿Qué es la entropía inicialmente (hay alguna dispersión de energía inicialmente)? Por favor dé la definición de entropía y no su cambio .
Para aclarar, estoy interesado en la definición de entropía en términos de temperatura, no en términos de microestados, pero agradecería una explicación desde ambas perspectivas.
Hay dos definiciones de entropía, que los físicos creen que son iguales (módulo, la constante de escala dimensional de Boltzman) y un postulado de su similitud hasta ahora ha producido un acuerdo entre lo que se predice teóricamente y lo que se observa experimentalmente. Hay bases teóricas, a saber, la mayor parte del tema de la mecánica estadística, para creer que son lo mismo, pero en última instancia, su similitud es una observación experimental.
(Boltzmann / Shannon): dado un sistema termodinámico con un macroestado conocido, la entropía es el tamaño del documento, en bits, tendría que escribir para especificar el estado cuántico completo del sistema. Dicho de otro modo, es proporcional al logaritmo del número de estados cuánticos completos que podrían prevalecer y ser consistentes con el macroestado observado. Otra versión más: es la entropía de Shannon condicional (negativa) (contenido de información) de la distribución de probabilidad de máxima verosimilitud del microestado del sistema condicionada al conocimiento del macroestado prevaleciente;
(Clausius / Carnot): Sea una cantidad de calor sea ingresado a un sistema a temperatura . Entonces el cambio de entropía del sistema es . Esta definición requiere antecedentes, en particular lo que entendemos por temperatura ; la bien definida definición de la entropía ( es decir , que es una función del estado solo, por lo que los cambios son independientes de la ruta entre los estados finales) se deriva de la definición de temperatura, que se vuelve significativa mediante los siguientes pasos en el razonamiento: (ver mi respuesta aquí para detalles). (1) El teorema de Carnot muestra que todas las máquinas térmicas reversibles que trabajan entre los mismos dos depósitos caliente y frío deben funcionar con la misma eficiencia, ya que una afirmación de lo contrario conduce a una contradicción del postulado de que el calor no puede fluir espontáneamente del depósito frío al caliente. . (2) Dada esta universalidad de los motores reversibles, tenemos una manera de comparar depósitos: tomamos un "depósito estándar" y llamamos unidad de temperatura, por definición. Si tenemos un reservorio más caliente, tal que un motor térmico reversible operando entre los dos rendimientos unidades si trabajo por cada 1 unidad de calor que vierte al depósito estándar, entonces llamamos a su temperatura . Si tenemos un depósito más frío y hacemos lo mismo (usando el estándar como depósito caliente) y encontramos que el motor rinde unidades de trabajo por cada 1 vertido, llamamos a su temperatura . Solo de estas definiciones se sigue que la cantidad es una diferencial exacta porque entre posiciones y en el espacio de fase debe ser independiente del camino (de lo contrario, se puede violar la segunda ley). Entonces tenemos esta nueva función de "entropía" de estado definida para aumentar por el diferencial exacto cuando el sistema a absorbe calor de forma reversible .
Como se dijo al principio, es una observación experimental que estas dos definiciones son la misma; necesitamos una constante de escala dimensional para aplicar a la cantidad en la definición 2 para hacer que las dos coincidan, porque la cantidad en la definición 2 depende de qué depósito tomemos como el "estándar". Esta constante de escala es la constante de Boltzmann .
Cuando se postula que los flujos de calor y las evoluciones permisibles del sistema se rigen por mecanismos probabilísticos y que la evolución de un sistema es la de máxima verosimilitud, es decir , cuando se estudia la mecánica estadística, las ecuaciones de la termodinámica clásica se reproducen con la interpretación correcta de los parámetros estadísticos en términos de variables de estado termodinámicas. Por ejemplo, mediante un simple argumento de máxima verosimilitud, justificado por los temas discutidos en mi publicación aquí, uno puede demostrar que un conjunto de partículas con estados de energía permitidos de degeneración en el equilibrio (distribución de máxima verosimilitud) tiene la distribución de probabilidad dónde , dónde es un multiplicador de Lagrange. La entropía de Shannon de esta distribución es entonces:
con energía calorífica por partícula:
y:
Ahora agregue una cantidad de calor al sistema para que el calor por partícula aumente en y dejar que el sistema vuelva a equilibrarse; de (2) y (3) resuelve el cambio en necesario para hacer esto y sustituir en (1) para encontrar el cambio de entropía que surge de esta adición de calor. Se ha encontrado que:
y entonces igualamos las dos definiciones de entropía si postulamos que la temperatura está dada por (módulo la constante de Boltzmann).
Por último, es bueno señalar que todavía hay un margen considerable para la ambigüedad en la definición 1 anterior, aparte de los casos simples, por ejemplo , un conjunto de osciladores armónicos cuánticos, donde los estados cuánticos son manifiestamente discretos y fáciles de calcular. A menudo nos vemos obligados a realizar aproximaciones continuas, y entonces uno tiene libertad para definir el tamaño de ganancia grueso , es decir , el tamaño del volumen discretizante en el espacio de fase continua que distingue microestados verdaderamente diferentes, o uno debe contentarse con tratar solo con entropías relativas en un espacio de fase verdaderamente diferente. modelos de distribución de probabilidad continua Por lo tanto, en los análisis mecánicos estadísticos se buscan resultados que dependan débilmente del volumen de granulado grueso exacto utilizado.
La entropía de un sistema es la cantidad de información necesaria para especificar el estado físico exacto de un sistema dada su especificación macroscópica incompleta. Entonces, si un sistema puede estar en posibles estados con igual probabilidad entonces el número de bits necesarios para especificar exactamente en cuál de estos estados en los que realmente se encuentra el sistema sería . En unidades convencionales expresamos la entropía como .
Aquí hay una respuesta intencionalmente más conceptual: la entropía es la suavidad de la distribución de energía en alguna región dada del espacio. Para hacerlo más preciso, debe definir la región, el tipo de energía (o masa-energía) considerada suficientemente fluida dentro de esa región para ser relevante, y el espectro de Fourier y las fases de esos tipos de energía en esa región.
El uso de proporciones relativas "elimina" gran parte de este feo desorden centrándose en las diferencias de suavidad entre dos regiones muy similares, por ejemplo, la misma región en dos puntos en el tiempo. Desafortunadamente, esto también enmascara la complejidad de lo que realmente está sucediendo.
Aún así, la suavidad sigue siendo la característica clave que define la mayor entropía en tales comparaciones. Un campo con una fogata rugiente tiene una entropía más baja que un campo con brasas frías porque, con respecto a las formas de energía térmica e infrarroja, la fogata viva crea un pico enorme y muy irregular en el medio del campo.
En términos de la temperatura, la entropía se puede definir como
1 Esto se debe al pedido perfecto esperado en , eso es, , según la tercera ley de la termodinámica.
Puede configurar la entropía de su sistema bajo temperatura cero a cero de acuerdo con la definición estadística . Entonces el S bajo otra temperatura debe ser .
En la termodinámica clásica sólo importa el cambio de entropía, . A qué temperatura se pone cero es arbitrario.
Tienes una situación similar con la energía potencial. Uno tiene que fijar arbitrariamente algún punto donde la energía potencial se ponga a cero. Esto se debe a que en los cálculos mecánicos solo importan las diferencias de energía potencial.
El concepto de entropía es muy abstracto en termodinámica. Tienes que aceptar las limitaciones de la teoría a la que quieres ceñirte.
Al ir a la mecánica estadística, se obtendrá una imagen menos abstracta de la entropía en términos del número de estados disponibles. en algún pequeño intervalo de energía, . Todavía aquí todavía tenemos el tamaño arbitrario del pequeño intervalo de energía,
La definición de un concepto físico puede ser una forma diferencial pero no puede ser la diferencia de funciones. es una ecuación pero no la definición de entropía. La termodinámica en sí misma ahora difícilmente puede explicar "cuál es realmente la entropía", la razón por favor vea a continuación.
1.Definición de Clausius
Preguntas: 1) Desde , no se puede demostrar que sea una función de estado en matemáticas, solo puede depender del ciclo reversible de la máquina térmica, esto no parece una base perfecta en el sentido habitual, y es una única excepción como la definición de la función de estado tanto en matemáticas y física. Como principio fundamental, los cambios de función de estado deben ser independientes del camino tomado, ¿por qué la definición de la entropía es una excepción? 2) La definición de Clausius no puede explicar el significado físico de la entropía.
Preguntas: 1) La ecuación incluye la diferencia de funciones, ¿cuál es esta diferencia? 2) La ecuación no puede explicar el significado físico de la entropía.
3) Entropía de Boltzmann
Pregunta 1) dependen del postulado de igual probabilidad a priori, pero este postulado no necesita ser considerado en termodinámica. En general, el postulado de la misma probabilidad a priori no puede cumplirse para la energía potencial mecánica y la energía libre de Gibbs, una reacción química proviene del gradiente de potenciales químicos pero no la probabilidad igual a priori. El postulado se puede aplicar para describir el movimiento térmico, pero no es adecuado para las interacciones.
Primero, debe comprender que Rudolf Clausius reunió sus ideas sobre la entropía para dar cuenta de las pérdidas de energía que eran evidentes en la aplicación práctica de la máquina de vapor. En ese momento, no tenía la capacidad real de explicar o calcular la entropía, aparte de mostrar cómo cambiaba. Esta es la razón por la que estamos atascados con mucha teoría en la que observamos deltas, el cálculo fue la única maquinaria matemática para desarrollar la teoría.
Ludwig Boltzmann fue el primero en dar realmente a la entropía una base firme más allá de simples deltas a través del desarrollo de la mecánica estadística. Esencialmente, fue el primero en comprender realmente el concepto de un microestado, que era un vector en un espacio multidimensional (por ejemplo, uno con dimensiones potencialmente infinitas) que codificaba toda la información de posición y momento de las partículas compuestas subyacentes. Dado que se desconocía la información real sobre esas partículas, el microestado real podría ser uno de los muchos vectores potenciales. La entropía es simplemente una estimación de la cantidad de vectores posibles que realmente podrían codificar la información sobre las posiciones y los momentos de las partículas (recuerde, cada vector individual codifica la información sobre todas las partículas).
Es este último uso de la entropía para medir nuestro nivel de conocimiento lo que llevó a Claude Shannon a utilizar la maquinaria de la entropía en la mecánica estadística para desarrollar la teoría de la información. En ese marco, la entropía es una medida de las posibles permutaciones y combinaciones que podría tomar una cadena de letras. Comprender la entropía de la información es muy importante para comprender la eficacia de varios esquemas de cifrado.
En cuanto a definir la temperatura en términos de entropía. En general, se consideran medidas distintas pero relacionadas del macroestado de un sistema. Los diagramas de temperatura-entropía se utilizan para comprender la transferencia de calor de un sistema. En mecánica estadística, la función de partición se utiliza para codificar la relación de temperatura y entropía.
Sitios web útiles
Este sitio web es muy útil; consulte la ecuación 420, la temperatura está incrustada en la definición de beta. Este sitio web explica la definición de entropía de Rudolf Clausius. Este sitio web habla sobre Claude Shannon y sus contribuciones a la teoría de la información. Este sitio web explica la historia de la entropía y algunas de las diferentes definiciones. Este sitio web habla sobre la vida y la definición de entropía de Ludwig Boltzmann. Este sitio web explica con más detalle la relación entre la temperatura y la entropía.
Se puede alcanzar un estado de equilibrio de mayor entropía desde el estado de menor entropía mediante un proceso irreversible pero puramente adiabático. Lo contrario no es cierto, nunca se puede alcanzar adiabáticamente un estado de menor entropía desde un estado de mayor entropía. En un nivel puramente fenomenológico, la diferencia de entropía entre dos estados de equilibrio, por lo tanto, le dice cuán "lejos" están de ser alcanzables el estado de menor entropía desde el de mayor entropía por medios puramente adiabáticos. Así como la temperatura es una escala que describe la posibilidad de flujo de calor entre cuerpos de diferentes temperaturas que interactúan, la entropía es una escala que describe los estados de un cuerpo en cuanto a qué tan cerca o lejos están esos estados en el sentido de un proceso adiabático.
Como regla general, la física se vuelve más fácil cuando las matemáticas se vuelven más difíciles. Por ejemplo, la física basada en el álgebra comprende un montón de fórmulas aparentemente no relacionadas, todas y cada una de las cuales deben memorizarse por separado. Agrega cálculo y ¡guau! Muchos de esos temas supuestamente dispares colapsan en uno solo. Agregue matemáticas más allá del nivel introductorio de cálculo y la física se vuelve aún más fácil. Las reformulaciones lagrangianas y hamiltonianas de la mecánica newtoniana son mucho más fáciles de comprender, siempre y cuando puedas comprender las matemáticas.
Lo mismo se aplica a la termodinámica, con creces. Solía haber un sitio web que proporcionaba más de 100 declaraciones de las leyes de la termodinámica, la gran mayoría de las cuales abordaban la segunda y la tercera ley de la termodinámica. Las diversas descripciones cualitativas fueron bastante hilarantes. La mayoría de esas dificultades que tiran de los pelos desaparecen cuando se utilizan las matemáticas más avanzadas de la mecánica estadística en lugar de las matemáticas de la termodinámica de nivel de segundo año.
Por ejemplo, considere dos objetos a dos temperaturas diferentes en contacto entre sí. Las leyes de la termodinámica dictan que los dos objetos se moverán hacia una temperatura común. ¿Pero por qué? Desde la perspectiva de la termodinámica, es "¡porque yo lo digo!" Desde la perspectiva de la mecánica estadística, es porque esa temperatura común es la temperatura que maximiza el número de estados disponibles.
Ya que mi aporte no es valorado y apreciado. Esta será mi última publicación aquí.
Ahora, vayamos a la parte rigurosa. Esta definición de entropía unificará ambas definiciones de la respuesta más votada anterior.
En el mundo de la física, describimos un sistema como un área del espacio con contenido en él. Arreglemos la codificación de la descripción teniendo los siguientes bloques:
Si el espacio es completamente uniforme, lo que significa que simplemente podemos describir el espacio diciendo: Así es como se ve una celda en este espacio y es así en cualquier otro lugar del espacio. Esta es una descripción breve (est) del espacio, lo que significa que este espacio distribuido uniformemente tiene poca información (se puede describir con una cadena breve y sencilla). Y poca información significa alta entropía. Un ejemplo es un libro cuyo contenido contiene solo la letra 'b'. Podemos describir el libro con sólo veces, es una descripción corta ya que los libros tienen poca información y alta entropía. Si sabes un poco de informática, entonces reconocerás la veces es una compresión y la fuente de eso parte en la fórmula de la entropía
Cuando el espacio está distribuido de manera menos uniforme, aún podemos describir el espacio con una breve descripción como: así es como se ve el contenido de una celda típica. Se ve así en todas partes excepto en las celdas con las siguientes coordenadas [...] La parte de excepción también puede usar las formas básicas de la codificación como: A lo largo de esta línea, en esta superficie las celdas tienen este tipo de contenido. La idea principal aquí es que la descripción se hace cada vez más larga. Esto significa que el espacio tiene más información y menor entropía. Por supuesto, hay muchas formas de describir el mismo espacio complicado, pero la longitud de la descripción más corta es el número para definir la información y la entropía del espacio.
Ahora deberíamos ser conscientes de un espacio con poca información, pero descrito por una cadena larga. Esto no significa que el espacio tenga baja entropía (alta información). Un ejemplo de este tipo de espacio y descripción es un espacio distribuido uniformemente con la letra b y la descripción del espacio es "bbbbbbbbbbb..." repetido muchas veces, lo que lleva a una descripción larga e innecesaria/sin comprimir.
Ahora extendamos esto a la temperatura en la física. Dado que la temperatura va de la mano con el movimiento de partículas en el espacio. Tenemos que extender el sistema de coordenadas para tener en cuenta el tiempo (ya que sin tiempo, no podemos describir el movimiento y el movimiento). Esto significa agregar otra dimensión al sistema de coordenadas.
Lo mismo sucede con la característica de distribución uniforme. A baja temperatura, donde las partículas no se mueven, podemos describir el espacio en un momento dado y decir Es así también en todos los demás momentos . Una vez más, la descripción es breve. Este espacio tiene poca información y alta entropía. Cuando hay movimientos, debe agregar más descripción, como: "las partículas se mueven con este patrón matemático en el espacio descrito por esta ecuación". La longitud mínima de la descripción aumenta y el nivel de información aumenta con movimientos más difíciles de describir. Tienes que usar más combinación de ecuaciones matemáticas básicas para describir el movimiento.
La mayor cantidad de información proviene del espacio que no puede ser descrito por la codificación dada al principio. Tienes que describirlo uno por uno para cada celda en cada momento en el tiempo.
Mi nota final es que: el espacio cerrado no tiene interacción exterior. Este espacio no tiene cambios en la información y la entropía. Los patrones de movimiento (si hay movimiento) son cíclicos. Puedes describirlo en cada momento del ciclo y decir luego se repite . Una descripción del espacio puede no ser perfecta, pero si es la parte central de la descripción más corta, aún puede describir el espacio de manera imperfecta pero precisa. Con más agregado, se vuelve "más perfecto".
La entropía juega un "papel complementario" a lo que hace la energía interna. La energía interna -o más bien su cambio- mide la cantidad de energía que posee un sistema termodinámico. La entropía -o más bien su cambio- mide -en cierto sentido- la calidad de esta energía. Cuanto menor sea la entropía, mayor será la calidad.
Hay una distinción molecular entre la transferencia de energía como trabajo y calor. La transferencia de energía como trabajo se realiza de forma ordenada. Durante el levantamiento de un peso, las moléculas se mueven uniformemente hacia arriba. Por otro lado, el calor es la transferencia de energía a través de las colisiones aleatorias de moléculas. Por eso una fórmula como
Como ejemplo concreto de calidad , consideremos una máquina térmica que opera entre dos depósitos térmicos de temperatura caliente y fría, y , respectivamente. La energía total que ingresa al motor es , el calor procedente de la fuente caliente. El trabajo entregado es
La entropía es simplemente la cantidad de desorden. Olvídese de las ideas de temperatura, porque el espacio no estructurado (como antes del Big Bang) tiene un desorden completo donde hay casi 0 temperatura (clásica). Digo "clásico" porque decir que hay una "temperatura" ya es imponerle un orden.
¿Qué es el orden, entonces? La cantidad de conexión. Esto es lo que debería ser medible con algún especificador o unidad como referencia de estado base (en el sentido griego: indivisible) y luego la entropía (o la cantidad de información que estaba contenida dentro de la masa, digamos) sería su inversa .
Apenas hay información en el aire, por ejemplo, por lo que tiene una alta entropía. Por otro lado, hay mucha información en una masa de plomo (en relación con el resto del universo multidimensional, en algún lugar del orden de m*c 2 , supongo), por lo que tiene una entropía baja.
¿Qué es realmente la entropía ?
Quiero responder (!) a esta pregunta desde un punto de vista diferente.
En primer lugar, me concentro en su título y la frase "realmente". No sabemos qué es realmente la entropía. Tampoco sabemos qué es realmente la energía, y cualquier otra cosa o concepto también. La entropía, como todos los demás conceptos creados por los humanos, es una convención entre algunas personas para referirse al mismo (!) pensamiento o sentido .
Quiero mencionar un ejemplo aquí. Quiero preguntar "¿Qué es realmente el color verde?" La respuesta es la misma: “No lo sabemos”. Pero generalmente hablamos de eso con otras personas y si nadie sabe qué es el verde, ¿cómo pueden entender sus objetivos? ¿Cómo se ha creado esta concordancia (o sincronía (lo siento por el mal inglés)) entre los pensamientos o sentidos de los humanos? La respuesta es “El paso del tiempo crea esa concordancia”. ¡El paso del tiempo nos ayuda a entendernos sin saber cómo nos entendemos!
Creo que otro ejemplo intuitivo puede ayudar. Quiero referirme a la educación ordinaria de los niños. Ningún niño sabe por qué o más es igual a (Honestamente, tampoco lo sé, ¡incluso ahora!). Solo ven (!) algunas formas como , , , y , y los más avispados esos pueden analizar más que sus compañeros, dicen consigo mismos “Cuando veo estas formas , debo dibujar esta forma después de la .” De hecho, no piensan en “Qué son esas formas” y lo que es importante y maravilloso aquí es que después de un período (el paso del tiempo) y la repetición creen que han aprendido a sumar y ¡fue tan simple! Este proceso también está ocurriendo en niveles y edades elevados. Uno de mis profesores decía (no sé si es cierto o no, solo cito): “Si le preguntas a un ingeniero japonés qué es el estrés, él/ella no puede responderte pero construyen buenos puentes, máquinas, etc. .” Creo que si no pueden hablar de la realidad del estrés, es porque han pasado por el mismo proceso de educación. Cuando los estudiantes de ingeniería ven la fórmula del estrés , es extraño para ellos. Cuando ellos mismos escriben esa fórmula, su extrañeza se reduce un poco. Y después de algún tiempo y repetición, piensan que el estrés nunca ha sido extraño para ellos mientras que no saben qué es el estrés incluso después del paso del tiempo y la repetición.
Tal vez digas que has visto a algunas personas que son capaces de hablar sobre el estrés durante horas. Tienes razón, pero incluso esas personas no saben lo que es el estrés. Porque para definir el estrés se ayudan de otros conceptos o cosas y como mencioné antes, no conocemos todos los conceptos y cosas. Su explicación es demasiado útil para disminuir el tiempo necesario para crear el pensamiento o sentido común , pero no elimina la ignorancia.
Entonces, si no puedes entender la entropía, debería decir: “No te preocupes. Lo entenderás sin que sepas cómo lo has entendido si tienes paciencia y repites. ¡El paso del tiempo hará bien su trabajo!”
DanielSank
Selene Routley
DanielSank
Rococó
innisfree
Selene Routley
Selene Routley
Selene Routley
terry bollinger
Selene Routley
Selene Routley
terry bollinger
Selene Routley
hipnótico
Rococó
más anónimo