Si información y entropía son equivalentes, y la información es una cantidad conservada por unitaridad, qué quiere decir que la entropía está creciendo desde el big bang (sé por qué crece, no entiendo cómo conciliar las dos afirmaciones) .
Entiendo el proceso por el cual crece la entropía y sé por qué se conserva la información (estados cuánticos). Lo que no entiendo es cómo estos dos hechos son reconciliables entre sí, ya que la información es equivalente a la entropía.
Usaré esta respuesta de Bob Bee para abordar esta parte de la pregunta:
Si la información se conserva, ¿por qué el universo primitivo tenía una entropía más baja que ahora?
Parece que el concepto de conservación de la información surge dentro de un sistema mecánico cuántico de solución completa del universo primitivo. Esto presupone que se ha logrado la cuantización de la gravedad. El nivel cuántico no tiene una definición de entropía como la define la termodinámica , que es una teoría clásica, emergente del nivel de mecánica estadística clásica subyacente.
De Bob:
la información en su forma básica más simple, en la teoría cuántica, es el estado del sistema (que podría estar compuesto por muchos subsistemas). Un sistema físico está definido por un vector de estado. Podría y, a menudo, es de dimensión infinita, pero también podría tener subespacios de Hilbert de dimensión finita (como el giro). La evolución de un sistema, considerado en estado puro, está dada por un operador unitario que preserva la causalidad (a nivel del espacio de Hilbert, no en la interpretación probabilística de colapso y medidas). Siempre puedes volver atrás aplicando el operador inverso. Cuando el estado se vuelve mixto, se puede considerar que la información se pierde y la entropía aumenta.
cursiva mía
Tal como lo entiendo, durante el tiempo del universo cuando la conservación de la información se mantiene debido a una solución mecánica cuántica pura para el universo, la entropía es constante. Una vez que se establece la decoherencia, la mecánica estadística clásica, aumenta la entropía. Desde este punto de vista, no hay conflicto entre una entropía baja al comienzo del universo y fijada en un valor dado, y el aumento después de que las soluciones mecánicas cuánticas se decoheren. La ley de la entropía tiene un signo mayor o igual al frente.
"dado que la información es igual a la entropía" no es cierto en el nivel cuántico. Mire el artículo sobre la entropía de la información que usa probabilidades clásicas, no mecánica cuántica. Además, esto de la termodinámica y la teoría de la información no implica el argumento de la unitaridad . Parece que el argumento de la unitaridad es importante para la conservación de la información en los sistemas cuánticos, pero no para definir la entropía de la información.
También se debe tener en cuenta que la cuantización de la gravedad sigue siendo un campo de investigación abierto.
Hasta donde yo sé, no hay un consenso mayoritario al respecto. Conciliar la irreversibilidad con la mecánica cuántica (al igual que la propia mecánica cuántica) no tiene una interpretación bien aceptada.
¡Pero eso no significa que no tengamos un formalismo para ello! Lo hacemos, e implica una forma de estado cuántico generalizado, el formalismo de matriz de densidad. Dentro de él es mucho más natural incluir y derivar términos irreversibles (no unitarios) a través de acoplamientos a sistemas que no son de interés para nuestro modelo (digamos, un campo electromagnético termalizado).
La irreversibilidad proviene entonces del acoplamiento con un sistema externo del que no tenemos información. La teoría cuántica en este formalismo de matriz de densidad está muy bien fundamentada como implicaciones de la teoría de la información.
Teniendo esto en cuenta, para que la entropía del Universo aumente, tendría que acoplarse a algo que es extremadamente complicado de describir con detalle. Entonces podemos argumentar que (es solo mi intuición, y podría estar terriblemente equivocado), ya que el Universo es infinito, si describo alguna región local de él, está acoplado a la infinidad que lo rodea, lo cual definitivamente es complicado de describir. La información se pierde para el resto del Universo.
La entropía y la información no son idénticas. La entropía de un sistema es una medida de lo que no sabes sobre los detalles microscópicos de un sistema dada alguna observación macroscópica. Ecuación de entropía de Boltzmann: significa que la entropía aumenta cuando el número de microestados correspondientes a un macroestado dado ( ) aumenta.
La segunda ley significa que a medida que el universo evoluciona, se vuelve descriptible por más y más microestados, también conocido como. aumenta la entropía. La información todavía está 'en' el microestado, pero no es información disponible para la observación macroscópica.
Tal vez un ejemplo ayude. Imagine una caja con un gas contenido en la mitad de la caja. El gas está formado por cada una de las partículas tiene una posición (3 componentes , , ) y la velocidad (tres componentes también). Por lo tanto podemos describir el gas con variables A medida que el gas se esparce por el resto de la caja, este número no cambia; este es el tipo de 'información' sobre la que se pregunta su pregunta. Sin embargo, hay menos formas de organizar las partículas de modo que estén todas en la mitad de la caja que de distribuirlas por toda la caja, por lo que la entropía aumenta a medida que el gas se propaga.
Mozibur Ullah
isometria