Según tengo entendido, en física, la 'información' está estrechamente ligada a la entropía termodinámica. ¿Esta relación implica que si el Universo se expande y termina en 'muerte por calor' (¿máxima entropía?) que alcanza un estado de máxima información (entonces en el Big Bang tenía muy poca entropía y contenido de información)? Siento que esto es incorrecto dado el principio de conservación de la información, entonces, ¿qué implica un aumento de entropía en el Universo para su información?
Creo que usar la entropía cuando estás dentro de un sistema no tiene sentido, la entropía describe la cantidad de estados posibles que un sistema puede tener dando algo de "información global".
Es decir, si tienes una caja aislada, y solo sabes que tiene 10 partículas dentro y que la energía total dentro de la caja es de 100 julios, no puedes saber cuál es la configuración exacta de lo que hay dentro de la caja, solo sabe que algunas configuraciones están permitidas y otras no, por ejemplo, sabe que todas las partículas no pueden tener velocidad cero ya que la caja contiene más de cero energía.
Pero dentro de la caja, las partículas están en una configuración definida, en una única trayectoria determinista, por lo que no creo que hablar de la entropía del universo tenga sentido, ya que estamos dentro y la entropía describe el sistema desde un punto de vista exterior.
EDITAR: Otra cosa es que a menudo se cree que una entropía creciente significa que la situación se está volviendo cada vez más "un desastre", que todo va hacia una especie de gran sopa sin forma y sin ninguna estructura, pero es solo a partir de esto " punto de vista global": el número de configuraciones posibles aumenta, pero eso no significa que la configuración actual del sistema no esté estructurada y parezca un desastre ...
Trimok