¿Existe una equivalencia entre información, energía y materia?

Considere el mundo físico como hecho de información, con energía y materia como accesorios.

Esta afirmación debe situarse en el contexto del principio holográfico y las obras de Bekenstein...

De hecho, según Bekenstein

la entropía termodinámica y la entropía de Shannon son conceptualmente equivalentes.

el número de arreglos que cuenta la entropía de Boltzmann refleja la cantidad de información de Shannon que se necesitaría para implementar cualquier arreglo en particular...

...de materia y energía

La única diferencia fundamental entre la entropía termodinámica de la física y la entropía de Shannon radica en las unidades de medida; el primero se expresa en unidades de energía dividida por la temperatura, el segundo en "bits" de información esencialmente adimensional.

además, el límite de Bekenstein afirma que existe un máximo para la cantidad de información que potencialmente se puede almacenar en una determinada región del espacio que tiene una cantidad finita de energía es similar al principio holográfico y que esto finalmente vuelve a decir que el último partícula es un bit de información (1 o 0).

¿Podemos hablar de una equivalencia de información, energía y materia...?

EDITAR:

Para ampliar el contexto,...

Energía y materia

Como nos mostró Einstein, E = MC^2, hay equivalencia entre masa y energía

La información es energía

La información es una forma de energía; de hecho, para almacenar o transmitir información se necesita energía

y por su reciproco

la energía es información

de hecho, los fotones emitidos por cualquier fuente, en forma de radiación, como por ejemplo las estrellas, llevan información sobre la fuente misma, su ubicación en el espacio y el tiempo, sus colores y temperaturas, su composición atómica y molecular, su velocidad de rotación y su dirección de movimiento, ..

Respuestas (2)

El primer pensamiento que me viene a la mente al leer esto es la entropía de Bekenstein-Hawking de un agujero negro, que relaciona la entropía de un agujero negro con el área de su horizonte de sucesos (que a su vez está definido por su masa/energía). Si queremos conectar esta entropía del agujero negro con la información, algunas personas han argumentado que esto surge del entrelazamiento cuántico . Mi conocimiento de esto es aproximado, pero el artículo arXiv vinculado puede ayudar. Enlazo el entrelazamiento con la información, porque al pensar en sistemas cuánticos entrelazados, su entrelazamiento nos da información sobre el sistema o la ausencia del mismo.

Sin embargo, también podemos tomar una interpretación termodinámica / mecánica estadística clásica de la pregunta. En este caso tenemos las cantidades de entropía S y energía interna tu , que se puede relacionar (a través de la primera ley): d tu = T d S + d W . Esta versión de la entropía está relacionada con la entropía de Shannon por un factor constante ( k B / en 2 ?) como S = k B en Ω , dónde Ω son todos los estados posibles en los que puede estar el sistema. Si queremos separar la materia de la masa , podríamos hablar de partículas individuales (por ejemplo, aquellas que forman un gas), en cuyo caso su multiplicidad (cantidad de materia) determina la entropía de el sistema completo S . S es una medida de qué tan bien conocemos los estados de cada unidad de materia. También hay una competencia entre la entropía S y energía interna tu , donde a bajas temperaturas el sistema estará en un estado donde tu se minimiza pero a altas temperaturas S se minimiza.

La termodinámica está bien definida solo en equilibrios, pero consideremos un sistema que se mueve arbitrariamente del estado A al estado B. Hay una diferencia de energía libre entre los estados A y B. El trabajo involucrado para mover el estado de A a B puede ser mayor que la diferencia de energía libre (por ejemplo, debido a la fricción). Al reescribir la primera ley, vemos que este trabajo perdido ("disipado") debe explicarse por un aumento en la entropía. Entonces podrías equiparar el trabajo W de conducir un proceso a un aumento de la incertidumbre S . Pero en tales procesos dinámicos, el trabajo de definir la entropía es un área de estudio activo, por lo que debemos tener cuidado con nuestras palabras.

Pero todo esto depende del contexto. ¿Cuál es la energía o información de interés? En términos de sus dos preguntas directas, vemos en la descripción termodinámica clásica que la entropía S de hecho, está relacionado con el número promedio de bits necesarios para describir el sistema (entropía de Shannon). El segundo sobre una restricción de la densidad de la información se puede deducir de la entropía de Bekenstein-Hawking/entropía de entrelazamiento de un agujero negro (ya que el tamaño del agujero negro es el límite).

Un artículo de 2019 de Melvin M. Vopson establece una teoría para un principio de equivalencia de información de masa-energía y propone un experimento para probarlo.

https://aip.scitation.org/doi/10.1063/1.5123794

Del papel:

La masa estimada de un bit de información en T = 2,73 K es m_{bit} = 2,91 × 10^{-40} Kg.