¿Cuál es la relación entre la entropía termodinámica y la información en el cerebro (o un libro)?

La máxima entropía es equivalente a la mínima información en mecánica estadística y mecánica cuántica y el universo en su conjunto tiende hacia un equilibrio de mínima información/máxima entropía. Lo que también parece ser parte de la imagen canónica es que toda la formación de estructuras que vemos en la Tierra es el resultado de que la Tierra es un sistema abierto, una máquina termodinámica, por así decirlo, que es impulsada por la energía del sol, y por lo que la aparente violación de la segunda ley de la termodinámica en la tierra es solo una ilusión que se resuelve al incluir al resto del universo.

Pero, lo que me he preguntado ayer mismo:

¿Es legítimo considerar la información que se almacena en el cerebro como parte de la información/neguentropía termodinámica? ¿O se trata de un nivel de información completamente diferente?

La discrepancia entre estos dos aspectos de la información probablemente se vuelve más evidente si hago la misma pregunta sobre la información que se almacena en una computadora. Porque la computadora es completamente determinista, y por lo tanto me parece que no es válido considerarla como parte de un sistema mecánico estadístico o mecánico cuántico (al menos a menos que la computadora se destruya, o una descarga eléctrica cambie uno de sus almacenamientos). -flops o algo por el estilo).

O, para dar un paso más hacia el absurdo: ¿los libros de la biblioteca del congreso de EE. UU. o el arte expuesto en el Louvre de París contienen alguna fracción sustancial de negentropía termodinámica, o no es más bien irrelevante termodinámicamente si una página de un libro o una pintura contiene una mancha de pintura negra, verde o roja que es parte de una letra "a" o del ojo de la Mona Lisa, o si no contiene pintura alguna?

Por supuesto, sé que podemos definir la información de Shannon para la memoria de la computadora tan directamente como podemos definir la entropía del cerebro como un sistema electroquímico-termodinámico. Pero mi pregunta es, ¿son estos conceptos realmente iguales, o uno está incluido en el otro, o son completamente disjuntos, complementarios o no relacionados?

Editar : esta pregunta (gracias a Rococo) ya tiene varias respuestas, cada una de las cuales me parece bastante esclarecedora. Sin embargo, dado que la recompensa ya está sobre la mesa, animo a todos a que brinden su propio punto de vista, o incluso declaraciones que entren en conflicto con las de la pregunta vinculada.

¿Por qué hacer que el cerebro sea especial? Es solo un montón de neuronas disparando a través de reacciones bioquímicas. Desea considerar la entropía neta de todas esas reacciones, es decir, la vida, no solo una pequeña parte de ella. No se deje engañar por la noción de "entropía de la información" al pensar que las partes de la biología que no son del cerebro no contienen información.
Similar, si no duplicado, de physics.stackexchange.com/q/263197
@AtmosphericPrisonEscape: Podría repetir parte de mi comentario a la respuesta de Vadim. ¿Permite la entropía termodinámica explicar por qué el manuscrito original de los principios de Newton ganaría una oferta más alta en Sotheby's que un libro equivalente con páginas vacías (o, digamos, uno con puntos negros al azar). ¿O es solo por la ignorancia humana que pasa por alto los muchos secretos preciosos capturados entre las fibras de lignina de todas estas páginas? (Sin ofender en esta ironía, solo para hacer el contraste más nítido)
@Rococo: gracias por el enlace. De hecho, esta es casi la misma pregunta formulada de manera diferente. Respuestas muy interesantes. Me inclino más por la respuesta de knzhou, que, según mi interpretación, implica que la entropía de Boltzmann se ocupa de los grandes cambios en la probabilidad e ignora los pequeños (razón por la cual las medidas calorimétricas producen lo mismo para un libro impreso que para un libro vacío), mientras que La entropía de Shannon es una especie de "resta del fondo" de la entropía de Boltzmann y solo considera los pequeños cambios de probabilidad debido a la entropía de Shannon (que también se vuelve a escalar debido a la abstracción de puntos de pintura a letras).
@oliver: Es posible que desee observar la entropía de un antiferromagnético a 0K...

Respuestas (3)

en breve:

Sí, la información y la negentropía miden lo mismo, y pueden compararse directamente y solo difieren en un factor de escala constante.

Pero esto introduce un problema cuando se habla de la información valiosa en un libro, cerebro o computadora, porque la información valiosa se ve abrumada por la entropía relativamente numéricamente gigantesca de la disposición de la masa que almacena esa información. Este problema, sin embargo, a menudo se resuelve fácilmente haciendo preguntas de información que se formulan de manera que se seleccione la información de interés. Entonces en una computadora, donde esta separación es más obvia, por ejemplo, es importante diferenciar entre la entropía de un transistor (una estructura cristalina con información muy alta) y la información contenida en su estado lógico (una información mucho más baja, pero suele ser más interesante).

Por lo tanto, la pregunta termina siendo única, ¿entendemos el sistema lo suficientemente bien como para determinar qué información nos interesa? Una vez que sabemos eso, generalmente es posible estimarlo.

¿La negentropía y la información miden lo mismo?:

Sí. Muchas personas lo explican muy claramente, incluida esta respuesta en PSE, pero iré con un libro antiguo de Brilluoin, Science and Information Theory ( es decir , este es el Brilluoin de Brilluoin Zones, etc., y también la persona que acuñó el término "neguentropía").

El punto esencial es mostrar que cualquier observación o experimento realizado en un sistema físico automáticamente resulta en un aumento de la entropía del laboratorio. Entonces es posible comparar la pérdida de negentropía (aumento de entropía) con la cantidad de información obtenida. La eficiencia de un experimento se puede definir como la relación entre la información obtenida y el aumento de entropía asociado.

información vs información valiosa:

Brilluoin también distingue entre "información" e "información valiosa", y dice que a priori no hay una forma matemática de distinguirlos, aunque en ciertos casos podemos definir lo que consideramos información valiosa, y en esos casos podemos calcularla. . 

Ignoramos por completo el valor humano de la información. A una selección de 100 letras se le da cierto valor de información, y no investigamos si tiene sentido en inglés y, de ser así, si el significado de la oración tiene alguna importancia práctica. De acuerdo con nuestra definición, un conjunto de A 100 letras seleccionadas al azar (según las reglas de la tabla 1.1), a una frase de 100 letras de un periódico, a un fragmento de Shakespeare o a un teorema de Einstein se les da exactamente el mismo valor de información, es decir, definimos “información”. a diferencia del "conocimiento”, para el cual no tenemos una medida numérica. No hacemos distinción entre información útil e inútil, y optamos por ignorar por completo el valor de la información. Nuestra definición estadística de información se basa únicamente en la escasez. Si un la situación es escasa, contiene información. Si esta información es valiosa o sin valor, no nos concierne. La idea de “valor” se refiere al posible uso por parte de un observador vivo.

Entonces, por supuesto, para abordar la información en los Pricipia, la cuestión es separar la información de la información valiosa, y notar que un libro similar con las mismas letras en una secuencia específica pero aleatoria tendrá la misma información, pero diferente información valiosa. .

En su libro, Brilluoin proporciona muchos ejemplos ordinarios, pero también calcula algunos ejemplos más amplios e interesantes que están estrechamente relacionados con algunos subtemas de estas preguntas. En lugar de una imagen (como sugiere la pregunta del OP), Brilluoin construye una forma de cuantificar cuál es la información de un diagrama esquemático. En lugar de un texto de física (como sugiere la pregunta del OP), analiza una ley física (en el caso, la ley de los gases ideales) y también calcula su contenido de información. No es una sorpresa que estos valores de información se vean inundados por la información no valiosa en el material físico en el que están incorporados.

un caso específico, el cerebro:

De los tres temas que plantea la pregunta, el más interesante para mí es el cerebro. Aquí, preguntar cuál es la información en el cerebro crea una ambigüedad similar a la de una computadora, "¿estás hablando de los transistores cristalinos o estás hablando de su estado de voltaje?" Pero en el cerebro es más complejo por varias razones, pero la más difícil de resolver parece ser que no hay una distinción clara entre estructura y estado e información valiosa.

Un caso en el que está claro cómo resolver esto es la información en picos dentro de las neuronas. Sin dar un resumen completo de la neurociencia, diré que las neuronas pueden transmitir información a través de voltajes que aparecen a través de sus membranas, y estos voltajes pueden fluctuar de manera continua o existir como eventos discretos llamados "picos". Los picos son los más fáciles de cuantificar su información. Al menos para las neuronas aferentes que codifican estímulos donde las personas pueden adivinar razonablemente qué estímulo están codificando, a menudo es posible cuantificar bits/pico, y generalmente se encuentra que es de 0,1 a 6 bits/pico, dependiendo de la neurona (pero obviamente hay una preselección de las neuronas aquí). Hay un excelente libro sobre este tema titulado Spikes , de Fred Rieke, et al., aunque se ha trabajado mucho desde su publicación. 

Es decir, dado un modelo de 1) qué se codifica (p. ej., aspectos de los estímulos) y 2) cuál es el mecanismo físico para codificar esa información (p. ej., picos), es bastante fácil cuantificar la información. 

Usando un programa similar es posible cuantificar la información almacenada en una sinapsis y en variaciones continuas de voltaje, aunque hay menos trabajo en estos temas. Para encontrarlos, busque cosas como "sinapsis de información de Shannon", etc. No me parece difícil imaginar un programa que continúe por este camino, y si se escalara a un tamaño lo suficientemente grande, eventualmente podría estimar información en el cerebro de estos procesos. Pero esto solo funcionará para los procesos que entendemos lo suficientemente bien como para hacer las preguntas que llegan a la información que nos interesa.

La distinción entre información e "información valiosa" es un punto de vista muy interesante. Esto me hace pensar que el núcleo del problema no es realmente cómo se representa físicamente la información (libro/cerebro/"montón de transistores"), sino el proceso de recuperación de la información. ¿Sabes si la ciencia de la información tiene un marco teórico para esto? Veo conexiones a bases de datos y criptografía. Lo que parece información invaluable como texto cifrado es en realidad información valiosa como texto claro. ¿Podría considerarse la lectura de un libro como un proceso de "descifrado"?
Por cierto, una corrección menor: "el Brilliuon de Brilliuon Zones" en realidad se escribe "Brillouin".
En mi comentario anterior, "invaluable" debe ser reemplazado por "sin valor".
@oliver: 1) La teoría de la información se trata más de un medio de cuantificación que de un medio de discernimiento de valor. El discernimiento debe hacerse a través del conocimiento del sistema y del sistema en relación con otros sistemas. 2) Sí, a menudo para información que alguien consideraría valiosa, su contenido de información es independiente del medio. 3) No creo que la recuperación sea central en la teoría de la información, más allá de las preguntas obvias de codificación/descodificación. 4) La teoría de la información clave del siguiente nivel que omití en esta discusión es más sobre "información mutua", cambios en las distribuciones, etc.
Creo que leeré un poco más sobre información mutua. Mi revisión preliminar del artículo de wikipedia correspondiente parece que hay una idea de lo que es el conocimiento, teóricamente.
@oliver: Podría ser útil señalar que hay una forma algo meta de comprender por qué la información de Shannon puede no ser tan útil para el conocimiento, relacionada con "... nuestra definición estadística de información se basa solo en la escasez". Es decir, escasa las cosas tienen alta información, pero la ubicuidad de la información y la negentropía por lo tanto hace que la “información” en sí misma sea muy poco escasa, y por lo tanto ¿qué?, ¿no informativa? De todos modos, creo que es un giro interesante. Entonces, un kg de oro es valioso, pero eso no es por los kilogramos, es por el oro y su escasez.
gracias de nuevo, por la pista útil. Hay un montón de cosas interesantes escondidas en la pregunta sobre qué es la escasez/valor. Mi pequeña hija encuentra valiosa cada piedra porque puede ver que cada una es individual cuando mira lo suficientemente cerca. Por lo tanto, son escasos en su percepción. Por otro lado, los adultos creen en el valor de otras cosas. Aunque el elemento Osmio es 25 veces más abundante que el Oro, cuesta 30 veces su precio. Con la creencia en el valor de las cosas estamos en el concepto de dinero fiduciario. Siempre estoy inspirado con asombro sobre el poder de la creencia.

Hay muchas maneras diferentes de definir la información de los libros en una biblioteca, dependiendo de si uno los ve como objetos físicos de papel, como colecciones de letras/palabras o como algo más.

Si nos enfocamos en la información almacenada en el texto, es decir, la disposición específica de letras y palabras, entonces se puede ver en dos niveles:

  • En primer lugar, la disposición de letras y palabras no es aleatoria, es decir, claramente no se encuentra en el estado de máxima entropía. Como una manifestación divertida de esto, se podría comparar la frecuencia de las letras usadas en un texto escrito en inglés y en otro idioma usando el mismo alfabeto (o al menos superpuestos): son manifiestamente diferentes y, de hecho, a menudo sirven como el primer paso en el texto. algoritmos de reconocimiento. Obviamente, el texto real es mucho más complejo que las estadísticas de letras y palabras, ya que las letras y las palabras se correlacionan a través de reglas complejas (el artículo de Shannon presenta una discusión temprana de dicho análisis, pero hay reglas más complejas estudiadas en lingüística matemática bajo términos tales como gramática transformacional , gramática generativa , etc.)
  • Sin embargo, hay incluso más en los textos que las estadísticas de los símbolos: su correlación con otras distribuciones estadísticas, por ejemplo, con las palabras, oraciones y otros datos almacenados en la cabeza de una persona que lee un libro. Claramente, un hablante monolingüe de español puede obtener más de un libro escrito en este idioma que un hablante monolingüe de inglés, aunque la letra aún obtiene más que un hablante monolingüe de chino. En la ciencia de la información, tales correlaciones se miden mediante información mutua , es decir, la información medida con respecto a un trasfondo/contexto específico.

Desde tal punto de vista textual, la pérdida de la información debido a una mancha oa una página faltante en un libro depende de cuánto distorsione las estadísticas de los símbolos en ese libro, y las correlaciones entre ellos. A veces, una palabra tachada se puede adivinar fácilmente por el contexto, mientras que en otros casos puede hacer que una frase completa o un párrafo sean incomprensibles.

Gracias Vadim. Aunque este es un buen resumen de lo que significa entropía/información en el contexto de la ciencia de la información, estoy interesado específicamente en la cuestión de si la negentropía termodinámica (ya sea la que se calcula a partir de la mecánica estadística o de la mecánica cuántica estadística) contiene la información en el sentido de la ciencia de la información, o si se trata de conceptos diferentes aplicados en diferentes contextos.
@oliver quizás podría aclarar su pregunta: tal como está, no está exactamente claro lo que está preguntando y qué tan especializada debe ser la respuesta. Las personas con conocimientos podrían perderlo (realmente no puedo agregar mucho más allá de lo que ya he escrito anteriormente).
No estoy seguro de lo que no está claro acerca de la pregunta. Tal vez puedas ayudarme a verlo. Por ejemplo, ¿por qué pensó que esto solo se trataba de la entropía de Shannon y no también de la entropía termodinámica? Creo que estamos de acuerdo en que el manuscrito original de los principia de Newton se pagaría mucho más en Sotheby's que un libro similar con todas las páginas borradas. Si bien este valor probablemente podría medirse al menos aproximadamente por la entropía de Shannon, apenas puedo imaginar cómo la entropía termodinámica podría hacer el mismo trabajo, dado que solo se ocupa de la temperatura, la presión, los tipos de partículas, etc.

¿Es legítimo considerar la información almacenada en el cerebro como parte de la entropía termodinámica?

En la medida en que el cerebro en sí mismo es físico, entonces podemos hacerlo.

Sin embargo, la mente en sí misma no se entiende de esta manera, por ejemplo, ni siquiera está claro qué es la conciencia. Tampoco está claro qué se puede entender por información almacenada en la mente. Por lo tanto, es mejor alejarse de pensar en la mente mediante conceptos físicos.

Estoy de acuerdo en que el cerebro no es el mejor ejemplo posible de lo que quise decir. Sin embargo, la pregunta sobre el libro no sufre de estas dificultades.