¿Cuál es el efecto de las oscilaciones coherentes sobre la entropía de un sistema?

En el análisis EEG, la entropía y la coherencia se tratan como opuestos en una escala. Menor coherencia es mayor entropía. Esta es la entropía de la información, no la entropía termodinámica.

En un sistema termodinámico, ¿cómo afectarían las oscilaciones coherentes a la entropía? Si las partículas en el sistema, por ejemplo, tuvieran una onda estacionaria de diferentes frecuencias, ¿disminuiría la entropía (dado que hay menos microestados válidos) o aumentaría (dado que la coherencia dependería de la entrada de energía)?

¿Alguien sabe la relación entre las oscilaciones armónicas y la entropía?

El campo de la neurodinámica estudia la función computacional de los ritmos oscilantes en el cerebro. Como ejemplo, aquí hay un artículo que describe cómo los sistemas neuronales se comunican a través de la sincronía periódica. Cuando un sistema neuronal dispara a una frecuencia que es un armónico cercano de otro sistema, una gran proporción de disparos neuronales tendrán sincronía periódica. Por otro lado, las frecuencias de disparo con la proporción de la media áurea tendrán (matemáticamente) la menor sincronía periódica. Es decir, el procesamiento neuronal se multiplexa: se divide en bandas temporales proporcionadas según la proporción áurea. ¿Por qué? Porque ahí es donde ocurre la sincronía menos regular.

Es difícil creer que la proporción áurea juegue un papel tan esencial en el cerebro. Pero realmente, este efecto surge solo de la necesidad matemática del mismo: http://journal.frontiersin.org/article/10.3389/neuro.03.001.2008/full

Schrödinger describió cómo los seres vivos dependen de la producción de "entropía negativa". ¿Cómo se relaciona la coherencia en el cerebro con la entropía negativa de Schrödinger? Considere: "Las neuronas que se disparan juntas, se conectan juntas; las neuronas que no se sincronizan, no se conectan". En el cerebro, la sincronía es una función de aptitud que impulsa la evolución de los sistemas neuronales. (p. ej., aprendizaje hebbiano, selección de grupos neuronales). Las matemáticas y la física de las oscilaciones coherentes, la sincronía, los armónicos parecen esenciales para poder entender el cerebro.

Por eso vuelvo a preguntar: ¿la coherencia es lo contrario de la entropía?

Respuestas (1)

No estoy seguro sobre el análisis de EEG, pero en la teoría cuántica, las oscilaciones coherentes tienen una entropía cercana a cero, y solo las fluctuaciones cuánticas contribuyen a cierta entropía. En el artículo en

https://arxiv.org/abs/quant-ph/0104083

Discute algunos ejemplos, para sistemas abiertos pero bien definidos, y muestra que incluso en el suelo, el estado de energía más bajo (tal vez el vacío) aún puede ser mayor que cero. La temperatura también.

Aún así, toda esta cuestión de la entropía tiene que estar bien definida para que tenga sentido. La entropía se define general y conceptualmente como información desconocida u oculta o pérdida de información. Para Black Holes eso funciona muy bien, para sistemas de muchas partículas es el número posible de estados del sistema que para variables macroscópicas específicas conocidas (como volumen, presión y temperatura para gases, por ejemplo) es el número de estados microscópicos posibles consistente con eso. Esa es la llamada información oculta, o falta de información. Y cuando tomas el registro de ese número, obtienes algo que depende de la temperatura, y esa es la entropía.

Ahora bien, la coherencia es un concepto propio y básicamente se refiere a oscilaciones u ondas que tienen y mantienen una frecuencia y una fase. O bien, se dice que dos ondas son coherentes si mantienen la misma frecuencia y una diferencia de fase constante. Esa es la definición física, pero se vuelve más compleja para los sistemas cuánticos. Consulte el artículo sobre coherencia en Wikipedia en https://en.m.wikipedia.org/wiki/Coherence_(physics)

Y puede ver la definición similar pero cuántica de la entropía de la información en Wikipedia en https://en.m.wikipedia.org/wiki/Coherent_information . No es muy diferente, conceptualmente, aunque las matemáticas y los detalles pueden parecer complicados.

Para EEG, hay varias definiciones que la gente ha usado para la entropía. Un par de ellos se describen en lo que fácilmente podría buscar en Google, y generalmente tienen que ver con lo que llaman las 'irregularidades' de las olas. Consulte, por ejemplo, el artículo específico http://uknowledge.uky.edu/cgi/viewcontent.cgi?article=1205&context=gradschool_theses

Estos se plantean mejor en un sitio de biología o biomédica, aunque sí, también es biofísica. Posiblemente alguien en este sitio pueda comentar o responder. Supongo que uno usa una receta similar pero diferente a la de la física: definir el espacio abstracto de las oscilaciones del EEG y definir alguna medida de regularidad (que puede ser coherencia, en el sentido de coherencia de onda como se indicó anteriormente), y estimarlo.

Si puede publicar una buena referencia para el tratamiento de la coherencia y la entropía para EEG, y puede hacer un poco de tarea e intentar publicar específicamente las definiciones y tal vez un ejemplo simple, las personas en este sitio podrían responder sobre la consistencia. con las definiciones físicas o las definiciones de la teoría de la información, que en esencia son más o menos las mismas en diferentes contextos.

¡Esta fue mi primera pregunta sobre el desbordamiento de física y esta es una hermosa respuesta! Me disculpo, solo lo estoy viendo meses después. Prepararé algunas definiciones y ejemplos específicos de la neurociencia. Muchas gracias por pensar en esto: encuentro que la relación entre la entropía de la información (entropía de Shannon) y la entropía termodinámica es un misterio fantástico. Shrödinger afirmó que los organismos vivos necesitan generar "entropía negativa". Estoy viendo cómo los sistemas neuronales usan la sincronización fásica para alinear diferentes ritmos cerebrales, para apoyar la comunicación. Esto tomará una publicación adicional.
"Termodinámica de estados coherentes y entropía de agujeros negros": ¡es tan divertido cómo el artículo trata sobre estos dos temas! Uno sería suficiente :) Pero los conectan así: "el número medio de cuantos y la entropía de un agujero negro tienen las mismas formas que los valores relevantes para los estados coherentes del oscilador armónico o el campo cuántico en las proximidades de la fuente estática. ... Por lo tanto, es bastante natural esperar que se forme un estado coherente de excitaciones virtuales en la vecindad del agujero negro y, como resultado, la entropía del agujero negro es la entropía termodinámica de este estado coherente".
Usted dice, "en la teoría cuántica, las oscilaciones coherentes tienen una entropía cercana a cero, y solo las fluctuaciones cuánticas contribuyen a algo de entropía". Entonces, cuando el sistema gana coherencia, ¿debe reducir la entropía? ¿La coherencia implica siempre menos entropía? Entiendo la entropía como "menos posibilidades de configuración del sistema". La entropía de Boltzman es el volumen del espacio de fase de las posibles configuraciones de microestado que componen una observación de macroestado. Gibbs es equivalente, pero en lugar del volumen del espacio de fase, es el área de superficie. De alguna manera, Boltzman gana porque permite una temperatura negativa.
Probablemente ya hayas visto este artículo sobre coherencia para mejorar las comunicaciones interneuronales. ncbi.nlm.nih.gov/pmc/articles/PMC4706353 . No estoy familiarizado con esta área de investigación, pero primero buscaría un artículo de revisión de la idea completa antes de intentar evaluar cualquier sentido en este tipo de artículos. Se parece demasiado a buscar algo que puede o no estar allí, sacando pajitas. Debe haber algo básico que permita que dos neuronas se comuniquen y una manera simple de ver si el bloqueo de fase hace la diferencia.
Las neuronas tienen una diversidad increíble, por lo que cualquier modelo que describa su comunicación requiere importantes advertencias. Sin embargo, la descripción clásica del aprendizaje hebbiano es "neuronas que se disparan juntas, se conectan juntas; neuronas que no se sincronizan, no se conectan". Si bien esto es una gran simplificación, la sincronía entre neuronas puede verse como una "función de aptitud" competitiva que impulsa la evolución de las columnas corticales y la conectividad general en el cerebro de las personas. Hasta 1/3 de todas las neuronas se "podan"; la falta de sincronía con sus compañeros es un factor clave. "Ritmos del cerebro" de Buzaki es una revisión sólida.