¿Cuándo se pueden modelar fenómenos complejos del mundo real como sistemas simples de baja dimensión?

Mis principales intereses son los sistemas biológicos, pero la pregunta es general.

Me formé en biología computacional y prácticamente todos los modelos cuantitativos de procesos biológicos que encontré en mis estudios universitarios eran de naturaleza probabilística: modelos ocultos de Markov, redes bayesianas, etc. Esto tiene sentido considerando la complejidad de estos procesos. Estos son sistemas con muchos grados de libertad que interactúan en formas a menudo no lineales, por lo que, por supuesto, no hay esperanza de describirlos con un conjunto manejable de ecuaciones de la forma en que uno haría, por ejemplo, el movimiento de los planetas en el sistema solar, y por supuesto, uno tiene que recurrir al uso de modelos estocásticos.

Sin embargo, he visto (generalmente en el contexto de la biofísica) muchos casos de procesos biológicos complejos modelados como sistemas dinámicos de baja dimensión (generalmente no lineales), con un impresionante poder predictivo y explicativo.

He estado leyendo sobre la teoría de la variedad central, que se ocupa de sistemas de alta dimensión en los que muchas de las dimensiones son superfluas, en el sentido de que las perturbaciones en estas direcciones desaparecen rápidamente y, por lo tanto, es posible una descripción eficaz del sistema de baja dimensión. Es una teoría hermosa, pero en realidad no responde la pregunta, que se convierte en "¿Por qué los sistemas dinámicos que describen procesos del mundo real tienen tantos valores propios negativos en sus equilibrios jacobianos cercanos?"

Preguntas:

  1. ¿Qué propiedad de los sistemas complejos (o de ciertos observables de tales sistemas) los hace modelables como sistemas de baja dimensión?

  2. ¿Por qué tantos sistemas del mundo real parecen tener esta propiedad?

  3. En particular, ¿tengo razón en que esto sucede con más frecuencia de lo que cabría esperar en los sistemas biológicos?

Las respuestas técnicas o no técnicas son bienvenidas.

No sé mucho sobre el tema, pero me interesaría mucho ver algunos ejemplos, si pudiera agregarlos a su pregunta.
Me recuerda a los efectos cuánticos con un promedio de cero a nivel macro.
¿Has oído hablar de los modelos descuidados de Sethna? Si no, recomendaría ( lassp.cornell.edu/sethna/Sloppy/index.html ) como una perspectiva interesante sobre sus preguntas

Respuestas (3)

Aquí hay un par de factores que entran en juego:

  • Si tomamos un sistema dado de la vida real descrito por, digamos, 2000 variables, lo más probable es que:
    • muchos de ellos no son completamente independientes o no equivalentes, y pueden descartarse, como en un cristal, cuyas simetrías simplifican en gran medida su descripción;
    • un gran número de los restantes se pueden agregar con poca pérdida de información, como las poblaciones de diferentes especies que desempeñan el mismo papel en un modelo ecológico;
    • hay algún tipo de pérdida en el sistema, de energía por ejemplo, que simplifica, limita su comportamiento asintótico, restringiéndolo a una región de su espacio de estado considerablemente más pequeña (y de menos dimensiones) que todo el espacio de estado;
    • el sistema está sujeto a ruido que, por pequeño que sea, por lo general establece en cero la posibilidad de encontrar el sistema en una de sus (probablemente muchas) soluciones inestables: otra restricción en la región del espacio de estado que debemos considerar.
  • Y si este sistema tiene, por ejemplo, 100 parámetros, igualmente:
    • es muy poco probable que todos sean igualmente importantes: tomar algunos de los más influyentes permite explicar una gran parte de la variabilidad del sistema;
    • algunos parámetros probablemente no serán completamente independientes, o serán fijados por factores intrínsecos o externos, siendo efectivamente constantes, en lugar de parámetros.

Cuando el ruido mencionado anteriormente no se cancela en promedio (y tiene una influencia muy pequeña en el sistema), entonces las descripciones estadísticas son probablemente inevitables.

Eso es para las preguntas 1 y 2; en cuanto a la pregunta 3, es quizás una cuestión de opinión personal: después de todo, ¿cuánto "uno esperaría"? Dados los factores enumerados anteriormente, se podría argumentar que es de esperar que más sistemas se describan en dimensiones más bajas. En cualquier caso, no debemos olvidar que prestamos más atención a este tipo de sistemas, independientemente de que sean típicos o no, simplemente porque son los que podemos entender mejor, lo que podría dar la impresión de que son más comunes de lo que realmente son. son.

Los equilibrios con valores propios positivos tenderían a estallar si se perturbaran aunque sea un poco, ¿verdad? Lo que significa que, en escenarios en los que es probable ese tipo de perturbaciones, no tenderíamos a encontrar sistemas en esos equilibrios. Ya habrían "explotado" localmente y se habrían movido fuera de esa región del múltiple. Entonces, tal vez sea solo que, con el tiempo, el mundo ha evolucionado de modo que los sistemas se encuentran en los equilibrios que son estables dado su contexto, lo que significa que para todos los tipos de perturbaciones que experimentarán en su entorno, los valores propios son negativos.

En cuanto a por qué un sistema complejo a menudo se puede modelar con un número bajo de parámetros. Bueno, generalmente esos pocos parámetros resultan ser promedios o agregados de los más numerosos grados de libertad que son visibles en una escala más pequeña. Entonces, la pregunta es, ¿cómo es que podemos aplicar las leyes de la física solo a esas propiedades agregadas en lugar de tener en cuenta todos los verdaderos grados de libertad?

Podrías escribir la ley dinámica en cuestión para cada partícula en el sistema. Pero si el sistema es lineal, entonces puedes sumar todas esas ecuaciones y terminas con la misma ley, solo aplicada al objeto como un todo, con sus propiedades agregadas. En virtud de la conservación, las interacciones entre las partículas individuales del sistema se anularán y la ley se referirá únicamente a las influencias provenientes del mundo exterior.

Y por eso es importante que, en la medida en que el sistema sea no lineal, esas perturbaciones no lineales decaigan rápidamente. Porque hasta que lo hagan, debe considerar las partes del sistema por separado, por lo que se ve obligado a usar más parámetros para describirlo.

Estas preguntas son respondidas por la teoría del grupo de renormalización (RG). Brevemente, cuando se toma un sistema con muchos grados de libertad (DOF) y se hace un grano grueso repetidamente, la descripción de grano grueso describe un flujo en el espacio de las distribuciones de probabilidad. Este flujo tiene la propiedad de que muchos detalles microscópicos se vuelven irrelevantes , lo que se eleva a un término técnico. En física de partículas y materia condensada, normalmente analizamos este flujo en términos del hamiltoniano, pero el concepto se aplica a cualquier familia de distribuciones de probabilidad y, por lo tanto, se aplica universalmente.

Para entender intuitivamente por qué hay tantas direcciones irrelevantes, la idea clave es que la mayoría de los DOF ​​solo interactúan localmente, de modo que un sistema grande se construye aproximadamente a partir de subsistemas que no interactúan aproximadamente . Entonces, bajo granularidad gruesa, la llamada descripción renormalizada tiene interacciones más débiles que la descripción original. La irrelevancia en RG es, por lo tanto, una extensión de la irrelevancia de los momentos superiores en el teorema del límite central.

Para precisar estas ideas, se necesita el lenguaje de la teoría de campos. La visión moderna cristalizó en la década de 1970 con el trabajo de Ken Wilson, aunque se basó en el concepto relacionado, pero distinto, de renormalización tal como se usa en la física de partículas desde la década de 1950.

Hay dos advertencias importantes con respecto a los sistemas biológicos: primero, el RG habitual se desarrolla en términos de localidad espacial. Si tiene un sistema que no está organizado espacialmente, puede ser difícil aplicar los métodos ortodoxos. Esta es un área de investigación actualmente activa. En segundo lugar, el enfoque RG funciona bien cuando hay una gran separación de escalas entre la microescala y la macroescala. Es posible que este criterio no siempre se cumpla en los sistemas biológicos.