Un artículo publicado ayer en Nature demuestra que encontrar la brecha espectral de un material basado en una descripción completa del nivel cuántico del material es indecidible (en el sentido de Turing).
Se cita a uno de los autores "Desde una perspectiva más filosófica, también desafían el punto de vista de los reduccionistas, ya que la dificultad insuperable radica precisamente en la derivación de propiedades macroscópicas a partir de una descripción microscópica".
Según el comentario de Nir, debo aclarar que no estoy pidiendo una discusión sobre la validez del artículo (esa es una pregunta de Physics SE), sino sobre las consecuencias filosóficas dadas el resultado del artículo .
Lo que el resultado significa, esencialmente, es que en ciertos modelos de juguetes no puede haber ningún algoritmo que derive algunas características macroscópicas (brecha espectral) a partir de parámetros microscópicos de los modelos. La importancia principal es que obtenemos una oración de Gödel que, a diferencia del original, tiene algún significado matemático explícito. Seamos generosos y supongamos que la situación se extiende a teorías más realistas de la materia. ¿Cuáles son las consecuencias filosóficas del reduccionismo?
Primero, la existencia de oraciones indecidibles es una propiedad de una teoría, no una propiedad de la realidad que describe, por lo que no estamos hablando de reduccionismo ontológico sino de reduccionismo teórico. En segundo lugar, los autores quieren decir "indecidible" en dos sentidos diferentes, un resultado establece que no existe un algoritmo para encontrar la brecha espectral en una clase de modelos, el otro resultado establece que en algunos modelos "artificiales" la existencia de la brecha no es demostrable ni refutable. Lo primero no es exactamente sorprendente, derivar las propiedades macroscópicas de los modelos es muy poco trivial incluso en la mecánica estadística clásica, aunque esta puede ser la primera prueba explícita de ello. Este último es más interesante, pero la indecidibilidad es siempre relativa. La oración de Gödel de la aritmética es demostrable en la teoría de conjuntos estándar (ZFC),
Y al final, la diferencia entre los dos sentidos es técnica, ambos significan que el análisis teórico de los modelos requiere conocimientos no triviales, ya sea utilizando formas existentes de razonamiento no trivial o descubriendo otras nuevas. Pero este siempre ha sido el caso históricamente, incluso en aritmética, las pruebas de resultados interesantes de teoría de números, incluso los decidibles, no fueron encontrados por un algoritmo. Matiyasevich incluso demostró en la década de 1970 que no puede haber un algoritmo para decidir la resolución de las ecuaciones diofánticas, lo que no significa que las ecuaciones diofánticas específicas no puedan resolverse o demostrarse que no tienen solución. Wiles hizo esto último recientemente para las ecuaciones de Fermat, y todavía no sabemos si la aritmética por sí sola es suficiente para su prueba. Cubitt, uno de los autores, dice lo mismo: "Es posible que los casos particulares de un problema se puedan resolver incluso cuando el problema general es indecidible, por lo que alguien aún puede ganar el codiciado premio de $ 1 millón ".
Los matemáticos tienen la noción de un problema de clasificación "salvaje" , donde la clasificación de ciertos objetos teóricos es intratable en principio. El problema de clasificación para pares de matrices ordinarias ya es salvaje, no hay encuestas de "formas canónicas de Jordan" para pares. Cubitt insinúa que la fuente de indecidibilidad en su caso es otro problema salvaje: " La razón por la que este problema es imposible de resolver en general es porque los modelos en este nivel exhiben un comportamiento extremadamente extraño, que esencialmente anula cualquier intento de analizarlos".". Entonces, si se suponía que el reduccionismo teórico significaba que uno puede obtener un algoritmo para encontrar propiedades de alto nivel de objetos derivados a partir de axiomas para objetos básicos, entonces el reduccionismo estaba condenado por un tiempo ahora. En resumen, no hay consecuencias para el reduccionismo ontológico, y para el reduccionismo teórico, el artículo confirma lo que siempre sospechábamos: reducir la teoría de alto nivel a una teoría de bajo nivel no es un negocio trivial.
EDITAR: Hice una pregunta en Math Overflow sobre el aspecto técnico del resultado. El documento estuvo en arxiv durante un año y los expertos lo entienden bien. La indecidibilidad en ella es típica, la prueba se basa en la indecidibilidad del problema de parada para las máquinas de Turing y es análoga a la prueba de Matiyasevich para las ecuaciones diofánticas. Esto significa que no es más probable que nos encontremos con hamiltonianos indecidibles en física que con oraciones de Gödel en teoría de números. En particular, el estado del problema del milenio de la brecha espectral para el hamiltoniano de Yang-Mills no se ve afectado.
Si un modelo resulta ser indecidible, la gente sabrá evitar modelos de este tipo. Queda por ver qué tan grande es la clase de tales modelos (la versión más larga del documento en el arxiv tiene más de 150 páginas). Pero sería prematuro anunciar la muerte del reduccionismo simplemente porque se han construido casos que ilustran el hallazgo de Gödel.
Parece una prueba más de que, de alguna manera, el indeterminismo juega un papel básico en la física.
Si esto es así, entonces la carga de la explicación seguramente debe recaer en decir por qué es así.
El rompecabezas básico en QM, después de todo, es que el acto de medir es indeterminista, y debido a las Desigualdades de Bell, no estocásticamente (es decir, depende de 'variables ocultas'); entonces, en cierto sentido, este resultado no agrega nada nuevo, sino que simplemente confirma este resultado básico.
nir
nir
Conifold
rey alejandro s
nir
rey alejandro s
Cort Amón
rey alejandro s