Escribiré la pregunta pero no estoy completamente seguro de las premisas que estoy haciendo aquí. Lo siento si mi propuesta es demasiado tonta.
El sexto problema de Hilbert consistía aproximadamente en encontrar axiomas para la física (y fue propuesto en ). Supongo que en ese momento, tal cosa era imposible debido a la naturaleza de la física que se basa principalmente en observaciones y modelos. Pero parece que después del trabajo de Gödel sobre , los axiomas que se veían como verdades evidentes comenzaron a verse como afirmaciones indemostrables y el trabajo de un matemático consiste básicamente en derivar teoremas de estos axiomas.
Entonces, si este cambio de concepción axiomática realmente sucedió, ¿no podríamos simplemente aceptar cualquier cosa (incluidas las observaciones físicas) como axiomas y razonar sobre sus consecuencias? ¿Resolviendo así de alguna manera el sexto problema de Hilbert ?
Bueno, el problema sigue abierto.
Aunque tal vez los axiomas se tomaron como evidentes para las matemáticas, Hilbert realmente no quería que los axiomas matemáticamente evidentes fueran los fundamentos de los axiomas físicos. Desde Gauss y el espacio hiperbólico, es bien sabido que puede obtener modelos igualmente válidos a partir de diferentes suposiciones que podrían verse como "evidentes". ¿Tenemos geometría convexa, hiperbólica o euclidiana? Esto depende de tus axiomas y sin física, no puedes llegar allí. Entonces, cualquiera que sea el aspecto de los axiomas, deben contener algo de física.
A mi modo de ver, los teoremas de Gödel no influyeron en este problema en el sentido que usted describe. La idea de Hilbert era comenzar con un conjunto de axiomas que pudieran explicar una gran clase de fenómenos físicos y luego, sucesivamente, agregar axiomas para explicar más fenómenos y acercarse a la realidad. Obviamente, en cada paso tienes que probar matemáticamente que todos los resultados anteriores siguen siendo válidos y que tus axiomas no son inconsistentes (los teoremas de Gödel, por supuesto, tienen un impacto en esto). No dijo nada sobre cómo obtener los axiomas. Supongo que lo que realmente tenía en mente es algo así como la teoría especial de la relatividad. Tomas la invariancia de la velocidad de la luz y el principio de relatividad, que puedes formular en términos matemáticos, y tomas algunos axiomas de la geometría subyacente y de ahí, se puede derivar la relatividad especial. En particular, estaba interesado en la mecánica estadística (y más tarde en la mecánica cuántica) en el sentido de que la gente usaba valores medios y límites termodinámicos para obtener resultados, conceptos que no tenían fundamentos matemáticos sólidos en ese momento (la axiomatización de la teoría de la probabilidad fue realizada por Kolmogorov algún tiempo después, los límites termodinámicos siguen siendo, hasta donde yo sé, muy a menudo problemáticos).
Esto significa que, como ya se señaló en los comentarios, el problema es realmente una física matemáticamente rigurosa. La idea de Hilbert era hacer que las matemáticas fueran rigurosas dondequiera que se usaran, y rigurosas en su sentido (que sigue siendo el sentido hoy) es que comienzas con un montón de axiomas y derivas todo a partir de ahí.
Entonces, en cierto sentido, a Hilbert no le importaba de dónde venían los axiomas, solo quería tener algunos. Ni siquiera hizo una restricción en la cantidad de axiomas. Por supuesto, podríamos ponerlo todo junto, describir los problemas restantes simplemente tomando las observaciones como axiomas, pero entonces podríamos obtener contradicciones/inconsistencias que podemos probar, lo que significa que tenemos que descartar estos axiomas, o tenemos una miríada de axiomas que no están realmente conectados y son muy peculiares, lo cual no es realmente satisfactorio. Lo que queremos es un sistema "mínimo" de axiomas para nuestras teorías, de lo contrario se vuelve demasiado complicado.
¿Ya llegamos? De ninguna manera. Tenemos algunas teorías con buenos fundamentos axiomáticos (como la mecánica cuántica ordinaria, la relatividad general o la mecánica clásica), en las que tenemos "una" solución, pero tal vez no una buena (¿espacios de Hilbert en la mecánica cuántica? No muy intuitivo... C *-álgebras son un poco mejores, pero aún así) y algunas con trabajo en progreso, como la teoría cuántica de campos (por ejemplo, la renormalización no es rigurosa en muchos puntos. Las integrales de ruta no lo son. Todo esto). Y ciertamente no estamos ni cerca de tener un TOE matemáticamente riguroso.
El sexto problema de Hilbert no es lo mismo que encontrar la teoría del todo y luego hacer las matemáticas rigurosas. Este es un concepto erróneo muy común, y ha llevado a las personas a pensar que lo más importante era hacer que la renormalización en QFT fuera rigurosa.
Pero, de hecho, Hilbert declaró explícitamente que sería igualmente importante axiomatizar teorías físicas falsas . Interpreto esto como: bueno, QM es falso porque generalmente no es covariante, y GR es falso porque no es cuántico, pero aún es importante ver si se pueden axiomatizar o no.
Arquímedes, Newton, Maxwell y Hertz fueron todos verdaderos físicos que publicaron tratamientos axiomáticos de una rama de la física. Irónicamente, aunque Hertz y Maxwell son más famosos por sus contribuciones a la electricidad y el magnetismo, solo publicaron axiomatizaciones de la mecánica.
Otro concepto erróneo es que Kolmogoroff resolvió la parte del problema de Hilbert relacionada con las probabilidades. ¡Este concepto erróneo no fue compartido por Kolmogoroff! Sabía muy bien que axiomatizar la teoría puramente matemática de las probabilidades era simplemente un preliminar útil: lo que Hilbert realmente quería era axiomatizar los conceptos de probabilidad física . Dentro de la física, ¿la 'probabilidad' es un concepto nuevo y primitivo que debe agregarse a la lista de Hertz, junto con la masa y el tiempo, o puede definirse con precisión en términos de masa, tiempo, etc.?
A menos que la gran unificación o la renormalización arrojen nuevas dificultades axiomáticas, entonces las únicas dos cosas que quedan por hacer para resolver el sexto problema de Hilbert son: a) el problema que señaló Wigner, sobre el concepto de medición en QM (Bell analizó http://www .chicuadro.es/BellAgainstMeasurement.pdf el problema de la misma manera que lo hizo Wigner), yb) la definición de probabilidad física, es decir, el concepto de probabilidad que se da en QM. El propio Hilbert estaba preocupado por la causalidad en GR, pero resolvió ese problema por sí mismo. Hilbert señaló la falta de claridad en la relación entre Mecánica y Stat Mech, pero Darwin y Fowler resolvieron eso en la década de 1920.
Muchos físicos, en particular HS Green en "Observation in Quantum Mechanics", Nuovo Cimento vol. 9 (1958) núm. 5, pp. 880-889, publicado por mí en http://www.chicuadro.es/Green1958.ps.zip , y ahora modelos más realistas de Allahverdyan, Balian y Nieuwenhuizen arXiv:1003.0453, han señalado la posibilidad de arreglando el problema de la 'medida' que preocupaba a Wigner: han analizado el comportamiento físico de un aparato de medida y han demostrado que los axiomas de medida de QM se derivan, aproximadamente, de la ecuación de onda. Lo hacen de una manera lógicamente circular y descuidada, pero la lógica se puede arreglar.
La probabilidad física se puede definir en QM, y su definición allí es paralela a su definición en Mecánica clásica: cada una implica el uso de un nuevo tipo de límite termodinámico (en el caso cuántico http://arxiv.org/abs/quant-ph /0507017 , uno en el que no solo el número de grados de libertad del aparato de medición aumenta sin límite, sino que la constante de Planck llega a cero).
Entonces, las personas que hicieron el trabajo más importante son: Hilbert, Wiener, Weyl, Schroedinger, Darwin, Fowler, Kolmogoroff, Wigner, Khintchine, HS Green, Bell, el profesor Jan von Plato y yo. (Schroedinger podría incluirse dos veces: él y Debye ayudaron a Weyl a formular la primera axiomatización de QM. Más tarde, influyó en HS Green en su tratamiento de la medición como una transición de fase).
Más específicamente en cuanto a sus preocupaciones particulares
Goedelización Hablando históricamente, el teorema de incompletitud de Goedel no ha tenido influencia en quienes trabajan en este problema. Ahora se abordará si esto fue miopía o sabiduría superior.
Dado que la física se trata del mundo real, no hay preocupaciones reales sobre su consistencia. Lo que no está claro es si necesita contener la aritmética de Peano. Los conjuntos no son físicamente reales, por lo que los números tampoco lo son. Ni siquiera está claro si la Física necesita las partes de segundo orden de la Lógica que producen incompletud. Los axiomas habituales de QM contienen una dinámica hamiltoniana típica, por lo que todas las preguntas físicas de la forma «Si el sistema comienza en el estado en el momento , cuál será su estado en el momento ? » son responsables en forma cerrada y computables en cualquier grado de aproximación deseado, por lo que el sistema está físicamente completo , por así decirlo. Tenga en cuenta que todas estas preguntas son esencialmente preguntas de primer orden.
Como señaló otra persona, la consistencia relativa es tan interesante como la consistencia, y tampoco hay preocupaciones reales al respecto.
El propio Hilbert señaló explícitamente su propia axiomatización de la geometría euclidiana como ejemplo para la física. Esos axiomas no permiten definir conjuntos ni construir todos los números reales.
computabilidad
Algunos han tratado de argumentar que dado que uno puede construir físicamente una computadora (o incluso una máquina de Turing), entonces los axiomas de la física deben implicar todo lo que implica la teoría de la computación, incluida su propia incompletud. Pero esto es obviamente falso: es físicamente imposible construir una computadora digital sin ruido. El mundo booleano solo puede ser realizado aproximadamente por máquinas construidas físicamente. Pero las pruebas de incompletitud quedan invalidadas una vez que se introduce la noción de aproximación. Nadie ha formulado siquiera una teoría de dispositivos físicamente realizables que sea paralela a la teoría idealizada de la computación que inventaron los matemáticos.
Y a la inversa: otros han tratado de argumentar de otra manera, que dado que la Física (ciertamente QM) es aproximadamente computable, por lo tanto debe ser incompleta. A mí esto me parece simplemente confuso. No todas las teorías computables satisfacen las hipótesis del teorema de incompletitud de Goedel: la lógica de primer orden es computable, decidible, completa y consistente (teoremas de Goedel y Herbrand).
Los problemas indecidibles en Matemáticas no son físicos.
Ejemplos de problemas indecidibles en Matemáticas son: dado cualquier conjunto de generadores y relaciones, decidir si el grupo que determinan es no trivial o no.
Bueno, la física no usa generadores y relaciones.
Espacios de Hilbert que involucran: no sé si es indecidible, pero ciertamente es un problema salvaje clasificar hasta equivalencia unitaria pares de operadores en un espacio de Hilbert dado. Pero en QM, debido a la relatividad, no todos los subespacios de un espacio de Hilbert son físicos . Dejar ser el grupo de Lorentz y sea un subgrupo compacto máximo de . Los únicos espacios de Hilbert físicamente significativos son aquellos con un subespacio denso de -vectores finitos. Así que los únicos subespacios físicamente significativos de un espacio de Hilbert dado son aquellos cuya intersección con el -los vectores finitos son densos en . Por tanto, ningún operador cuya imagen no satisfaga esta propiedad puede ser «físico». Esto domestica el problema considerablemente, esencialmente reduciéndolo a álgebra en lugar de análisis.
El problema de la detención: muchas personas en este sitio ya han tratado de argumentar que, dado que implica un comportamiento de tiempo infinito, este es un problema no físico. A mí, esta objeción me parece demasiado fácil y filosófica. La objeción más fuerte es que no hay computadoras digitales en el mundo real. Sin máquinas de Turing. Porque todo lo que podemos hacer son ruidosas aproximaciones a una computadora digital o una máquina de Turing. No hay unidades que se reproduzcan a sí mismas exactamente en la Naturaleza, solo unidades que se reproducen aproximadamente. (Esto hace una gran diferencia en cuanto a las probabilidades involucradas). Ahora, dado que las conclusiones teóricas sobre la incompletitud, etc., dependen del comportamiento preciso de estas idealizaciones, no hay razón para pensar que son válidas para las máquinas ruidosas reales que se detienen por sí solas. porque se cansan...
¿Qué haría falta para hacer una revolución al estilo Goedel en Física?
Muchos físicos ya han decidido que ha tenido lugar, pero no son ellos los que trabajan en el Sexto Problema de Hilbert. Wigner y Bell fueron capaces de comprender la actitud axiomática de Hilbert, y el análisis de Wigner del problema con los axiomas de QM está completamente en el espíritu de Hilbert. Si el problema que señaló Wigner no se puede resolver, y si QM sigue siendo (a este respecto) una parte fundamental de la Física (como Steven Weinberg y yo estamos convencidos de que lo hará, a diferencia de JS Bell, quien estaba convencido de que el problema era insoluble y por lo tanto QM se reformaría de tal manera que eliminara la dificultad), entonces el Sexto problema de Hilbert habrá sufrido el mismo golpe que Goedel asestó a su Segundo Problema. Muchos físicos han decidido, por anticipación, que este es el caso.
Pero hay al menos dos puntos de vista principales que creen que el problema de Wigner puede resolverse degradando los axiomas de medición a aproximaciones que pueden deducirse de los otros axiomas. La teoría de la decoherencia aún no es el consenso de la comunidad física, pero salvaría el tocino de Hilbert. Hay muchas publicaciones en este foro sobre la teoría de la decoherencia. La línea de razonamiento que prefiero, iniciada por HS Green y hecha más realista por Allahverdyan et al., mencionada anteriormente, hace lo mismo (a pesar de que no estaban preocupados por las preocupaciones de Hilbert y, por lo tanto, no hacen las cosas de una manera lógicamente clara: hacen uso libre de los seis axiomas mientras analizan la física de un aparato de medición). Feynman opinaba que se podía hacer algo así.
Las diferencias entre el enfoque de decoherencia y el enfoque de transición de fase son físicas y, eventualmente, deberían ser susceptibles de pruebas experimentales para descartar uno u otro enfoque.
Me gustaría señalar que Springer ha publicado un libro sobre este tema. Realmente parece una lectura interesante:
Parece haber alguna evidencia de que Gödel reflexionó sobre esto. El escribio:
"Pero, a pesar de su lejanía de la experiencia sensorial, tenemos algo así como una percepción de los objetos de la teoría de conjuntos, como se ve por el hecho de que los axiomas se nos imponen como verdaderos. No veo ninguna razón por la que nosotros debería tener menos confianza en este tipo de percepción, es decir, en la intuición matemática, que en la percepción sensorial.
(Gödel, K., “What is Cantor's Continuum Problem?”, 1947, pp. 258–273 in Philosophy of Mathematics: Selected Readings, Second Edition, (Benacerraf, Paul, and Putnam, Hilary, eds.), Cambridge University Press, Nueva York, NY, 1983).
Esto sugiere que él, refiriéndose a Gödel, le dio el mismo peso epistemológico a la intuición matemática que a la percepción sensorial, lo que sería una forma de resolver este problema porque significa que la observación física directa es un método epistemológico no menos válido que el razonamiento metafísico.
Dudo mucho que Hilbert hubiera pensado demasiado diferente.
El editor del libro Mathematical Developments Arising from Hilbert Problems , Felix Brouwder, le dio la tarea de describir el progreso en el sexto problema de Hilbert a Arthur Wightman:
Wightman, AS (1976). Sexto problema de Hilbert: tratamiento matemático de los axiomas de la física. Desarrollos matemáticos que surgen de los problemas de Hilbert (Proc. Sympos. Pure Math., Northern Illinois Univ., De Kalb, Ill., 1974), Amer. Matemáticas. Soc., Providencia, RI, 147-240.
Wightman interpretó la tarea como parcialmente resuelta por los axiomas de Wightman para la teoría cuántica de campos. Por supuesto, su finalización necesitaría la construcción del modelo estándar más la gravedad en un marco riguroso, por lo que es una búsqueda aún pendiente. El problema del Milenio de Yang-Mills es una pequeña parte de esta búsqueda.
Jinawee
qmecanico
CAZADOR DE TROLLS
scott carnahan
José F. johnson