Modelos deterministas. Aclaración de la pregunta:
El problema con estos blogs es que la gente tiende a empezar a gritarse unos a otros. (Lo admito, me contagié y es difícil no levantar la voz electrónica.) Quiero hacer mi pregunta sin un séquito de polémicas.
Mis trabajos recientes fueron recibidos con escepticismo. No tengo problema con eso. Lo que me inquieta es la reacción general de que están "equivocados". Mi pregunta se resume de la siguiente manera:
¿Alguna de estas personas realmente leyó el trabajo y alguien puede decirme dónde se cometió un error?
Ahora los detalles. No puedo evitar estar disgustado por la interpretación de "muchos mundos", o las "ondas piloto" de Bohm-de Broglie, e incluso la idea de que el mundo cuántico debe ser no local es difícil de aceptar. Quiero saber qué está pasando realmente, y para tratar de obtener algunas ideas, construyo algunos modelos con varios grados de sofisticación. Estos modelos son, por supuesto, "incorrectos" en el sentido de que no describen el mundo real, no generan el modelo estándar, pero uno puede imaginarse a partir de modelos tan simples y agregando más y más detalles complicados para que parezcan más realistas. , en varias etapas.
Por supuesto, sé cuáles son las dificultades cuando uno intenta respaldar QM con determinismo. Las teorías probabilísticas simples fallan de manera esencial. Probablemente habrá que abandonar uno o varios de los supuestos habituales que se hacen en una teoría determinista de este tipo; Soy plenamente consciente de eso. Por otro lado, nuestro mundo parece ser extremadamente lógico y natural.
Por lo tanto, decidí comenzar mi investigación en el otro extremo. Hacer suposiciones que luego seguramente habrá que modificar; haga algunos modelos simples, compárelos con lo que sabemos sobre el mundo real y luego modifique las suposiciones de la forma que desee.
Los teoremas de no-go nos dicen que es probable que un modelo de autómata celular simple no funcione. Una forma en que traté de "enmendarlos" fue introducir la pérdida de información. A primera vista, esto me alejaría aún más de QM, pero si miras un poco más de cerca, encontrarás que todavía se puede introducir un espacio de Hilbert, pero se vuelve mucho más pequeño y puede volverse holográfico, que es algo que en realidad podemos desear. Si luego se da cuenta de que la pérdida de información hace que cualquier mapeo del modelo determinista a los estados de QM sea fundamentalmente no local, mientras que la física en sí permanece local, entonces tal vez la idea se vuelve más atractiva.
Ahora, el problema con esto es que nuevamente uno hace suposiciones demasiado grandes, y las matemáticas son bastante complicadas y poco atractivas. Así que volví a un autómata reversible, local y determinista y pregunté: ¿En qué medida se parece esto a QM y dónde falla? Con la idea en mente de que vamos a alterar las suposiciones, tal vez agregar pérdida de información, poner un universo en expansión, pero todo eso viene después; primero quiero saber que sale mal.
Y aquí está la sorpresa: en cierto sentido, nada sale mal. Todo lo que tiene que asumir es que usamos estados cuánticos, incluso si las leyes de evolución en sí mismas son deterministas. Entonces, las distribuciones de probabilidad están dadas por amplitudes cuánticas. El punto es que, al describir el mapeo entre el sistema determinista y el sistema cuántico, hay mucha libertad. Si observa cualquier modo periódico del sistema determinista, puede definir una contribución común a la energía para todos los estados en este modo, y esto introduce una gran cantidad de constantes arbitrarias, por lo que tenemos mucha libertad.
Usando esta libertad, termino con bastantes modelos que encuentro interesantes. Comenzando con sistemas deterministas termino con sistemas cuánticos. Me refiero a sistemas cuánticos reales, no a ninguno de esos feos brebajes. Por otro lado, todavía están muy lejos del modelo estándar, o incluso de cualquier otra cosa que muestre partículas decentes que interactúen.
Excepto la teoría de cuerdas. ¿Es el modelo que construí un contraejemplo que muestra que lo que todos me dicen acerca de que la QM fundamental es incompatible con el determinismo es incorrecto? No, no creo eso. La idea era que, en algún lugar, tendría que modificar mis suposiciones, pero tal vez las suposiciones habituales hechas en los teoremas de no-go también tendrán que ser analizadas.
Personalmente, creo que la gente se apresura demasiado a rechazar el " superdeterminismo ". Rechazo la "conspiración", pero eso podría no ser lo mismo. El superdeterminismo simplemente establece que no puede "cambiar de opinión" (sobre qué componente de un giro medir), por "libre albedrío", sin tener también una modificación de los modos deterministas de su mundo en el pasado lejano. Obviamente es cierto en un mundo determinista, y tal vez este sea un hecho esencial que debe tenerse en cuenta. No implica "conspiración".
¿Alguien tiene una idea buena, o mejor, sobre este enfoque, sin insultos? ¿Por qué algunos de ustedes opinan con tanta fuerza que es "incorrecto"? ¿Estoy pisando los sentimientos religiosos de alguien? Espero que no.
Referencias:
"Relación de la mecánica cuántica de sistemas discretos con la mecánica cuántica canónica estándar", arXiv:1204.4926 [quant-ph];
"Dualidad entre un autómata celular determinista y una teoría del campo cuántico bosónico en dimensiones", arXiv:1205.4107 [quant-ph];
"Discreción y determinismo en supercuerdas", arXiv: 1207.3612 [hep-th].
Más reacciones sobre las respuestas dadas. (Escribir esto como "comentario" falló, luego escribir esto como "respuesta" generó objeciones. Intentaré borrar la "respuesta" que no debería haber puesto allí...)
Primero: gracias por las elaboradas respuestas.
Me doy cuenta de que mi pregunta plantea cuestiones filosóficas; estos son interesantes e importantes, pero no son mi principal preocupación. Quiero saber por qué no encuentro ningún problema técnico al construir mi modelo. Me halaga la impresión de que mis teorías fueran tan "fáciles" de construir. De hecho, hice mi presentación lo más transparente posible, pero no fue fácil. Hay muchos callejones sin salida, y no todos los modelos funcionan igual de bien. Por ejemplo, el oscilador armónico se puede mapear en un autómata periódico simple, pero luego uno se topa con tecnicismos: el hamiltoniano de un sistema periódico parece no tener límites arriba y abajo, mientras que el oscilador armónico tiene un estado fundamental. El autómata celular reversible en el tiempo (CA) que consta de dos pasos y , donde ambos y puede escribirse como el exponente de hamiltonianos físicamente razonables, en sí misma es mucho más difícil de expresar como una teoría hamiltoniana, porque la serie BCH no converge. También, explícito Los modelos dimensionales QFT resistieron mis intentos de reescribirlos como autómatas celulares. Por eso me sorprendió que las supercuerdas funcionaran tan bien, al parecer, pero incluso aquí, para lograrlo, hubo que inventar bastantes trucos.
@RonMaimon. Aquí repito lo que dije en un comentario, solo porque allí el límite de 600 caracteres distorsionó demasiado mi texto. Diste una buena exposición del problema en contribuciones anteriores: en una CA, la función de onda "óntica" del universo solo puede estar en modos específicos de la CA. Esto significa que el universo solo puede estar en estados que tienen la propiedad , mientras que el mundo cuántico que nos gustaría describir permite muchos más estados que no son en absoluto ortonormales entre sí. ¿Cómo podrían surgir estos estados? Resumo, con disculpas por la repetición:
No creo que tengamos que hablar de un número no numerable de estados, pero el número de estados de CA es extremadamente grande. En resumen: el sistema matemático nos permite elegir: tomar todos los estados CA, luego el conjunto ortonormal es lo suficientemente grande para describir todos los universos posibles, o elegir el conjunto mucho más pequeño de estados SM, luego también necesita muchos estados superpuestos para describir el universo . La transición de una descripción a la otra es natural y suave en el sentido matemático.
Sospecho que, de esta manera, se puede ver cómo una descripción que no es mecánica cuántica a nivel de CA (admitiendo solo probabilidades "clásicas") puede "gradualmente" obligarnos a aceptar amplitudes cuánticas al pasar a escalas de distancias más grandes, y limitar nosotros mismos a niveles de energía mucho más bajos solamente. Verá, en palabras, todo esto puede sonar torcido y vago, pero en mis modelos creo que me veo obligado a pensar de esta manera, simplemente mirando las expresiones: En términos de los estados SM, fácilmente podría decidir aceptar todos amplitudes cuánticas, pero al pasar a la base CA, descubro que las superposiciones son superfluas; pueden ser reemplazadas por probabilidades clásicas sin cambiar nada de la física, porque en el CA, los factores de fase en las superposiciones nunca serán observables.
@Ron, entiendo que lo que estás tratando de hacer es otra cosa. No me queda claro si quieres interpretar como una función de onda. (No me preocupa la ausencia de , siempre que se permita el signo menos.) Mi teoría es mucho más directa; Uso la descripción "cuántica" original con solo funciones de onda convencionales y probabilidades convencionales.
(Novedad desde el domingo 20 de agosto de 2012)
Hay un problema con mi argumento. (Corrijo algunas afirmaciones que había puesto aquí anteriormente). Tengo que trabajar con dos tipos de estados: 1: los estados de la plantilla, que se utilizan siempre que se hace mecánica cuántica, estos permiten cualquier tipo de superposición; y 2: los estados ónticos, el conjunto de estados que forman la base de la CA. Los estados ónticos son todos ortonormales: , por lo que no se permiten superposiciones para ellos (a menos que desee construir un estado de plantilla, por supuesto). Entonces uno puede hacer la pregunta: ¿Cómo puede ser que nosotros (creemos que) veamos estados superpuestos en los experimentos? ¿Los experimentos no solo ven estados ónticos?
Mi respuesta siempre ha sido: ¿A quién le importa ese problema? Solo use las reglas de QM. Use las plantillas para hacer cualquier cálculo que desee, calcule su estado , y luego tenga en cuenta que las probabilidades de CA, , evoluciona exactamente como se supone que deben hacerlo las probabilidades.
Eso funciona, pero deja la pregunta sin respuesta y, por alguna razón, mis amigos en esta página de discusión se molestan por eso.
Así que empecé a pensar en ello. Llegué a la conclusión de que los estados de la plantilla se pueden usar para describir los estados ónticos, pero esto significa que, en algún momento, deben reducirse a un conjunto ortonormal. ¿Como sucedió esto? En particular, ¿cómo puede ser que los experimentos sugieran fuertemente que las superposiciones juegan papeles extremadamente importantes, mientras que de acuerdo con mi teoría, de alguna manera, estos están plucionados al decir que no son ónticos?
Mirando las expresiones matemáticas, ahora tiendo a pensar que la ortonormalidad es restaurada por el "superdeterminismo", combinado con fluctuaciones de vacío. Lo que llamamos estado de vacío, , no es un estado ontológico, sino una superposición de muchos, quizás todos, estados CA. Las fases se pueden elegir para que sean cualquier cosa, pero tiene sentido elegirlas para que sean para el vacío. En realidad, esta es una buena manera de definir fases: todas las demás fases que podría introducir para estados que no son de vacío ahora tienen un significado definido.
Los estados que normalmente consideramos en un experimento suelen ser ortogonales al vacío. Si decimos que podemos hacer experimentos con dos estados, y , que no son ortonormales entre sí, esto significa que se trata de estados de plantilla; es fácil construir tales estados y calcular cómo evolucionan. Sin embargo, es seguro asumir que, en realidad, los estados ontológicos con producto interno que no se desvanece con , debe ser diferente de los estados que ocurren en , de modo que, a pesar de la plantilla, . Esto se debe a que el universo nunca se repite exactamente. Mi interpretación física de esto es "superdeterminismo": si, en un experimento EPR o Bell, Alice (o Bob) cambia de opinión sobre qué medir, ella (él) trabaja con estados que todos difieren de todos los estados utilizado anteriormente. En los estados de la plantilla, todo lo que uno tiene que hacer es suponer al menos un cambio en uno de los estados físicos en algún otro lugar del universo. Entonces la contradicción desaparece.
El papel de las fluctuaciones del vacío también es inevitable cuando se considera la descomposición de una partícula inestable.
Creo que no hay problema con los argumentos anteriores, pero a algunas personas les resulta difícil aceptar que el funcionamiento de sus mentes pueda tener algún efecto sobre las fluctuaciones del vacío, o por el contrario, que las fluctuaciones del vacío puedan afectar sus mentes. El "libre albedrío" de un observador está en riesgo; a la gente no le gustará eso.
Pero lo más inquietante es que este argumento implicaría que lo que mis amigos han estado enseñando en Harvard y otros lugares, durante muchas décadas, según nos dicen, en realidad es incorrecto. Quiero permanecer modesto; Encuentro esto perturbador.
Ahora se envió una versión revisada de mi último artículo a arXiv (probablemente estará disponible a partir del lunes o martes). Gracias a todos. Mi conclusión no cambió, pero ahora tengo argumentos más precisos sobre las desigualdades de Bell y lo que pueden hacerles las fluctuaciones del vacío.
Puedo decirle por qué no creo en eso. Sin embargo, creo que mis razones son diferentes de las razones de la mayoría de los físicos.
La mecánica cuántica regular implica la existencia de la computación cuántica. Si cree en la dificultad de la factorización (y en una serie de otros problemas clásicos), entonces una base determinista para la mecánica cuántica parecería implicar uno de los siguientes.
Ninguno de estos me parece probable. Para el primero, es bastante concebible que exista un algoritmo de tiempo polinomial para la factorización, pero la computación cuántica puede resolver muchos problemas de periodicidad similares, y se puede argumentar que no puede haber un solo algoritmo que los resuelva todos en un mismo tiempo. computadora clásica, por lo que tendría que tener diferentes algoritmos clásicos para cada problema clásico que una computadora cuántica puede resolver mediante la búsqueda de períodos.
Para el segundo, fundamentos deterministas de la mecánica cuántica que requieren recursos para un sistema de tamaño son realmente insatisfactorias (pero tal vez bastante posibles... después de todo, la teoría de que el universo es una simulación en una computadora clásica cae en esta clase de teorías, y aunque es verdaderamente insatisfactoria, no puede ser descartada por este argumento).
Para el tercero, no he visto ninguna forma razonable de cómo podría hacer que el cálculo cuántico sea imposible y al mismo tiempo mantener la coherencia con los resultados experimentales actuales.
Esto podría haber sido un comentario, pero como en realidad responde a la pregunta formulada en el título, lo publicaré como tal:
Por lo que puedo decir, no hay una razón racional para descartar estos modelos, es solo que la mecánica cuántica (QM) ha puesto el listón muy alto: hasta ahora, no hay evidencia experimental de que QM esté mal, y nadie ha venido con una alternativa viable.
En última instancia, su teoría debe reproducir todas las predicciones de QM verificadas experimentalmente (o, más bien, solo puede desviarse dentro de la precisión experimental). Sin embargo, por supuesto, no hay necesidad de reproducir predicciones arbitrarias; de hecho, si lo hiciera, terminaría con una reformulación, es decir, una nueva interpretación, de QM ordinario. Si su modelo nos dice que la computación cuántica a gran escala es imposible, entonces depende de los experimentadores demostrar que está equivocado.
Cualquier objeción más allá de eso es solo psicología en el trabajo: a la mayoría de las personas les cuesta bastante convencerse de que QM es una descripción válida del mundo en el que vivimos, y una vez que tal creencia está arraigada, fácilmente se convierte en dogma.
Las discusiones fundacionales son, de hecho, algo así como discusiones sobre convicciones religiosas, ya que no se pueden probar o refutar suposiciones y enfoques en el nivel fundacional.
Además, está en la naturaleza de las discusiones en Internet que es probable obtener respuestas principalmente de aquellos que están en total desacuerdo (el caso aquí) o que pueden agregar algo constructivo (difícil de hacer en una investigación muy reciente). Creo que esto explica completamente las respuestas que obtienes.
Yo mismo leí superficialmente uno de sus artículos sobre esto y no lo encontré lo suficientemente prometedor como para dedicar más tiempo a los problemas técnicos.
Sin embargo, estoy de acuerdo en que tanto los mundos múltiples como las ondas piloto son explicaciones físicas inaceptables de la física cuántica, y estoy trabajando en una interpretación alternativa.
Desde mi punto de vista, la no localidad de las partículas se explica negando a las partículas cualquier existencia ontológica. Existen campos cuánticos, y en el nivel de campo cuántico, todo es local. Las características no locales aparecen solo cuando uno impone a los campos una interpretación de partículas que, si bien es válida bajo los supuestos habituales de la óptica geométrica, falla drásticamente en una resolución más alta. Por lo tanto, nada necesita ser explicado en la región de falla. Así como las ecuaciones locales de Maxwell para un campo electromagnético clásico explican la no localidad de un solo fotón (experimentos de doble rendija), y las ecuaciones estocásticas de Maxwell explican todo acerca de los fotones individuales (ver http://arnold-neumaier.at/ms/optslides.pdf ), entonces la QFT local explica la no localidad general de las partículas.
Mi interpretación térmica de la física cuántica (ver http://arnold-neumaier.at/physfaq/therm ) ofrece una visión de la física coherente con la práctica experimental real y sin ninguna de las extrañezas introducidas por las interpretaciones habituales. Creo que esta interpretación es satisfactoria en todos los aspectos, aunque requiere más tiempo y esfuerzo para analizar los acertijos estándar en este sentido, con una clara derivación de la mecánica estadística para respaldar mis argumentos hasta ahora principalmente cualitativos.
Al presentar mis puntos de vista fundamentales en debates en línea, tuve dificultades similares a las suyas; véase, por ejemplo, el hilo de PhysicsForums "¿Qué afirma la interpretación probabilística de QM?" http://www.physicsforums.com/showthread.php?t=480072
Hay dos preguntas aquí: ¿Por qué criticar sus modelos? ¿Y hay mejores ideas? Intentaré responder a la segunda pregunta en una respuesta separada. Aquí solo doy algunos comentarios de carácter general para abordar la primera pregunta.
Personalmente, estoy de acuerdo con usted, y creo que la mayoría de las personas que se preocupan por estas cosas también lo están, en que es desconcertante tener una teoría en la que la información producida por las observaciones no está contenida en la teoría misma, sino que se produce de la nada. por un acto de medida. La idea natural es que cuando vemos un bit de información producido a través de un acto de observación, entonces el valor de este bit estaba contenido de alguna manera en la descripción completa de la naturaleza independientemente del acto de observación. Este era el principio de realidad de Einstein, y estoy de acuerdo en que es preferible que una teoría lo obedezca.
Cuando una teoría no obedece al principio de realidad, uno tiene que darse cuenta de que la realidad macroscópica sí lo obedece, y encontrar los fragmentos en el mundo macroscópico mediante un ejercicio indirecto filosóficamente retorcido de misticismo. Pero dado que la física es empírica y el positivismo es fructífero, adopto el punto de vista de que cualquier marco que explique los resultados de las observaciones debe ser, en última instancia, filosóficamente correcto, incluso si requiere contorsiones, ¡e incluso si no es correcto! Entonces, la mecánica de Newton, aunque es incorrecta, no es necesariamenterefutado empíricamente dadas solo observaciones de seres humanos, etc., por lo que no debe ser filosóficamente incompatible con el libre albedrío. De manera similar, la mecánica cuántica podría estar equivocada, pero no tenemos datos empíricos que demuestren que está equivocada, por lo que debería ser consistente filosóficamente decir que QM es todo lo que hay. Esto significa que QM también debería describir a los observadores, y si no hay una contradicción matemática con este punto de vista, tampoco debería haber una contradicción filosófica, incluso si hay una contradicción con el experimento. Esta es la filosofía de los muchos mundos, y es la respuesta autoconsistente si la mecánica cuántica es correcta. Puede ser molesto, pero no creo que sea demasiado molesto --- uno debería aprender a vivir con muchos mundos como una buena posición filosófica.
Pero es incorrecto decir simplemente "muchos mundos" en este punto, porque la descripción cuántica no ha sido probada en el ámbito donde los muchos mundos tienen una manifestación lógico-positivista real --- más obviamente cuando se factoriza números usando una computadora cuántica. Hasta que hagamos esto, es definitivamente concebible que la naturaleza sea solo muy aproximadamente cuántica para sistemas pequeños de unas pocas partículas, en los casos en que ya probamos la teoría, y simplemente no es cuántica para muchos sistemas de partículas altamente entrelazados.
Incluso si el mundo resulta ser realmente cuántico, y una computadora cuántica factoriza números todo el tiempo, encontrar una subestructura determinista es útil para dar un pequeño truncamiento computacionalmente manejable de la mecánica cuántica en casos que no son una computadora cuántica, y es posible que este truncamiento puede ser útil para simulaciones cuánticas. Esto es tan necesario que creo que encontrar una subestructura para la mecánica cuántica es un problema central importante, personalmente, independientemente de si resulta ser correcto. Por esta razón, dediqué mucho tiempo a comprender su enfoque.
El problema con su construcción es que funciona demasiado bien , es demasiado fácil transformar un sistema cuántico en una base beable, por lo que la función de onda global evoluciona de manera determinista utilizando el hamiltoniano global. Dado que introduce el espacio de Hilbert temprano y lo usa para hacer la transformación de la base a los estados internos del autómata, no hay una barrera obvia para transformar una computadora cuántica en una base beable, ni hay ninguna barrera para violar la desigualdad de Bell localmente. Estos no sugieren que los teoremas de no-go sean defectuosos, sino que sugieren que la transformación a una base beable con una permutación hamiltoniana no produce un verdadero sistema clásico.
La manera precisa en la que creo que este sistema deja de ser clásico es en la preparación del estado en el interior. El proceso de preparación del estado involucra una medición, entrelazando algún subsistema interior con un subsistema macroscópico, y luego una reducción del sistema macroscópico de acuerdo con la regla de Born, dejando un estado cuántico puro del subsistema interior. En su artículo sobre la regla de Born, sugirió cómo debería ocurrir la reducción en un sistema CA, pero sus modelos precisos realmente no respetan esta intuición, ya que la medición de estados intermedios siempre produce uno de los estados propios del observable en el interior, no importa lo complicado que sea lo observable y lo enredados que sean sus estados propios. Esto es lo que te permite reproducir la mecánica cuántica en los subsistemas interiores, Estoy algo seguro de que esto no mantiene al estado sin superposición en la base beable. Debido a que estas reducciones internas no respetan la estructura de probabilidad, realmente estás haciendo mecánica cuántica, no CA, y esta es la única razón por la que te resulta tan fácil eludir los no-gos.
El hecho de que eluda los no-gos sin dificultad sugiere fuertemente que su construcción está dejando el espacio de las distribuciones de probabilidad clásicas permitidas en el CA de alguna manera. El único lugar donde esto puede suceder es durante la preparación del estado interno, durante las mediciones de los operadores internos. Después de todo, así es como se preparan los estados de Bell o las computadoras cuánticas. Estas operaciones interiores deben estar produciendo estados (después de la proyección) que no pueden interpretarse como estados de probabilidad clásicos del autómata, aunque la evolución hamiltoniana nunca lo hace. Esto no es una prueba, pero apostaría mucho dinero (si tuviera). Pedí una prueba aquí: en los modelos beable de 't Hooft, ¿las medidas mantienen los estados clásicos?
Esta es la parte I de la respuesta, la publico por separado, para que las personas que están de acuerdo con esta parte no tengan que votar a favor de la segunda parte, que está dedicada a un enfoque diferente para sacar la mecánica cuántica de los autómatas, para responder a la segunda pregunta.
Esta pregunta trata de reproducir la mecánica cuántica a partir de autómatas clásicos con un estado probabilísticamente desconocido.
Comience con una CA clásica y una distribución de probabilidad en la CA. Para mantener las cosas en general, permito que la CA tenga alguna evolución no determinista, pero solo probabilidad estocástica, no evolución cuántica, y no es necesario, siempre puedes poner la probabilidad en las condiciones iniciales, sin estocasticidad en tiempos intermedios, es solo una opción
El primer punto sobre estos sistemas estocásticos se detalla aquí: ¿Consecuencias del nuevo teorema en QM? (en el apartado de patas de pato). Si el flujo de probabilidad es siempre entre estados donde la probabilidad es solo infinitesimalmente diferente de la distribución estacionaria, entonces el flujo clásico conserva la entropía y es reversible, incluso si es probabilístico y difusivo. Esta es la motivación central para la construcción, y se debe revisar cómo la partícula que se difunde en el difusor del intercambiador de calor rebota reversiblemente de una habitación a otra, de una manera lineal descrita por un operador con un valor propio en su mayoría complejo, a pesar de que en todo momento solo se difunde entre las diferentes regiones permitidas.
Considere una distribución de probabilidad clásica en un CA, donde B es el estado de todos los bits que componen el autómata, entonces
es la información contenida en el conocimiento completo del estado del autómata, por encima de la proporcionada por la distribución. Si haces una perturbación de primer orden, cambiando a , tu encuentras
Cuando es uniforme, la corrección de primer orden se anula ya que la suma de es cero, y la corrección de segundo orden da una estructura métrica cuadrática en .
Esto es lo que identifico como una estructura precuántica en el espacio de perturbaciones de la distribución uniforme. La razón por la que es tan simétrico (como una esfera, no como un símplex) es porque la perturbación es pequeña. La reversibilidad es requerida por la conservación de la entropía, y la conservación de la entropía requiere que todas las transformaciones en son ortogonales.
La imagen de orden cero es que casi todos los estados son igualmente probables, pero algunos estados son ligeramente más probables que otros, y la información revelada por los experimentos solo produce un ligero sesgo para algunos estados en lugar de otros. Estos ligeros sesgos son entonces más simétricos que el espacio de probabilidades subyacente en los estados de los autómatas, porque estas distribuciones nunca se desvían lo suficiente de la uniformidad para ver las esquinas del espacio de probabilidad símplex. Las esquinas son los estados donde se conocen con certeza los bits del autómata, y si siempre estás lejos de estos, puedes encontrar una dinámica probabilística simétrica y reversible.
Aquí está el problema central con este enfoque --- es imposible que una información que contenga perturbaciones ser pequeño en todas partes. La razón es que un pequeño en todas partes necesariamente produce un estado que es casi indistinguible del estado uniforme y que, por lo tanto, produce una perturbación que corresponde a que usted haya aprendido mucho menos que incluso 1 bit de información. Por ejemplo, si tiene un autómata de N bits y hace una distribución donde la probabilidad de cada valor de bit está entre y , obtienes un contenido de información acotado arriba por un pequeño múltiplo de pedacitos
La razón es que aprender incluso un poco de información sobre el estado de un autómata reduce aproximadamente el número de estados que puede ocupar en un factor de 2. Esto significa que la verdadera distribución de probabilidad debe ser significativamente pequeña en al menos la mitad de las configuraciones, y no puede ser una pequeña perturbación. Esto significa que la expansión de la información se descompone, y aquí es donde estuve atascado durante mucho tiempo.
La razón por la que falla la noción de "pequeña perturbación" es porque una pequeña perturbación, como en el ejemplo de las patas de pato, no es globalmente pequeña, solo tiene la propiedad de que la relación de probabilidades entre dos estados cercanos es pequeña. Si los estados se hacen variando independientemente lotes de bits, hay muchos estados con la misma razón de probabilidad.
La solución también podría ser el siguiente truco fácil: simplemente eleve todo a la potencia M-ésima. Si tiene un sistema con estados indexados por i un número entero en el rango 1,2,...,N y una perturbación
Puedes tomar la potencia tensor M-ésima de , para producir una distribución de productos en el espacio tensorial con índices M . Esta distribución de productos está definida por la condición de que cambiar cada valor i de un valor a otro produce el mismo cambio de proporción en la probabilidad.
Ahora está permitido para ser pequeño incluso cuando la información en no lo es, porque la potencia M-ésima no es pequeña en absoluto. De hecho, en este sistema, debido a que es un producto tensorial, si sabes que el contenido de información de es I bits en general, entonces aprendes que
En otras palabras, las perturbaciones de información finita a la distribución estacionaria en un sistema con M-copias forman un espacio de Hilbert (real, no complejo), cada vez más perfectamente a medida que M tiende a infinito. Si la dinámica es patas de pato, lo que significa que la entropía se conserva con la pequeña perturbación, entonces la evolución temporal de es necesariamente una transformación ortogonal, sin importar cuál sea la ley de evolución estocástica o determinista subyacente.
La idea básica es que se puede hacer surgir una mecánica cuántica a partir de la evolución estocástica de sistemas con muchas copias idénticas, con la condición de que las copias interactúen simétricamente entre sí, de modo que no se sepa qué copia es cuál.
Para ver cómo sale el producto interno, considera la información mutua, que te dice qué tan independientes son dos distribuciones diferentes. Al orden más bajo, esto se encuentra tomando la información en y y restando la información en y por separado. Dado que estas son las normas, se encuentra
Entonces, si tiene dos distribuciones, comparten estados en la medida en que su producto interno es distinto de cero.
No hay duda de que es posible reproducir modelos integrables cuánticos de manera bastante eficiente y simple utilizando sistemas clásicos. Y de todos los sistemas integrables, los osciladores armónicos son uno de los más simples. El verdadero desafío es reproducir sistemas cuánticos no integrables. ¿Puedes reproducir el caos cuántico? ¿Se pueden reproducir modelos cuánticos de espín no integrables en una red espacial 1d? Probar la teoría de la perturbación a partir de modelos integrables se encuentra con el problema de que el número de diagramas de Feynman crece exponencialmente con el número de bucles.
Jorge el curioso
PreguntaRespuestas
usuario11403
ana v
ana v
Ron Maimón
Motl de Luboš
Ron Maimón
Motl de Luboš
Motl de Luboš
Ron Maimón
Ron Maimón
Ron Maimón
Motl de Luboš
Motl de Luboš
Motl de Luboš
Ron Maimón
Ron Maimón
Ron Maimón
Motl de Luboš
Motl de Luboš
Motl de Luboš
PreguntaRespuestas
G. 't Hooft
G. 't Hooft
G. 't Hooft
G. 't Hooft
Columbia
Ron Maimón
Ron Maimón
Ron Maimón
Ron Maimón
ana v
Ron Maimón
Ron Maimón
Motl de Luboš
G. 't Hooft
G. 't Hooft
usuario7348
G. 't Hooft
usuario7348
PreguntaRespuestas
usuario7348
usuario7348
PreguntaRespuestas
usuario7348
PreguntaRespuestas
usuario7348
G. 't Hooft
G. 't Hooft
G. 't Hooft
usuario7348
usuario7348
G. 't Hooft
G. 't Hooft
usuario7348
Diego Mazón
Diego Mazón
G. 't Hooft
G. 't Hooft
G. 't Hooft
usuario7348
G. 't Hooft
G. 't Hooft
usuario7348
usuario7348
G. 't Hooft
empujador de electrones
Galeno