Constancia de conservación de la información [duplicado]

Después de escuchar algunas conferencias de Leonard Susskind sobre los agujeros negros, mencionó que la conservación de la información es uno de los fundamentos de la física. Después de buscar en la web, parece que no puedo encontrar cómo se nos ocurrió esta teoría. ¿Alguien podría explicar cómo sabemos que esto es cierto y/o cómo llegamos a esta conclusión?

No es demostrable, es un axioma, también conocido como "ley". Al igual que el "postulado paralelo" en geometría, es algo consistente con todo lo que sabemos y, por lo tanto, bastante útil.
¿Cuál es el enunciado preciso de ese axioma?

Respuestas (2)

Quizá me equivoque, pero me parece una consecuencia trivial de la evolución del sistema cuántico mediante transformadas unitarias y, por tanto, reversibilidad.

¿ Una consecuencia trivial de la evolución unitaria? No es del todo obvio para mí cómo ese es el caso. Si es tan trivial, ¿por qué no dar una definición de "información" en el contexto de la mecánica cuántica y una prueba de que la información se conserva en la evolución unitaria?
@joshphysics: si un sistema tiene evolución unitaria, entonces es reversible, ¿verdad? Y si es reversible, siempre puede volver a un estado anterior si se invierte la evolución. Cualquier definición de información que conozco (que puede no ser mucha) dice que la única forma en que puede volver a un estado anterior es si no olvida cuál era. Eso es decirlo coloquialmente, lo sé, pero cuando trabajé en algoritmos cuánticos, esa era una comprensión básica.
Si estamos satisfechos con la intuición de que la reversibilidad no implica pérdida de información para cualquier definición razonable de información, entonces eso es ciertamente justo. En realidad, cuando lo pones en esos términos, estoy personalmente satisfecho, pero aún me gustaría ver una definición más precisa de información.
@joshphysics: siendo yo mismo un tipo de CS, estoy más familiarizado con la información de Shannon y, en menor grado, con la información de Kolmogorov. Sé que hay otros.

En un contexto cuántico, o más generalmente en un contexto estadístico, se puede decir que la conservación de la información está relacionada con el hecho de que la suma de probabilidades es 1

Por ejemplo, suponga que las interacciones de 2 partículas A y A sólo podría producir estas mismas partículas A y A , pero con diferentes características (momentos, polarizaciones, etc...), por lo que una interacción A 1 + A 1 A 2 + A 2

Podemos considerar que el estado inicial es | i = | i 1 | i 1 , mientras que el estado final podría escribirse : | F = F 2 , F 2 A ( i 1 , i 1 , F 2 , F 2 ) | F 2 | F 2 .

Aquí, A ( i 1 , i 1 , F 2 , F 2 ) representa una amplitud de probabilidad compleja, pero ¿cuál exactamente?

Conservación de la información, significa que las partículas iniciales no pueden desaparecer (por hipótesis, dijimos que el estado final siempre está compuesto por un estado de 2 partículas, por lo que el estado final no puede ser "nada" o cero), las leyes de probabilidad nos dicen que la suma de las probabilidades es igual a 1 , eso es :

F 2 , F 2 | A ( i 1 , i 1 , F 2 , F 2 ) | 2 = 1

Entonces A ( i 1 , i 1 , F 2 , F 2 ) realmente representa la amplitud de probabilidad para encontrar el sistema final en el estado | F 2 | F 2

Si la suma de las probabilidades no fuera igual a 1 , no podrá predecir nada, la física no será predictiva y, por lo tanto, no sería una ciencia.