¿Qué es la entropía de entrelazamiento? y todas esas historias sobre contar [cerrado]

En la mecánica cuántica, el entrelazamiento es un concepto que nos informa sobre la naturaleza de los estados. Es una declaración sobre estados de no producto, por lo tanto, correlaciones. Esta es mi visión bastante tonta del enredo (¿correlaciones?). Hay algo llamado "entropía de entrelazamiento". Recuerdo vagamente cuál es la definición estándar de mecánica estadística para la entropía. Escuché que hay muchos tipos de entropía, pero no estoy seguro de que esto sea relevante. ¿Qué es la entropía de entrelazamiento?; ¿Y qué es todo ese parloteo sobre el conteo (de estados) que siempre pasa en los periódicos sobre esto? Como tengo una formación en física muy limitada, preferiría explorar respuestas que no mencionen los agujeros negros o la teoría cuántica de campos, si es posible. Espero que estos puedan precipitarse en mecánica cuántica muy básica, o en algún análogo clásico que trate, por ejemplo, de correlaciones clásicas y mecánica estadística.

La entropía de entrelazamiento es la entropía de Gibbs para sistemas cuánticos. Para obtener una descripción breve de la entropía de Gibbs, consulte physics.stackexchange.com/a/141324/28512 .

Respuestas (1)

Supongo que está desconcertado por la incongruencia entre el concepto de entropía como medida de "desorden" y el de entropía de entrelazamiento como medida de "correlaciones", dado que muchos artículos definen los dos con la misma fórmula. El motivo de la confusión es que la entropía de entrelazamiento a menudo se presenta en una versión simplificada que "se parece" a la entropía normal. Algo se deja fuera sin ser debidamente explicado.

Para dos sistemas cuánticos A y B La entropía mutua o información mutua se define como la diferencia entre la entropía de A y B en ausencia de enredo y su entropía en presencia de enredo. Si denotamos la entropía regular como S y la entropía mutua como I , entonces generalmente tenemos

I ( A + B ) = S ( A ) + S ( B ) S ( A + B )
Como las entropías regulares, la entropía mutua es siempre positiva, I ( A + B ) 0 , y explica tanto el entrelazamiento como las correlaciones clásicas. Pero para el caso particular cuando el estado enredado de A y B es un estado puro, no hay correlaciones clásicas y la entropía total se desvanece, S ( A + B ) = 0 . También sucede que en este caso tenemos necesariamente S ( A ) = S ( B ) , por lo que la entropía mutua se reduce a
I ( A + B ) = 2 S ( A )
y se convierte en una medida de enredo. El 2 el factor finalmente se descarta por economía de lenguaje y notación. Sin embargo, tenga en cuenta que esto ya no es cierto cuando el estado de A + B no es un estado puro, sino un estado mixto, y S ( A + B ) > 0 .

Si el estado total AB no es puro, esta es la información mutua y no más una medida de entrelazamiento sino de correlaciones totales (cuánticas y clásicas). Llamarlo entropía de entrelazamiento es claramente un nombre inapropiado, y no estoy al tanto de que la gente lo haga sistemáticamente.
@NorbertSchuch Tienes razón, por supuesto. Lo siento, no lo usé por un tiempo y me dejé llevar. ¿Es correcto ahora?
Suena bien. -- Una cosa que vale la pena señalar acerca de la entropía de entrelazamiento es que la razón por la que es tan popular en la información cuántica es que cuantifica de manera única la cantidad de entrelazamiento en un escenario asintótico (es decir, cuando queremos medir el entrelazamiento en muchas copias de algunos estado puro), que por supuesto es genial tener. Si este escenario asintótico es, por supuesto, el relevante, por ejemplo, en aplicaciones de materia condensada, es una cuestión diferente.
Entonces, ¿medidas de estado básicamente mixtas a través de varias purificaciones (destilación, costo, etc.)?
El entrelazamiento de la destilación, el costo del entrelazamiento, etc. no funcionan a través de purificaciones (una purificación es una forma de pensar en un estado mixto como parte de un estado puro más grande), sino al encontrar protocolos asintóticos que lo relacionen con el entrelazamiento en estado puro. cuántos pares de campanas por copia podemos extraer, cuántos pares de campanas por copia se necesitan para construir un estado, etc.
Entiendo. Mala redacción sobre la purificación, tenía en cuenta lo que dijiste.
Para mí, siempre es problemático hablar sobre el entrelazamiento de un estado mixto por su matriz de densidad, ya que una matriz de densidad en realidad no especifica completamente el 'estado'. Entonces, el entrelazamiento de un estado mixto parece estar definido en un conjunto de estados 'equivalentes' y siempre estamos hablando de la propiedad de límite del conjunto.
@X.Dong La matriz de densidad local de un sistema entrelazado no especifica si el sistema está entrelazado o no, pero siempre caracteriza completamente el estado local del sistema. Es decir, a partir de él se pueden calcular todos los observables locales del sistema. El entrelazamiento, otoh, es visible solo en la matriz de densidad total de todos los sistemas involucrados: no es local.
@udrv Oh, pensé que Norbert estaba hablando sobre el entrelazamiento de estados mixtos, donde la matriz de densidad no es local, sino en el sistema compuesto de estado mixto. Entonces, como dijiste, el estado verdadero debería depender de la purificación; de lo contrario, solo podemos hablar sobre las propiedades límite de un conjunto de estados 'equivalentes' descritos por la misma matriz de densidad. Eso no suena como una buena definición del enredo de estado mixto para mí.
@X.Dong Bueno, estaba hablando de estados mixtos no locales, pero creo que teníamos en mente cosas diferentes. ¿Quiso decir que los estados mixtos son ambiguos en relación con su realización particular como superposiciones estadísticas y, por lo tanto, existe la cuestión de si el entrelazamiento puede depender de la realización particular? ¿Por propiedades de contorno te refieres a propiedades locales? No estoy familiarizado con el término.
@udrv Sí. Creo que está hablando del estado mixto no local. Entonces el entrelazamiento de una matriz de densidad dada se define como el límite inferior del entrelazamiento de todas las realizaciones posibles de la matriz de densidad. Eso es lo que quiero decir con 'propiedades de contorno' de la matriz de densidad, que de hecho corresponde a un conjunto pero no a un 'estado' específico.
@ X.Dong Correcto, eso tiene sentido ahora. Otra palabra para propiedades "límite" es propiedades "extremas".