¿Existe un límite termodinámico sobre la eficiencia con la que puede resolver un cubo de Rubik?

Supongamos que construyo una máquina a la que se le darán los cubos de Rubik que han sido revueltos a uno de los 2 sesenta y cinco posibles posiciones del cubo, elegidas uniformemente al azar. ¿Es posible que la máquina resuelva los cubos sin desprender calor?

Se podría pensar que resolver el cubo consiste en destruir alrededor de 65 bits de información porque se necesitan 65 bits para describir el estado del cubo antes de ingresar a la máquina, pero cero bits para describirlo después (ya que se sabe que está resuelto).

Si la información almacenada en un cubo de Rubik es equivalente a cualquier otro tipo de información almacenada físicamente, entonces, según el principio de Landauer, podríamos esperar que la máquina tenga que emitir un calor de T d S sesenta y cinco T k B en ( 2 ) , pero ¿es válido aplicar el principio de Landauer a la información almacenada de esa manera? ¿Qué tipo de argumento se necesita para decir que cierto tipo de información es físicamente significativa, de modo que destruirla requiere pagar un costo de entropía en otro lugar?

No estoy convencido de su afirmación de que un cubo resuelto tiene menos información. Debe identificar la posición de solo un subconjunto de cubelets para identificar de forma única la configuración del cubo (porque, por ejemplo, una esquina torcida obliga a que una segunda esquina también se tuerza). No sabe que un cubo está resuelto hasta que haya verificado que cada cubelet está en una posición válida, por lo que nunca cambia la entropía del cubo, solo si la configuración está en un estado estéticamente "agradable" o no.
@CarlWitthoft Como siempre, la cantidad de información asignada a un conjunto depende del observador. Desde el punto de vista de un observador que sabe (y, de hecho, confía) que el cubo se resuelve después de la máquina, el estado antes de que se resuelva tiene una entropía más alta. Desde el punto de vista de un observador que no sabe nada excepto las reglas de cómo se puede mover el cubo de Rubik, estoy de acuerdo contigo en que la entropía es la misma antes o después.
También soy escéptico sobre la afirmación de que un cubo resuelto contiene menos información solo porque parece "correcto" por convención. Además, la solución no es única. Si añades marcas de orientación en las caras, verás que hay una configuración más que "resuelta" para un cubo de Rubik convencional.
@ 200_successes: incluso si agrega marcas de orientación, sigue siendo cierto que si cuenta la cantidad de diferentes arreglos posibles de cuadrados de colores y marcas de orientación, la cantidad total de arreglos que calificarían como un cubo "resuelto" es mucho menor que el número de todos los posibles arreglos no resueltos (o todos los arreglos no resueltos que serían accesibles mediante alguna secuencia de movimientos desde un cubo recién fabricado en un estado resuelto, ya que podemos suponer que se creó un arreglo "aleatorizado" inicial mezclando al azar un cubo de nueva fabricación).
Y, por supuesto, es simplemente una cuestión de convención qué arreglos etiquetamos como "resueltos", pero el punto es que si diseñamos una máquina que toma un cubo en un estado inicial arbitrario y siempre lo pone en uno de esos estados arbitrariamente tenemos etiquetado como "resuelto", entonces esta máquina está tomando el cubo de una gran cantidad de posibles macroestados iniciales del cubo a una cantidad menor de macroestados finales del cubo, por lo que para que se conserve el volumen del espacio de fase, el entorno debe terminar en un macroestado con más microestados que en su macroestado inicial (ver mis comentarios a Nathaniel).

Respuestas (6)

Supongamos que tiene un cubo de Rubik que está hecho de una pequeña cantidad de átomos a baja temperatura, de modo que puede realizar movimientos sin ninguna disipación por fricción, y supongamos que el cubo se inicializa en uno aleatorio de sus 2 sesenta y cinco estados posibles. Ahora si quieres resolver este cubo tendrás que medir su estado. En principio puedes hacer esto sin disipar energía. Una vez que sepas los movimientos que necesitas hacer para resolver el cubo, estos también se pueden hacer sin disipar energía.

Así que ahora decides construir una máquina que resuelva el cubo sin disipar energía. Primero mide el estado y lo almacena en alguna memoria digital. Luego calcula los movimientos necesarios para resolver el cubo desde esta posición. (En principio, esto tampoco necesita generar calor). Luego hace esos movimientos, resolviendo el cubo.

En principio, ninguno de estos pasos necesita emitir calor, pero su máquina termina en un estado diferente al estado en el que comienza. Al final del proceso, 65 bits del estado de la máquina se han aleatorizado efectivamente, porque todavía contiene la información sobre el estado inicial del cubo. Si quieres resetear la máquina para que pueda resolver otro cubo, tendrás que resetear esos bits de estado a sus condiciones iniciales, y eso es lo que tiene que disipar energía según el principio de Landauer.

Al final, la respuesta es simplemente que debe pagar un costo de entropía para borrar información en todos los casos en los que realmente necesite borrar esa información. Si solo desea resolver un número finito de cubos, puede hacer que la memoria sea lo suficientemente grande para almacenar toda la información resultante, por lo que no es necesario borrarla ni generar calor. Pero si desea construir una máquina de tamaño finito que pueda seguir resolviendo cubos indefinidamente, eventualmente será necesario descargar entropía en el entorno.

Este es el caso del demonio de Maxwell también: si al demonio se le permite tener una memoria infinita, todo inicializado en un estado conocido, entonces no necesita disipar energía alguna vez. Pero darle una memoria infinita es lo mismo que darle una fuente infinita de energía; es capaz de reducir indefinidamente la entropía termodinámica de su entorno solo aumentando indefinidamente la entropía de información de su propio estado interno.

¿Cómo sabemos que es imposible resolver el cubo sin registrar la posición en el estado de la máquina?
@MarkEichenlaub: El cubo revuelto tiene aproximadamente 2 sesenta y cinco estados posibles; el resuelto solo tiene uno. En el nivel microscópico, la física es reversible, por lo que cuando se resuelve el cubo, la información necesaria para invertir la solución y reconstruir el estado codificado original a partir del resuelto debe ir a alguna parte . Eso significa que debe almacenarse en alguna parte del sistema o emitirse desde él (como calor).
@IlmariKaronen Vale, sí, creo que suena convincente. Gracias.
Eso me parece una tontería: el cubo tiene un estado inicial y un estado final. No está en 2^65 estados a la vez. Si es posible calcular los pasos necesarios para resolver el cubo es una pregunta completamente diferente.
@Jon Story: ¿está familiarizado con la idea de espacio de fase en termodinámica y con la idea de considerar la evolución de un conjunto de puntos diferentes (cada uno de los cuales es un 'microestado') que ocupan algún volumen de espacio de fase y de la idea de que el volumen debe conservarse ( teorema de Liouville )? Si es así, considere un conjunto inicial que consta de microestados que pertenecen a todos los posibles macroestados iniciales del cubo, el dispositivo y el entorno, si todos evolucionan hacia el mismo macroestado final.
(continuación) del cubo y el dispositivo, entonces la única forma en que el volumen del espacio de fase puede permanecer igual aquí es si el entorno termina en un macroestado con un volumen mayor que su macroestado inicial (es decir, mayor entropía).
@IlmariKaronen Parece que este argumento se basa en poder decir que el estado del cubo es identificable con microestados de alguna manera. Por ejemplo, si pudiera escribir el estado del sistema como el producto tensorial s y s t mi metro = C tu b mi s t a t mi mi v mi r y t h i norte gramo mi yo s mi , entonces el argumento funcionaría b/c reduciendo la entropía en C tu b mi s t a t mi me obliga a aumentarla en mi v mi r y t h i norte gramo mi yo s mi , pero ¿cómo sé que puedo hablar sobre el estado del cubo de esa manera?
@Mark Eichenlaub: cuando dice "identificable con microestados de alguna manera", ¿quiere decir identificable con un solo microestado, o quiere decir que el estado del cubo (la disposición de lo que sea que se use como cuadrados en cada cara) puede tomarse como un tipo de macroestado que consta de muchos posibles microestados? Creo que esto último fue lo que Ilmari Karonen quiso decir.
Sí, creo que es correcto. Podemos observar el conjunto de todos los microestados de todo el sistema y particionarlo según el estado del cubo en cada microestado. Luego, por la simetría aproximada del cubo, cada estado del cubo debería tener aproximadamente el mismo número de microestados de todo el sistema asociado con él. Por lo tanto, la reducción de entropía basada en el conteo de microestados es aproximadamente la misma que la basada en el conteo de la información en el cubo.
"Darle una memoria infinita es lo mismo que darle una fuente infinita de energía", esa es una declaración bastante fascinante. ¿Tiene alguna referencia para esto?
"Es capaz de reducir indefinidamente la entropía termodinámica de su entorno solo aumentando indefinidamente la entropía de información de su propio estado interno". ¿Puede dar alguna referencia para este reclamo? Es interesante pero bastante inverosímil. Simplemente correlacionar el estado de un sistema con el estado de muchos sistemas de partículas no parece suficiente para cambiar el macroestado de este último.
@JánLalinský esto podría deberse a la imprecisión del lenguaje de mi parte. Quería decir "puede reducir indefinidamente la entropía termodinámica de su entorno, pero solo a través de procesos que implican aumentar indefinidamente la entropía de la información de su propio estado interno". No es solo la correlación lo que hace que la entropía disminuya, es el hecho de que puede hacer mediciones y actuar sobre ellas sin tener que generar calor. Supongo que la referencia sería el artículo de Landauer, aunque debo admitir que no he leído el original. (Vea el siguiente comentario para el enlace)
@immibis Supongo que la referencia sería el artículo de Landauer ( pitt.edu/~jdnorton/lectures/Rotman_Summer_School_2013/… ), aunque debo admitir que no lo he leído. Cualquier tratamiento reciente del demonio de Maxwell debería tener una buena explicación de cómo el demonio puede reducir la entropía de un gas, permitiendo trabajar, a menos que tenga que borrar la información que inevitablemente almacena sobre el gas mientras opera.
@MarkEichenlaub (en respuesta a su primer comentario) esto es solo porque la máquina debe conocer el estado del cubo para resolverlo; una vez que esa información se ha copiado en el estado de la máquina, no hay forma de borrarla sin generar calor. Para verlo de otra manera, hay 2 sesenta y cinco posibles estados iniciales (macro) del sistema cubo+máquina, por lo que debe haber el mismo número de posibles estados finales a menos que se haya perdido información. El cubo siempre termina en el mismo estado, por lo que la máquina debe terminar en uno de 2 sesenta y cinco estados, dependiendo del estado inicial del cubo.
@MarkEichenlaub parece que la discusión resolvió el resto de sus preguntas, ¿es así?
Intuitivamente, creo que esto es correcto. Creo que tampoco es perfectamente riguroso porque la información almacenada en el cubo no es obviamente el mismo tipo de información almacenada en grados de libertad microscópicos. La conservación de la información es un teorema que podemos derivar de la dinámica hamiltoniana. Si queremos aplicarlo al cubo de Rubik, necesitamos alguna justificación de que nuestras ideas sobre los sistemas hamiltonianos se pueden aplicar. Tiene que haber algún vínculo definido entre los estados de un cubo de Rubik y los microestados para los que tenemos teoremas relevantes sobre la información.
@MarkEichenlaub Creo que tu comentario es correcto; otra forma de verlo es que el enlace que buscas es exactamente el principio de Landauer. Dice que aunque no es necesario conservar la información a nivel macroscópico, no podemos borrar la información macroscópica sin aumentar el número de estados microscópicos. Esto se debe esencialmente a lo que dice en su comentario: en un momento dado, el estado total del sistema se puede dividir en macroestado microestado , por lo que según el teorema de Liouville no se puede disminuir el primero sin aumentar el segundo.
¿Sería posible tener un cubo "ficticio" donde el estado no es importante? Entonces podrías resolver norte otros cubos almacenando el inverso de los movimientos en el cubo ficticio. Nunca necesitarías destruir la información ya que simplemente no te importa.
@CJDennis, esa es una buena idea, y me tomó un tiempo ver por qué no puede funcionar. Supongamos que ha resuelto el cubo y ahora desea descargar la información de "desperdicio" sobre su estado inicial en el cubo ficticio. Si el cubo ficticio se encuentra en un estado conocido (p. ej., ya está resuelto), simplemente puede 'intercambiar' la información en la memoria con el estado del cubo ficticio, borrando la memoria. Pero si usted (el diseñador de la máquina) no conoce el estado del cubo ficticio, esto no funciona; hay 2 sesenta y cinco bits de información desconocida en la memoria, y otro 2 sesenta y cinco bits en el cubo ficticio: no se puede comprimir todo en el cubo.
...así que si tiene un suministro inagotable de cubos ficticios resueltos inicialmente, entonces puede resolver cubos indefinidamente transfiriendo su scrabled a los cubos ficticios, pero con un cubo ficticio no puede resolver más de otro cubo.
@Nathaniel Si cada movimiento tuerce una cara 90, 180 o 270 grados, ¿no puede almacenar esa información en el cubo ficticio girándolo en la dirección opuesta? Si ese es el caso, nunca importa cuál es el estado inicial del cubo ficticio o en qué orden haces los movimientos en otros cubos. Puede alternar movimientos o elegir un cubo aleatorio para moverse cada vez. Efectivamente estaría aplicando XOR al estado de cada cubo en el cubo ficticio.
@CJDennis XOR es solo una operación reversible si también almacena una de sus entradas. Dado solo el estado final del cubo ficticio, no puede reconstruir el estado inicial de más de un cubo de entrada, por lo que se ha perdido información.
@Nathaniel ¿Se ha perdido o cifrado la información? Si hago XOR 10 valores de 8 bits juntos, nunca recuperará ninguno de ellos con certeza a menos que ya conozca al menos 9 de los valores originales. Si conoce cualquier 9, siempre puede reconstruir el décimo.
@CJDennis ese es el punto: la información no está en el resultado del XOR, está en las correlaciones entre el resultado y las entradas. Si mantiene todas las entradas menos una, todavía tiene la información, pero si borra más de una de las entradas, no la tendrá. Por lo tanto, no puede usar XOR para almacenar información sobre el estado inicial de más de un cubo de entrada en un solo cubo 'ficticio', porque resolver los cubos de entrada borra las entradas al XOR.
@Nathaniel Entonces, ¿la solución original solo funciona porque "sabes" que se resolvió el estado inicial del cubo ficticio?
@CJDennis No estoy seguro de lo que quiere decir con "la solución original". ¿Te refieres a un caso en el que un cubo de entrada se puede resolver transfiriendo información sobre su estado inicial a un cubo ficticio? De hecho, esto solo puede funcionar si la máquina está diseñada asumiendo que el cubo ficticio tiene un estado inicial particular. De lo contrario, habrá al menos dos entradas diferentes que van a la misma salida (donde "entrada" incluye el estado del cubo a resolver y el del cubo ficticio), por lo que no se puede implementar sin un paso de borrado de información. que generaría calor.

En principio estoy de acuerdo con tu análisis, pero no estoy de acuerdo con la conclusión. Desde un punto de vista algorítmico, puede resolver el cubo sin gastar calor, siempre que no se pierda información. Entonces, en principio, puede tener un cubo adicional en un estado conocido, que luego transforma junto con el cubo que está tratando de resolver. El estado inicial del primer cubo se codifica luego en el estado final del segundo cubo. En el campo de la computación reversible, el segundo cubo representa una variable auxiliar.

Claro, pero la pregunta es, suponiendo que no vamos a registrar la información en un segundo cubo (o en cualquier otro lugar), ¿podemos entonces justificar la conclusión de que la máquina debe emitir calor?
El punto es que no es reversible. Si desea deshacerse de la fricción, etc., en algún momento su cubo de Rubik abstracto se convertirá en un montón de qubits. Sin embargo, no creo que el principio de Landauer haya sido probado para representaciones generales de información.

De hecho, leí el título de una manera diferente, así que permítanme responder una pregunta diferente: ¿cuál es el requisito termodinámico mínimo para resolver un cubo? Ahora, si analizas la posición inicial (lo que han hecho algunos algebristas), entonces sabes cuántos movimientos se necesitan para resolver. Si hace una suma ponderada sobre todos los estados iniciales, es decir, ponderada por el número de movimientos a la solución de cada estado, encontrará rápidamente la energía esperada (en "unidades de movimiento"), la std. desarrollador, etc

Supongo que esto es más aburrido de lo que pretendía la pregunta :-( .

Supongamos que construyo una máquina a la que se le darán los cubos de Rubik que han sido revueltos a uno de los ~ 2 sesenta y cinco posibles posiciones del cubo, elegidas uniformemente al azar. ¿Es posible que la máquina resuelva los cubos sin desprender calor?

Si por "despedir calor" quiere decir un cambio de energía mecánica/eléctrica en energía interna, entonces en la práctica no, en las máquinas reales siempre hay algo de fricción y disipación de energía mecánica/eléctrica. Es extremadamente difícil prevenirlo por completo si hay algún movimiento involucrado.

En teoría, si pudiéramos construir una máquina que transforme el cubo sin disipar energía (obedeciendo a mecánicas reversibles donde el calor no está presente o trabajando con una cantidad insignificante de energía (lentamente)), entonces creo que la respuesta es sí, ya que existen algoritmos para resolver Rubik. cube y no veo una razón por la que estos algoritmos no puedan ejecutarse en ese tipo de máquina. Aunque no estoy seguro.

Se podría pensar que resolver el cubo consiste en destruir alrededor de 65 bits de información porque se necesitan 65 bits para describir el estado del cubo antes de ingresar a la máquina, pero cero bits para describirlo después (ya que se sabe que está resuelto).

Si por "destruir información" quiere decir "restaurar el cubo al estado resuelto y restablecer la máquina al estado listo", entonces estoy de acuerdo; en el sentido de que una vez que se resuelve el cubo, la información sobre el estado inicial del cubo ya no se puede obtener de él.

Sin embargo, permítanme profundizar en un punto que a menudo se vuelve confuso; El estado físico no es información. El uso del término "la información se destruye" confunde el análisis, porque el proceso en realidad da como resultado un aumento de la información sobre el cubo; no sabíamos el estado inicial, pero al final sabemos que está resuelto.

Por eso es importante distinguir entre el estado físico del cubo y la información sobre el estado del cubo. Lo que se destruye en el proceso no es información, sino el estado físico inicial; la información en realidad aumenta.

Por supuesto, la información sobre el estado inicial aún puede obtenerse del estado de la máquina o su entorno.

...según el principio de Landauer, podríamos esperar que la máquina tenga que emitir un calor de T d S ~ sesenta y cinco T k B en ( 2 ) , pero ¿es válido aplicar el principio de Landauer a la información almacenada de esa manera?

No.

Cuando la máquina se reinicia por la acción del entorno, la entropía de la información de la máquina + cubo disminuye. Si la entropía de la información fuera lo mismo que la entropía termodinámica y todo el proceso pudiera describirse razonablemente como un proceso termodinámico reversible, se podría pensar que esto va acompañado de un sistema que emite calor al medio ambiente, ya que Clausius ha demostrado que en tal caso Δ S t h mi r metro o d y norte a metro i C = d q / T .

Pero este no es ese caso en absoluto. Incluso si asumimos que la entropía de la información del entorno aumenta como resultado del proceso, esto por sí solo no es suficiente para concluir que la entropía termodinámica hace lo mismo. Puede que ni siquiera sea aplicable al medio ambiente. Si es así, todo el proceso aún puede ocurrir con una transferencia de energía arbitrariamente pequeña, por lo que no se puede implicar un límite inferior en la cantidad de calor.

No entiendo por qué la gente pone tanta fe y entusiasmo en el principio de Landauer. Los conceptos de temperatura, transferencia de calor y entropía termodinámica son de aplicabilidad limitada y su área de uso propia es la termodinámica de sistemas macroscópicos. No tiene mucho sentido complicar la descripción de los procesos computacionales usando solo términos limitados de termodinámica o física estadística.

¿Qué tipo de argumento se necesita para decir que cierto tipo de información es físicamente significativa, de modo que destruirla requiere pagar un costo de entropía en otro lugar?

No estoy seguro de por qué usa la expresión "físicamente significativo". La información no es una propiedad física de los cuerpos. Es un concepto no físico. Originalmente la información reside en la mente. Luego, puede codificarse en el estado físico de otro cuerpo, como un libro, un disco duro o un cubo de Rubik, pero aún se necesita la mente para transformar el estado en información.

Sin embargo, el costo entrópico es plausible, es decir, el costo de la entropía de la información. Después de que el entorno ha interactuado con un sistema de estado desconocido (cubo de Rubik), la cantidad de información sobre el entorno que tenemos probablemente disminuye. Esto significa que la entropía de la información (nuestra ignorancia del estado del medio ambiente) aumenta, por eso el costo.

Sin embargo, me gusta decir nuevamente aquí que no hay una implicación directa para el cambio en la entropía termodinámica (o la generación de calor) en ninguno de estos sistemas.

La entropía de la información y la entropía termodinámica son conceptos muy diferentes y no existe una correlación universalmente válida entre sus cambios. Solo en el proceso termodinámico termodinámicamente reversible, se corresponden entre sí. No es necesario que el entorno sufra tal proceso ya que la máquina resuelve el cubo de Rubik.

"Los conceptos de temperatura y entropía tienen una aplicabilidad limitada y su área de uso adecuada es la termodinámica (estadística). No es necesario describir la computadora en términos de este esquema". Puede que no sea necesario , pero la pregunta es a qué conclusiones llega si elige describirlo en estos términos. Si usa la disposición de los cuadrados en el cubo y el estado de la memoria de la computadora como macrovariables para describir el macroestado (quizás junto con otras como la temperatura), entonces si se garantiza que el sistema terminará con el mismo valor de estas variables ,
(continuación) eso implica que alguna combinación de los macroestados para el cubo, la computadora que resuelve el cubo y el entorno debe tener una multiplicidad más alta (por lo tanto, una entropía más alta) que los macroestados iniciales, presumiblemente debido a un aumento en la temperatura. Vea mis comentarios en la publicación de Nathaniel sobre la conservación del volumen en el espacio de fase para el razonamiento.
Este es un punto obvio que no era la intención de la pregunta. ¿Qué pasa si la computadora necesita resolver una gran cantidad de cubos y no tiene suficiente memoria para almacenarlos todos?
He reformulado y ampliado la respuesta.
@MarkEichenlaub: no estoy seguro de que sea tan obvio, así que creo que es bueno expresarlo en la respuesta. Si la máquina no tiene suficiente memoria, debe reiniciarse antes de que se resuelva el siguiente cubo. Así que el medio ambiente entra en juego - ver arriba.
@Hypnosifl: Creo que tiene poco sentido usar la termodinámica y las macrovariables como la temperatura y la entropía termodinámica para describir un proceso puramente mecánico, incluso si se puede aplicar la entropía de la información, por eso dije eso. No veo nada bueno en la introducción de macrovariables cuando las microvariables son necesarias para definir y discutir los detalles del proceso. Es cierto que se puede hacer para el cubo, más difícilmente para la computadora y tal vez para algún modelo limitado del entorno. Simplemente no veo ningún sentido en hacer eso. Pero podría estar equivocado.
Pero el punto no es llegar a una estimación realista del calor que generaría el proceso mecánico, sino simplemente usar la mecánica estadística para demostrar que existe un límite inferior absoluto en la entropía que podría generar cualquier proceso de este tipo (uno en el que se garantizaba que las macrovariables asociadas con la disposición del cubo y la memoria del dispositivo terminarían con un conjunto conocido de valores finales independientemente de los valores iniciales). ¿Está realmente en desacuerdo con el razonamiento estadístico para un límite inferior de este tipo, o simplemente dice que no es útil en la práctica?
Además, diría que la entropía termodinámica es un tipo particular de entropía de información: la autoinformación es el logaritmo de la probabilidad de un resultado dado de cualquier espacio de muestra que desee usar, mientras que la entropía termodinámica de un macroestado es k veces el -log de la probabilidad de que el "resultado" del sistema esté en un microestado particular, dado un macroestado conocido (o kx log número total de microestados). Pero eres libre de elegir cualquier conjunto arbitrario de macrovariables para definir tu macroestado.
@Hypnosifl, la entropía de la información para el sistema (cubo + máquina) disminuye. Tiene poco sentido introducir la entropía de la información para el entorno, pero si lo hacemos, y la evolución del supersistema es hamiltoniana, entonces la entropía total de la información permanece constante. Si la entropía de la información se define como aditiva, la entropía de la información del entorno aumenta. Esto no es muy interesante. Depende de los supuestos especiales mencionados e incluso si es válido, no hay implicación para la transferencia de calor o la entropía termodinámica.
@Hypnosifl, k veces el registro del número de microestados no es entropía termodinámica, sino una instancia especial de entropía de información para el caso en que todos los estados son igualmente probables. Al hacer suposiciones adicionales, su valor para el modelo mecánico de un sistema termodinámico (gas en un recipiente) puede hacerse proporcional a la entropía termodinámica para estados de equilibrio termodinámico. Pero el cubo, la máquina y el entorno no son modelos de ningún sistema termodinámico y no tiene sentido decir que están en estado de equilibrio termodinámico.
Me referí a la autoinformación de un resultado individual en lugar de la entropía de la información H (que en realidad es el valor esperado de la autoinformación de un resultado, antes de saber cuál es el resultado). La autoinformación es aproximadamente igual a la longitud de un mensaje que se necesitaría para transmitir un resultado, usando un esquema ideal como la codificación Huffman que usa menos símbolos para obtener resultados más probables. En estos términos, el stat mech. la entropía de un macroestado es solo k veces la longitud de un mensaje que sería necesario para especificar el microestado, dado que ya conoce el macroestado.
Además, es una especie de cuestión de perspectiva, pero yo diría que la otra definición de entropía de la mecánica estadística, S = k i pags i Iniciar sesión pags i , todavía se basa en última instancia en la idea de tratar todos los microestados como igualmente probables, ya que entiendo que normalmente se deriva el pags i para cada microestado i de su sistema A suponiendo que está en contacto con un reservorio B, y que es igualmente probable que el sistema combinado más grande (A+B) esté en cualquiera de sus microestados.
Entonces, si define macroestados para el sistema combinado (A+B) en términos de los microestados de A (cada macroestado consta de todos los microestados de A+B en los que A está en un microestado específico), con los macroestados así definidos, S = k i pags i Iniciar sesión pags i da k veces el valor esperado para la longitud de un mensaje necesario para especificar el macroestado de A+B (o de manera equivalente, para especificar el microestado de A) sin especificar el microestado completo A+B, utilizando la codificación Huffman con la suposición de que cada estado completo microestado para A+B es igualmente probable.
Finalmente, S = k Iniciar sesión Ω puede tomarse como una definición de la entropía de un macroestado que aún se aplica incluso si el sistema comienza fuera del equilibrio. La idea es entonces utilizar el teorema de Liouville, que dice que la dinámica debe conservar el volumen en el espacio de fase. Si tiene un conjunto de microestados en el momento t0 que están todos en uno de algún conjunto de macroestados A1, A2, … , An, no todos pueden evolucionar a microestados que son todos miembros de macroestados B1, B2, … , Bm en el momento t1 si la suma de entropías del segundo conjunto es menor que la suma de entropías del primer conjunto,
(cont.) ya que eso significaría que el conjunto ha reducido su volumen en el espacio de fase. ¿No estás de acuerdo con que esta sea una consecuencia lógica del teorema de Liouville? Este es el tipo de argumento utilizado aquí para derivar el principio de Landauer, por ejemplo. Creo que también puede usar un tipo de argumento similar para derivar la conclusión de que es probable que un sistema aislado que comienza en un macroestado lejos del equilibrio evolucione en la dirección de macroestados de mayor entropía, consulte la sección 2 aquí .

Dependiendo de cuán ampliamente interprete la idea de un cubo de Rubik, una versión mecánica cuántica no requiere calor para aleatorizar o resolver. Supongamos que tenemos un cubo virtual cuyo estado está representado por 65 qbits. Es deseable que los diferentes estados del sistema tengan un acoplamiento muy bajo, pero en la práctica deben tenerlo, por lo que un sistema que comienza en un estado base en el que cada bit tiene un valor definido, a la larga evolucionará hacia una superposición. Para aleatorizar el sistema, esperamos un tiempo muy largo (pero aleatorio) y luego leemos los qbits. Luego llevamos a cabo una serie de operaciones unitarias para devolver los qbits al estado | 0 , 0 , 0...0 , que representa un cubo resuelto. Dado que en principio ninguna operación requiere energía, no hay costo termodinámico.

El cubo de Rubik puede almacenar información. La información se puede cambiar. El cubo de Rubik es un dispositivo de memoria. Cambiar un bit de información en un cubo de Rubik requiere al menos energía kT ln 2. Ese es el principio de Landauer.

La energía de cambiar un poco en un cubo de Rubik se convierte en energía térmica del cubo de Rubik.

Un cubo de Rubik virtual en la memoria de una computadora obedece esa misma ley.

No estoy de acuerdo con esto. El estado del cubo de Rubik se puede cambiar (en principio) mediante una operación unitaria que no cuesta energía. Cambiar entre estados puros no tiene por qué costar energía. Pero aleatorizar el estado (borrar información) cuesta energía. Este es el principio de Landauer, vea la respuesta de Nathaniel.
Sobrescribes información antigua cuando almacenas un bit en un cubo de Rubik. El cubo de Rubik es un dispositivo irreversible. Para hacer que el cubo de Rubik sea reversible, es necesario cambiar el cubo de Rubik, de la misma manera que una computadora portátil debe cambiarse mucho, si queremos hacer una computadora reversible con ella.
Un cubo de Rubik físico normal es, por supuesto, irreversible. Sin embargo, no veo nada en principio que le impida hacer uno con una fricción muy pequeña y cambiar la configuración de forma casi estática, lo que obviamente cuesta una cantidad de energía muy pequeña.
Las vibraciones térmicas aleatorizarían el cubo de Rubik de baja fricción durante el lento intento de escritura... Pero mira la respuesta de Lionelbrits.
Claro, entonces tienes que hacer la cosa a temperatura cero. O si se quiere, a una temperatura tal que / k B T es mucho más largo que el tiempo que se tarda en escribir.