Supongamos que construyo una máquina a la que se le darán los cubos de Rubik que han sido revueltos a uno de los posibles posiciones del cubo, elegidas uniformemente al azar. ¿Es posible que la máquina resuelva los cubos sin desprender calor?
Se podría pensar que resolver el cubo consiste en destruir alrededor de 65 bits de información porque se necesitan 65 bits para describir el estado del cubo antes de ingresar a la máquina, pero cero bits para describirlo después (ya que se sabe que está resuelto).
Si la información almacenada en un cubo de Rubik es equivalente a cualquier otro tipo de información almacenada físicamente, entonces, según el principio de Landauer, podríamos esperar que la máquina tenga que emitir un calor de , pero ¿es válido aplicar el principio de Landauer a la información almacenada de esa manera? ¿Qué tipo de argumento se necesita para decir que cierto tipo de información es físicamente significativa, de modo que destruirla requiere pagar un costo de entropía en otro lugar?
Supongamos que tiene un cubo de Rubik que está hecho de una pequeña cantidad de átomos a baja temperatura, de modo que puede realizar movimientos sin ninguna disipación por fricción, y supongamos que el cubo se inicializa en uno aleatorio de sus estados posibles. Ahora si quieres resolver este cubo tendrás que medir su estado. En principio puedes hacer esto sin disipar energía. Una vez que sepas los movimientos que necesitas hacer para resolver el cubo, estos también se pueden hacer sin disipar energía.
Así que ahora decides construir una máquina que resuelva el cubo sin disipar energía. Primero mide el estado y lo almacena en alguna memoria digital. Luego calcula los movimientos necesarios para resolver el cubo desde esta posición. (En principio, esto tampoco necesita generar calor). Luego hace esos movimientos, resolviendo el cubo.
En principio, ninguno de estos pasos necesita emitir calor, pero su máquina termina en un estado diferente al estado en el que comienza. Al final del proceso, 65 bits del estado de la máquina se han aleatorizado efectivamente, porque todavía contiene la información sobre el estado inicial del cubo. Si quieres resetear la máquina para que pueda resolver otro cubo, tendrás que resetear esos bits de estado a sus condiciones iniciales, y eso es lo que tiene que disipar energía según el principio de Landauer.
Al final, la respuesta es simplemente que debe pagar un costo de entropía para borrar información en todos los casos en los que realmente necesite borrar esa información. Si solo desea resolver un número finito de cubos, puede hacer que la memoria sea lo suficientemente grande para almacenar toda la información resultante, por lo que no es necesario borrarla ni generar calor. Pero si desea construir una máquina de tamaño finito que pueda seguir resolviendo cubos indefinidamente, eventualmente será necesario descargar entropía en el entorno.
Este es el caso del demonio de Maxwell también: si al demonio se le permite tener una memoria infinita, todo inicializado en un estado conocido, entonces no necesita disipar energía alguna vez. Pero darle una memoria infinita es lo mismo que darle una fuente infinita de energía; es capaz de reducir indefinidamente la entropía termodinámica de su entorno solo aumentando indefinidamente la entropía de información de su propio estado interno.
En principio estoy de acuerdo con tu análisis, pero no estoy de acuerdo con la conclusión. Desde un punto de vista algorítmico, puede resolver el cubo sin gastar calor, siempre que no se pierda información. Entonces, en principio, puede tener un cubo adicional en un estado conocido, que luego transforma junto con el cubo que está tratando de resolver. El estado inicial del primer cubo se codifica luego en el estado final del segundo cubo. En el campo de la computación reversible, el segundo cubo representa una variable auxiliar.
De hecho, leí el título de una manera diferente, así que permítanme responder una pregunta diferente: ¿cuál es el requisito termodinámico mínimo para resolver un cubo? Ahora, si analizas la posición inicial (lo que han hecho algunos algebristas), entonces sabes cuántos movimientos se necesitan para resolver. Si hace una suma ponderada sobre todos los estados iniciales, es decir, ponderada por el número de movimientos a la solución de cada estado, encontrará rápidamente la energía esperada (en "unidades de movimiento"), la std. desarrollador, etc
Supongo que esto es más aburrido de lo que pretendía la pregunta :-( .
Supongamos que construyo una máquina a la que se le darán los cubos de Rubik que han sido revueltos a uno de los ~ posibles posiciones del cubo, elegidas uniformemente al azar. ¿Es posible que la máquina resuelva los cubos sin desprender calor?
Si por "despedir calor" quiere decir un cambio de energía mecánica/eléctrica en energía interna, entonces en la práctica no, en las máquinas reales siempre hay algo de fricción y disipación de energía mecánica/eléctrica. Es extremadamente difícil prevenirlo por completo si hay algún movimiento involucrado.
En teoría, si pudiéramos construir una máquina que transforme el cubo sin disipar energía (obedeciendo a mecánicas reversibles donde el calor no está presente o trabajando con una cantidad insignificante de energía (lentamente)), entonces creo que la respuesta es sí, ya que existen algoritmos para resolver Rubik. cube y no veo una razón por la que estos algoritmos no puedan ejecutarse en ese tipo de máquina. Aunque no estoy seguro.
Se podría pensar que resolver el cubo consiste en destruir alrededor de 65 bits de información porque se necesitan 65 bits para describir el estado del cubo antes de ingresar a la máquina, pero cero bits para describirlo después (ya que se sabe que está resuelto).
Si por "destruir información" quiere decir "restaurar el cubo al estado resuelto y restablecer la máquina al estado listo", entonces estoy de acuerdo; en el sentido de que una vez que se resuelve el cubo, la información sobre el estado inicial del cubo ya no se puede obtener de él.
Sin embargo, permítanme profundizar en un punto que a menudo se vuelve confuso; El estado físico no es información. El uso del término "la información se destruye" confunde el análisis, porque el proceso en realidad da como resultado un aumento de la información sobre el cubo; no sabíamos el estado inicial, pero al final sabemos que está resuelto.
Por eso es importante distinguir entre el estado físico del cubo y la información sobre el estado del cubo. Lo que se destruye en el proceso no es información, sino el estado físico inicial; la información en realidad aumenta.
Por supuesto, la información sobre el estado inicial aún puede obtenerse del estado de la máquina o su entorno.
...según el principio de Landauer, podríamos esperar que la máquina tenga que emitir un calor de ~ , pero ¿es válido aplicar el principio de Landauer a la información almacenada de esa manera?
No.
Cuando la máquina se reinicia por la acción del entorno, la entropía de la información de la máquina + cubo disminuye. Si la entropía de la información fuera lo mismo que la entropía termodinámica y todo el proceso pudiera describirse razonablemente como un proceso termodinámico reversible, se podría pensar que esto va acompañado de un sistema que emite calor al medio ambiente, ya que Clausius ha demostrado que en tal caso .
Pero este no es ese caso en absoluto. Incluso si asumimos que la entropía de la información del entorno aumenta como resultado del proceso, esto por sí solo no es suficiente para concluir que la entropía termodinámica hace lo mismo. Puede que ni siquiera sea aplicable al medio ambiente. Si es así, todo el proceso aún puede ocurrir con una transferencia de energía arbitrariamente pequeña, por lo que no se puede implicar un límite inferior en la cantidad de calor.
No entiendo por qué la gente pone tanta fe y entusiasmo en el principio de Landauer. Los conceptos de temperatura, transferencia de calor y entropía termodinámica son de aplicabilidad limitada y su área de uso propia es la termodinámica de sistemas macroscópicos. No tiene mucho sentido complicar la descripción de los procesos computacionales usando solo términos limitados de termodinámica o física estadística.
¿Qué tipo de argumento se necesita para decir que cierto tipo de información es físicamente significativa, de modo que destruirla requiere pagar un costo de entropía en otro lugar?
No estoy seguro de por qué usa la expresión "físicamente significativo". La información no es una propiedad física de los cuerpos. Es un concepto no físico. Originalmente la información reside en la mente. Luego, puede codificarse en el estado físico de otro cuerpo, como un libro, un disco duro o un cubo de Rubik, pero aún se necesita la mente para transformar el estado en información.
Sin embargo, el costo entrópico es plausible, es decir, el costo de la entropía de la información. Después de que el entorno ha interactuado con un sistema de estado desconocido (cubo de Rubik), la cantidad de información sobre el entorno que tenemos probablemente disminuye. Esto significa que la entropía de la información (nuestra ignorancia del estado del medio ambiente) aumenta, por eso el costo.
Sin embargo, me gusta decir nuevamente aquí que no hay una implicación directa para el cambio en la entropía termodinámica (o la generación de calor) en ninguno de estos sistemas.
La entropía de la información y la entropía termodinámica son conceptos muy diferentes y no existe una correlación universalmente válida entre sus cambios. Solo en el proceso termodinámico termodinámicamente reversible, se corresponden entre sí. No es necesario que el entorno sufra tal proceso ya que la máquina resuelve el cubo de Rubik.
Dependiendo de cuán ampliamente interprete la idea de un cubo de Rubik, una versión mecánica cuántica no requiere calor para aleatorizar o resolver. Supongamos que tenemos un cubo virtual cuyo estado está representado por 65 qbits. Es deseable que los diferentes estados del sistema tengan un acoplamiento muy bajo, pero en la práctica deben tenerlo, por lo que un sistema que comienza en un estado base en el que cada bit tiene un valor definido, a la larga evolucionará hacia una superposición. Para aleatorizar el sistema, esperamos un tiempo muy largo (pero aleatorio) y luego leemos los qbits. Luego llevamos a cabo una serie de operaciones unitarias para devolver los qbits al estado , que representa un cubo resuelto. Dado que en principio ninguna operación requiere energía, no hay costo termodinámico.
El cubo de Rubik puede almacenar información. La información se puede cambiar. El cubo de Rubik es un dispositivo de memoria. Cambiar un bit de información en un cubo de Rubik requiere al menos energía kT ln 2. Ese es el principio de Landauer.
La energía de cambiar un poco en un cubo de Rubik se convierte en energía térmica del cubo de Rubik.
Un cubo de Rubik virtual en la memoria de una computadora obedece esa misma ley.
Carlos Witthoft
marca mitchison
200_éxito
hipnótico
hipnótico