La idea de esta pregunta proviene de un ejemplo en criptografía, donde supuestamente las claves simétricas de 256 bits serán suficientes para siempre (la fuerza bruta de una clave de 256 bits es equivalente a contar hasta , con alguna constante delante). Aunque realmente no lo dudo, creo que es un experimento mental interesante hasta qué número (aproximadamente, por supuesto) una computadora teórica "perfectamente eficiente" (defínalo como quiera), con tiempo infinito y toda la energía (incluida la materia). pero no materia oscura) en nuestra galaxia disponible podría contar. contando hasta se define como el hecho de que algún objeto físico atraviese estados diferentes, predefinidos y medibles. Lamentablemente, me faltan los antecedentes teóricos para hacer este cálculo correctamente, podría intentarlo, pero no tendría idea si me perdí algo esencial. Espero que una pregunta "divertida" como esta no esté fuera del alcance de este sitio (siéntete libre de dirigirme a un mejor lugar para preguntar esto).
Alternativamente: ¿Qué pasa con toda la energía en el Universo conocido?
Dado que la idea de esta pregunta era la longitud de la clave en criptografía, siéntase libre de considerar (o no considerar) el algoritmo de Grover.
Editar: como sugiere un comentario, si no hay una buena respuesta sobre qué considerar una "computadora perfectamente eficiente", tal vez solo tome los valores para un procesador conocido.
Una computadora "perfectamente eficiente" puede significar muchas cosas, pero, a los efectos de esta respuesta, consideremos que significa una computadora reversible (explicada más adelante).
El límite inferior teórico de las necesidades de energía en computación es el límite de Landauer , que establece que el olvido de un bit de información requiere la entrada de trabajo por valor de para cumplir con la segunda ley de la termodinámica. Si la computadora es reversible, es decir , su estado en todo momento puede inferirse de su estado en cualquier otro momento, entonces no hay límite inferior teórico para sus necesidades de energía. Por estado aquí nos referimos al estado teórico de la computadora de la CPU, no al estado cuántico físico (el primero es una parte muy pequeña del segundo; las leyes microscópicas son reversibles, por lo que el estado cuántico completo en cualquier momento siempre se puede inferir en teoría a partir de el estado cuántico completo en cualquier momento). Un ejemplo de cálculo no reversible es uno en el que sumas dos números y escribes el resultado sobre la memoria que antes ocupaban los sumandos. Los dos sumandos no se pueden deducir del estado de la computadora ( es decir ,la suma) después de que se haya realizado la adición. Brevemente, la razón de esta situación es que si su cálculo se olvida, la naturaleza no lo hace, por lo que si borra la memoria, entonces esa información "borrada" de alguna manera debe terminar codificada en el estado cuántico completo de la computadora, ya que las leyes microscópicas son de hecho reversibles. La única forma en que un sistema puede "absorber más información", es decir, codificar completamente su pasado en su estado cuántico, es accediendo a más y más estados cuánticos, y eso casi siempre significa calentarse [ver 1]. Por lo tanto, en algún momento debe agregar energía para que esto suceda y, eventualmente, deberá enfriar la computadora para que siga funcionando. La segunda ley de la termodinámica muestra que si queremos mantener la computadora en un macroestado constante, necesitamos ingresar la cantidad de trabajo prescrita por Landauer. s principio para hacerlo [ver ref. 2].
Ahora veamos tu problema. El conteo se puede convertir claramente en un cómputo reversible: cada paso es invertible y puede imaginarse simplemente cronometrando un simple contador digital hacia atrás para lograrlo. Entonces, en teoría, podríamos construir una computadora cuántica (u otra reversible) para contar sin entrada de energía mientras cuenta . Sin embargo, al contar el olvido de información, se debe tener en cuenta la inicialización. Es decir, debe comenzar con registros inicializados para contar. Pones en marcha tu máquina inicializándolos todos a cero... pero eso significa que hay un estado cuántico de cada registro que se "olvida" a medida que se inicializa la máquina. Entonces, si necesita memoria de bits para su conteo, necesita encontrar julios para inicializar su computadora reversible. Wikipedia me dice que la masa de la Vía Láctea se estima en masas solares, o aproximadamente julios Si puede enfriar su computadora a la temperatura de la radiación de microondas de fondo cósmico, o , entonces el límite de Landauer implica que puede comprar la inicialización de pedacitos No puedes ejecutar tu computadora a continuación ya que entonces necesitaría energía para enfriamiento artificial por debajo de su entorno.
Entonces esa es tu respuesta aproximada: en teoría, podrías contar hasta el número:
con una implementación reversible de un contador dado el presupuesto energético indicado.
Otro límite que puede ser de interés desde el punto de vista criptográfico es el Límite de Bremmermann , que limita la rapidez con la que los cálculos pueden evolucionar en sus pasos sucesivos.
Cabe señalar lo difícil que es alcanzar el límite de Landauer. Si nuestro contador olvida aunque sea un bit por ciclo de conteo, el límite se reduce al todavía colosal . Yockey [véase la referencia 3] afirma en los primeros capítulos de su libro que el fenómeno de la replicación del ADN durante la división celular considerado como un algoritmo informático es el cálculo más eficiente conocido y consume aproximadamente un orden de magnitud más de energía que el límite de Landauer. es decir, aproximadamente por bit olvidado. A la luz del límite de Landauer, las computadoras modernas son asombrosamente ineficientes. 32 Gbytes de RAM se sobrescriben a 1 GByte por segundo y consumen 5 vatios a 300 K (estas son las cifras para la computadora en la que se escriben estas palabras) representa un olvido que es once órdenes de magnitud más derrochador ( ) que el límite de Landauer.
Referencias y notas al pie:
[1]: Para profundizar su comprensión de esta afirmación, trate de calcular y representar gráficamente la entropía de Shannon de especificación del estado de un conjunto de osciladores armónicos cuánticos en equilibrio termodinámico en función de la temperatura (respuesta: bits por oscilador, donde ). Inmediatamente puede ver lo que está pasando: la distribución de probabilidad de Boltzmann es aquí proporcional a y la cola se hace más larga, "accediendo a más estados" como sube).
[2] Un excelente artículo de revisión de estos conceptos es Charles Bennett, "The Thermodynamics of Computation: A Review", Int. J. Teo. Phys., 21 , No. 12, 1982 )
[3] "Teoría de la información, evolución y el origen de la vida", Hubert P. Yockey Como no biólogo, no me siento calificado para juzgar este texto. Sin embargo, sentí que entendía los primeros capítulos de donde extraje la afirmación sobre la eficiencia de la replicación del ADN lo suficientemente bien como para estar razonablemente seguro de la solidez de la afirmación, pero encontré la mayor parte del texto más allá del Capítulo 2 completamente incomprensible.
anon01
anon01
Cort Amón
Selene Routley
Selene Routley
Selene Routley