Si tuviéramos una computadora "perfectamente eficiente" y toda la energía disponible en la Vía Láctea, ¿hasta qué número podría contar?

La idea de esta pregunta proviene de un ejemplo en criptografía, donde supuestamente las claves simétricas de 256 bits serán suficientes para siempre (la fuerza bruta de una clave de 256 bits es equivalente a contar hasta 2 255 , con alguna constante delante). Aunque realmente no lo dudo, creo que es un experimento mental interesante hasta qué número (aproximadamente, por supuesto) una computadora teórica "perfectamente eficiente" (defínalo como quiera), con tiempo infinito y toda la energía (incluida la materia). pero no materia oscura) en nuestra galaxia disponible podría contar. contando hasta X se define como el hecho de que algún objeto físico atraviese X estados diferentes, predefinidos y medibles. Lamentablemente, me faltan los antecedentes teóricos para hacer este cálculo correctamente, podría intentarlo, pero no tendría idea si me perdí algo esencial. Espero que una pregunta "divertida" como esta no esté fuera del alcance de este sitio (siéntete libre de dirigirme a un mejor lugar para preguntar esto).

Alternativamente: ¿Qué pasa con toda la energía en el Universo conocido?

Dado que la idea de esta pregunta era la longitud de la clave en criptografía, siéntase libre de considerar (o no considerar) el algoritmo de Grover.

Editar: como sugiere un comentario, si no hay una buena respuesta sobre qué considerar una "computadora perfectamente eficiente", tal vez solo tome los valores para un procesador conocido.

hola cocinera: tengo la sensación de que tu pregunta se tambalea sobre ser amado/odiado en física SE. Por un lado, no sé cómo se mide el trabajo de "conteo de computadora", o si hay una computadora idealmente eficiente.
Tal vez podría enmarcarlo así: ¿cuánta energía necesitarían las computadoras más eficientes para... (inserte su tarea)
Usando enfoques clásicos, uno puede contar hasta 2^256 usando 3/4 de la masa/energía de la galaxia. Volvería a ejecutar los cálculos por ti, pero parece que ya aceptaste una respuesta cuántica.
@CortAmmon Esa también parece una respuesta interesante, por favor elabore, por mi parte, no tengo idea de a qué se refiere. Además, dadas las necesidades del OP (estimaciones para juzgar la solidez de los esquemas criptográficos), sería útil una variedad de enfoques diferentes para el problema.
Dado el contexto de su pregunta, también debe consultar el límite de Bremmermann, que aparentemente tiene un historial de uso para evaluar la seguridad de los algoritmos criptográficos.
@CortAmmon BTW Mine no es una respuesta "cuántica", es una respuesta de "computadora reversible". Solo menciono la computación cuántica porque hoy en día se ve como un candidato prometedor para realizar una computadora reversible. Bennett, Feynman y otros que pensaron en estas cosas en realidad hicieron sus experimentos mentales con computadoras de bolas de billar, en las que las pequeñas bolas rebotan entre sí de manera elástica para influir en las trayectorias de las demás y, por lo tanto, hacer cálculos sin pérdida de energía. Mire el artículo de Bennett que cito para una descripción.

Respuestas (1)

Una computadora "perfectamente eficiente" puede significar muchas cosas, pero, a los efectos de esta respuesta, consideremos que significa una computadora reversible (explicada más adelante).

El límite inferior teórico de las necesidades de energía en computación es el límite de Landauer , que establece que el olvido de un bit de información requiere la entrada de trabajo por valor de k T Iniciar sesión 2 para cumplir con la segunda ley de la termodinámica. Si la computadora es reversible, es decir , su estado en todo momento puede inferirse de su estado en cualquier otro momento, entonces no hay límite inferior teórico para sus necesidades de energía. Por estado aquí nos referimos al estado teórico de la computadora de la CPU, no al estado cuántico físico (el primero es una parte muy pequeña del segundo; las leyes microscópicas son reversibles, por lo que el estado cuántico completo en cualquier momento siempre se puede inferir en teoría a partir de el estado cuántico completo en cualquier momento). Un ejemplo de cálculo no reversible es uno en el que sumas dos números y escribes el resultado sobre la memoria que antes ocupaban los sumandos. Los dos sumandos no se pueden deducir del estado de la computadora ( es decir ,la suma) después de que se haya realizado la adición. Brevemente, la razón de esta situación es que si su cálculo se olvida, la naturaleza no lo hace, por lo que si borra la memoria, entonces esa información "borrada" de alguna manera debe terminar codificada en el estado cuántico completo de la computadora, ya que las leyes microscópicas son de hecho reversibles. La única forma en que un sistema puede "absorber más información", es decir, codificar completamente su pasado en su estado cuántico, es accediendo a más y más estados cuánticos, y eso casi siempre significa calentarse [ver 1]. Por lo tanto, en algún momento debe agregar energía para que esto suceda y, eventualmente, deberá enfriar la computadora para que siga funcionando. La segunda ley de la termodinámica muestra que si queremos mantener la computadora en un macroestado constante, necesitamos ingresar la cantidad de trabajo prescrita por Landauer. s principio para hacerlo [ver ref. 2].

Ahora veamos tu problema. El conteo se puede convertir claramente en un cómputo reversible: cada paso es invertible y puede imaginarse simplemente cronometrando un simple contador digital hacia atrás para lograrlo. Entonces, en teoría, podríamos construir una computadora cuántica (u otra reversible) para contar sin entrada de energía mientras cuenta . Sin embargo, al contar el olvido de información, se debe tener en cuenta la inicialización. Es decir, debe comenzar con registros inicializados para contar. Pones en marcha tu máquina inicializándolos todos a cero... pero eso significa que hay un estado cuántico de cada registro que se "olvida" a medida que se inicializa la máquina. Entonces, si necesita memoria de norte bits para su conteo, necesita encontrar norte k T Iniciar sesión 2 julios para inicializar su computadora reversible. Wikipedia me dice que la masa de la Vía Láctea se estima en 10 12 masas solares, o aproximadamente 2 × 10 30 × 10 12 × 10 17 = 2 × 10 59 julios Si puede enfriar su computadora a la temperatura de la radiación de microondas de fondo cósmico, o 2.7 k , entonces el límite de Landauer implica que puede comprar la inicialización de 2 × 10 59 / ( 2.7 × 1.38 × 10 23 × Iniciar sesión 2 ) 8 × 10 81 pedacitos No puedes ejecutar tu computadora a continuación 2.7 k ya que entonces necesitaría energía para enfriamiento artificial por debajo de su entorno.

Entonces esa es tu respuesta aproximada: en teoría, podrías contar hasta el número:

2 8 × 10 81

con una implementación reversible de un contador dado el presupuesto energético indicado.

Otro límite que puede ser de interés desde el punto de vista criptográfico es el Límite de Bremmermann , que limita la rapidez con la que los cálculos pueden evolucionar en sus pasos sucesivos.

Cabe señalar lo difícil que es alcanzar el límite de Landauer. Si nuestro contador olvida aunque sea un bit por ciclo de conteo, el límite se reduce al todavía colosal 2 × 10 ˆ 81 . Yockey [véase la referencia 3] afirma en los primeros capítulos de su libro que el fenómeno de la replicación del ADN durante la división celular considerado como un algoritmo informático es el cálculo más eficiente conocido y consume aproximadamente un orden de magnitud más de energía que el límite de Landauer. es decir, aproximadamente 10 k T por bit olvidado. A la luz del límite de Landauer, las computadoras modernas son asombrosamente ineficientes. 32 Gbytes de RAM se sobrescriben a 1 GByte por segundo y consumen 5 vatios a 300 K (estas son las cifras para la computadora en la que se escriben estas palabras) representa un olvido que es once órdenes de magnitud más derrochador ( 5 / ( 8 × 10 9 × k × 300 Iniciar sesión 2 ) 2 × 10 11 ) que el límite de Landauer.


Referencias y notas al pie:

[1]: Para profundizar su comprensión de esta afirmación, trate de calcular y representar gráficamente la entropía de Shannon de especificación del estado de un conjunto de norte osciladores armónicos cuánticos en equilibrio termodinámico en función de la temperatura (respuesta: ( mi β ω β ω 1 mi β ω + Iniciar sesión ( mi β ω 1 ) ) / Iniciar sesión ( 2 ) bits por oscilador, donde β ω = ω / ( k T ) ). Inmediatamente puede ver lo que está pasando: la distribución de probabilidad de Boltzmann es aquí proporcional a pags ( norte ) Exp ( ( norte + 1 2 ) ω k T ) y la cola se hace más larga, "accediendo a más estados" como T sube).

[2] Un excelente artículo de revisión de estos conceptos es Charles Bennett, "The Thermodynamics of Computation: A Review", Int. J. Teo. Phys., 21 , No. 12, 1982 )

[3] "Teoría de la información, evolución y el origen de la vida", Hubert P. Yockey Como no biólogo, no me siento calificado para juzgar este texto. Sin embargo, sentí que entendía los primeros capítulos de donde extraje la afirmación sobre la eficiencia de la replicación del ADN lo suficientemente bien como para estar razonablemente seguro de la solidez de la afirmación, pero encontré la mayor parte del texto más allá del Capítulo 2 completamente incomprensible.

Esa explicación cualitativa de por qué la computación irreversible consume energía fue excelente. Me había encontrado con ese hecho, pero no había visto una explicación antes.
Para completar, vale la pena señalar que si necesita realizar algún tipo de cálculo no reversible en cada paso, entonces el límite se vuelve mucho más bajo. De hecho, usando sus cifras y asumiendo el borrado de (al menos) un bit por paso, el límite se vuelve aproximadamente 8 × 10 81 2 272 pasos.
@IlmariKaronen De hecho. El límite de Landauer está muy por debajo de todo lo que buscamos lograr. He añadido un poco siguiendo tu sugerencia.
@PeterCordes Gracias; la explicación, por supuesto, no es del todo mía, pero la obtuve directamente al leer la revisión de Bennett que ahora he citado en la respuesta actualizada. Si estás interesado en estas cosas, vale la pena leer ese artículo.
@Bosoneando Muchas gracias. Como le dije a Peter Cordes, si está interesado en estas cosas, vale la pena leer la referencia de Bennett que acabo de agregar a la respuesta.
Rod, basado en un libro o no, ¡tu respuesta es absolutamente impresionante!
Además, como firme defensor de la notable eficiencia de los sistemas biológicos en los cálculos inteligentes, sus comentarios sobre la eficiencia de la replicación del ADN como forma de computación me intrigaron mucho.
@TerryBollinger Gracias Terry. De hecho, es intrigante. Es una pena que no pude entender la mayor parte del libro que estoy citando. Por supuesto, hay referencias en ese libro, pero no me he puesto a buscarlas.
Dado que hay ~ 10 80 átomos en el universo, resulta que el factor limitante en una computadora binaria sería el número de átomos (asumiendo que puede obtener un bit por átomo). Es posible que algún día descubramos cómo codificar más densamente que eso, pero todavía estamos en el régimen de muchos átomos por bit. Sin embargo, es algo interesante que estos dos números estén dentro de 2 órdenes de magnitud uno del otro.
@ user121330 Creo que el hecho de que los dos números sean aproximadamente iguales es una coincidencia, ya que he tomado la energía total de la Vía Láctea, no el universo observable. Como señala la respuesta de Jerry Schirmer aquí , no existe un límite teórico de información para la cantidad de bits que se pueden codificar en un átomo de hidrógeno. Pero eventualmente llegarás al límite de Bekenstein.
Correcto, la Vía Láctea. Entonces solo hay ~ 10 68 átomos con los que trabajar, y necesitaríamos codificar ~ 10 13 bits por átomo. d mi norte >> Δ mi norte como regla, mientras que uno podría codificar la información con una precisión infinita, nunca podría medirla, y los estados excitados del hidrógeno son notoriamente inestables. Ha escrito una hermosa respuesta aquí, pero como con cualquier discusión sobre computación, uno debe considerar los cuellos de botella. Supongo que hay 4 preguntas realmente geniales aquí: CPU, memoria, ancho de banda y pantalla.
Hay un artículo de Nature que valida experimentalmente el Principio de Landauer.
@WYSIWYG Gracias por la referencia. Ahora hay bastante trabajo experimental que busca validar directamente el LP. Ver por ejemplo aquí
@WetSavannaAnimalakaRodVance Sí, encontré otro artículo mientras buscaba el de arriba. En general, parece muy interesante.
Tengo curiosidad: ¿cuál es exactamente la diferencia entre un contador reversible e irreversible? Usted dice que el irreversible es el que se olvida, pero ¿no es que cada vez que hacemos clic en el contador hacia arriba en uno nos olvidamos de su estado anterior? ¿O es que el hecho de que también podamos hacer clic con la misma facilidad en uno suficiente para hacerlo reversible, porque esto nos permite inferir cuál era su estado en el pasado (es decir, el mapa de estados pasados ​​a futuros es biyectivo en el espacio de estado)? Usted menciona "puede imaginarse simplemente cronometrando un contador digital simple hacia atrás para lograr esto", pero esta afirmación no está clara.
Sugiere que de alguna manera tiene que usar un contador hacia atrás para implementarlo, no simplemente que el hecho de que pueda hacer clic hacia atrás lo hace reversible. Más bien sugiere que debe incluir un contador hacia atrás, en cuyo caso no veo cómo eso ayuda, o debe marcar el contador hacia atrás en lugar de hacia adelante, lo que tampoco parece que deba hacer ninguna diferencia. ¿A qué te refieres exactamente aquí?
@The_Sympathizer Esencialmente, es el mapeo biyectivo lo que es importante aquí. Con un contador, si conoce las entradas (bit de dirección) y el estado, puede inferir cuál era el estado en el ciclo del reloj de antemano. Con el sumador, hay muchos estados anteriores que pueden producir el sumando actual. Ciertamente, los contadores cuánticos existen: uno puede configurar un sistema cuántico que visita un conjunto de estados predefinidos en un orden dado a través de una evolución unitaria y reversible.