¿Es necesario consumir energía para realizar el cálculo?

Hasta donde yo sé, hoy en día la mayoría de las computadoras están hechas de dispositivos semiconductores, por lo que la energía consumida se convierte en calor emitido al espacio.

Pero me pregunto, ¿es necesario consumir energía para realizar el cálculo?

  • Si es así, ¿hay un límite inferior numérico teórico del uso de energía? (Ni siquiera tengo idea de cómo medir la cantidad de "computación")

  • Si no es así, ¿existe un modelo completo de Turing físicamente práctico que no necesite energía?


editar: gracias a @Nathaniel por responder rápidamente a la pregunta y señalar que en realidad es el principio de Landauer . También agradezca a @horchler por referirse a Nature News y el artículo relacionado . Hay mucha información útil en los comentarios; ¡gracias a todos! ¡Todo este asunto es muy interesante!

Cambio de título sugerido: "¿Es necesario consumir energía para realizar cálculos?" Por el momento, el título parece querer saber cómo funcionan los ventiladores de enfriamiento, pero el cuerpo del texto plantea una pregunta física mucho más profunda.
@ChrisWhite De acuerdo, eso sería un título increíble.
Es posible que le interese el fragmento de criptografía aplicada aproximadamente a la mitad de la publicación en schneier.com/blog/archives/2009/09/the_doghouse_cr.html
Tu pregunta me hizo pensar en el demonio de Maxwell . Consulte este artículo de Nature News y el artículo relacionado de Nature de Bérut, et al. sobre la verificación experimental del principio de Landauer .
Consulte también el enlace "La termodinámica de la computación: una revisión" por Charles Bennet, Int J. Theor. física Vol 21, No 12 1982 para una excelente revisión del principio de Landauer discutido en la respuesta de Nathaniel a continuación.
También puede interesarle hacer un cálculo aproximado de cuán lejos estamos de estos límites teóricos con la tecnología contemporánea. Un chip actual, dependiendo del algoritmo, se olvida (aumenta la complejidad de Kolmogorov del universo circundante) del orden de 10 10 bits por segundo para un consumo de energía de 10W. A 300K, hago que esto sea al menos diez órdenes de magnitud más que el límite teórico. Eso es incluso antes de que se busque la computación reversible.
Por el contrario, la construcción de una proteína por parte de una célula olvida alrededor de 1,6 bits por aminoácido (64 codones de ADN codifican 20 aminoácidos) y lo hace con un gasto de aproximadamente entre 10 k T y 40 k T , por lo tanto, solo un orden de magnitud peor que el límite de Landauer. Ver enlace J Avery "Teoría de la información y evolución" 2003. Supongo que esta es una de las razones por las que la computación de ADN podría ser prometedora.

Respuestas (2)

Lo que estás buscando es el principio de Landauer . Debería poder encontrar mucha información al respecto ahora que sabe su nombre, pero brevemente, hay un límite termodinámico que dice que debe usar k B T en 2 julios de energía (donde k B es la constante de Boltzmann y T es la temperatura ambiente) cada vez que borra un bit de la memoria de la computadora. Con un poco de truco, todas las demás operaciones que realiza una computadora se pueden realizar sin utilizar energía alguna.

Este conjunto de trucos se llama computación reversible . Resulta que puede hacer que cualquier cálculo sea reversible, evitando así la necesidad de borrar bits y, por lo tanto, usar energía, pero termina teniendo que almacenar todo tipo de datos basura en la memoria porque no puede borrarlos. Sin embargo, también hay trucos para lidiar con eso. Es un área bastante bien desarrollada de la teoría matemática, en parte porque la teoría de la computación cuántica se basa en ella.

La energía consumida al borrar un bit se desprende en forma de calor. Cuando borras un poco de memoria, reduces la entropía de información de tu computadora en un bit, y para hacer esto tienes que aumentar la entropía termodinámica de su entorno en un bit, lo que es igual a k B en 2 julios por kelvin. La forma más fácil de hacer esto es agregar calor al ambiente, lo que le da al k B T en 2 figura arriba. (En principio, el calor no tiene nada de especial, y la entropía del medio ambiente también podría aumentar cambiando su volumen o provocando una reacción química, pero la gente piensa universalmente en el límite de Landauer en términos de calor y energía en lugar de esas otras cosas. )

Por supuesto, todo esto es sólo en teoría. Cualquier computadora práctica que hayamos construido hasta ahora usa muchos órdenes de magnitud más de energía que el límite de Landauer.

@Nathaniel: ¿Cuál es el aumento de la energía para el medio ambiente? Por ejemplo, ¿es correcto afirmar que el medio ambiente gana energía k T 2 , por lo que la energía libre de Gibbs del entorno disminuye: Δ F = Δ tu T Δ S = k T ( 1 2 yo norte 2 ) < 0
The Feynman Lectures on Computation es un volumen pequeño y delgado que incluye una presentación del estado de este arte hace algunas décadas. Muy accesible para la mayoría de los físicos.
Consulte el artículo "Termodinámica de la predicción" de Still et al., disponible en [ threeplusone.com] ( sitio web de Gavin Crooks) (lo siento, me siento mal por los enlaces profundos) para obtener un refinamiento del principio de Landauer para dispositivos informáticos generales. retener la memoria y responder a algunas señales de entrada correlacionadas temporalmente. Tal sistema se acerca al límite de Landauer cuando es máximamente predictivo, es decir, la información en la memoria del sistema contiene una cantidad máxima de información sobre futuras señales de entrada.
@Trimok es más simple que eso. Añades q = k B T en 2 julios de calor, por lo que la entropía del entorno cambia en q / T = k B en 2 = 1 un poco . Por lo general, se supone que el entorno es un baño de calor, por lo que no nos preocupamos por su energía libre, solo por su entropía. El cambio de entropía total es 1 un poco + 1 un poco = 0 , satisfaciendo la segunda ley.
Se ha hecho referencia a esta publicación desde una posible publicación duplicada, pero no estoy seguro. En definitiva, se trata de computar el aprendizaje y computar aplicando lo aprendido, si existe una correlación termodinámica. física.stackexchange.com/questions/369112/…

¿Es necesario consumir energía para realizar el cálculo?

Estrictamente "actuar", tal vez no, pero escenificar la actuación y medirla requiere energía. Si dejar caer un objeto pudiera equipararse con el cálculo de la gravedad, considere la energía para levantar el objeto y mantenerlo alejado de la superficie a la que cae.

De manera similar, un electrón que orbita alrededor de un neutrón realiza sus propios cálculos (si lo desea) para existir, pero se necesitó energía para crearlo y requeriría esfuerzo, energía, para que lo observe.

Una computadora cuántica puede ser en el futuro energéticamente eficiente, ya que con un número suficiente de bits (de buena fidelidad) su capacidad de cálculo superará con creces a todo lo que la precedió; pero energéticamente eficiente no implica libre de energía.

La energía solar no es "gratis", el "almuerzo gratis" no es gratis, la computación no puede ser "gratis" (sin energía), pero en el futuro se realizará de manera más eficiente.

Espero que en este sitio podamos usar frases más significativas que "calcular la gravedad". Entiendo que en este contexto no importa si te refieres a la fuerza de la gravedad oa la aceleración de la gravedad, pero muchos jóvenes estudiantes de física usan frases ambiguas como esta y pueden dificultar el aprendizaje; Creo que no debemos contribuir a ello.
También estoy confundido en qué situación encontrarías un electrón "orbitando" un neutrón.