Nuestra capacidad para almacenar datos en medios físicos continúa creciendo, y la cantidad máxima de datos que puede almacenar en un volumen determinado aumenta exponencialmente año tras año. Los dispositivos de almacenamiento continúan reduciéndose y su capacidad aumenta.
Sin embargo, esto no puede continuar para siempre, me imagino. Las "cosas" solo pueden volverse tan pequeñas; pero ¿y la información? ¿Qué tan pequeño puede ser un solo bit de información?
Dicho de otra manera: dado un espacio físico limitado, digamos 1 centímetro cúbico, y sin asumir más dimensiones de las que actualmente tenemos acceso, ¿cuál es la cantidad máxima de información que se puede almacenar en ese espacio? ¿En qué punto el crecimiento exponencial de la densidad de almacenamiento llega a un punto final tan definitivo que no tenemos motivos para intentar aumentarlo aún más?
La respuesta la da el límite de entropía covariante (CEB), también conocido como límite de Bousso en honor a Raphael Bousso, quien lo sugirió por primera vez. El CEB suena muy similar al principio holográfico (HP) en que ambos relacionan la dinámica de un sistema con lo que sucede en su límite, pero la similitud termina ahí.
El HP sugiere que la física (específicamente Supergravedad o SUGRA) en un espacio-tiempo d-dimensional se puede mapear a la física de una teoría de campo conforme que vive en su límite d-1 dimensional.
El CEB está más en la línea del límite de Bekenstein que dice que la entropía de un agujero negro es proporcional al área de su horizonte:
Para acortar una larga historia, la máxima información que puede almacenar en del espacio es proporcional al área de su límite. Para un volumen esférico uniforme, esa área es:
Por lo tanto, la información máxima (número de bits) que puede almacenar viene dada aproximadamente por:
dónde es el area de planck . Para nuestro volumen esto da pedacitos
Por supuesto, esta es una estimación aproximada del orden de magnitud, pero se encuentra en el estadio general y le da una idea del límite del que está hablando. Como puede ver, ¡todavía tenemos décadas, si no siglos, antes de que nuestra tecnología pueda saturar este límite!
Editar : Gracias a @mark por señalar que y no . Cambia el resultado final en tres órdenes de magnitud.
Sobre la entropía y el área de Planck
En respuesta a las observaciones de @david en los comentarios, permítanme desarrollar dos cuestiones.
Área de Planck: de lqg (y también de la teoría de cuerdas) sabemos que los observables geométricos, como el área y el volumen, se cuantifican en cualquier teoría de la gravedad. Este resultado está en el nivel cinemático y es independiente de cuáles son las dinámicas reales. El cuanto de área, como cabría esperar, es del orden de dónde es la longitud de Planck. En la gravedad cuántica, las entidades dinámicas son precisamente estos elementos de área a los que se asocia una variable de espín. , donde generalmente (la repetición más baja de SU(2)). Cada giro puede transportar un solo qubit de información. Por lo tanto, es natural asociar las áreas de Planck con una sola unidad de información.
La entropía como medida de la información: existe un gran malentendido en la comunidad física con respecto a la relación entre la entropía – generalmente descrito como una medida de desorden – e información útil como la almacenada en un chip, un ábaco o cualquier otro dispositivo. Sin embargo, son uno y el mismo. Recuerdo que una vez se rieron de una sala de chat de física por decir esto, así que no espero que nadie lo tome al pie de la letra.
Pero piensa en esto por un segundo (o dos). ¿Qué es la entropía?
dónde es la constante de Boltzmann y el número de grados microscópicos de libertad de un sistema. Para un gas en una caja, por ejemplo, corresponde al número de formas diferentes de distribuir las moléculas en un volumen dado. Si pudiéramos realmente utilizar una cámara de gas como dispositivo de almacenamiento de información, entonces cada una de estas configuraciones correspondería a una unidad de memoria. O considere una cadena giratoria con giros. Cada giro puede tomar dos valores (clásicos) . Usando un espín para representar un bit, vemos que una cadena de espín de longitud puede codificar numeros diferentes ¿Cuál es la entropía correspondiente?
ya que hemos identificado cada espín con un bit (más precisamente qubit). Por tanto, podemos decir con seguridad que la entropía de un sistema es proporcional al número de bits necesarios para describir el sistema y, por tanto, a su capacidad de almacenamiento.
Ok, entonces, digamos que para un volumen dado, y tecnología de recuperación de datos nanomoleculares. Suponiendo que desea que los datos sean seguros, recuperables, hechos de un átomo estable a largo plazo, ¿cuál es el máximo de datos que se pueden almacenar de manera útil?
Primero, necesitamos que la mitad del volumen total se use para una sola capa molecular de la molécula elegida, esta será la "plataforma" para nuestro "disco duro".
En esto, coloca los átomos que representan bits para que tenga su volumen dividido por el volumen de su molécula/elemento elegido dividido por 2 como el número total de bits.
Pero con el almacenamiento molecular, podría usar diferentes moléculas y tener, por ejemplo,
Sin molécula = 0 Oro = 1 Platino = 2 Plata = 3
Luego, tiene almacenamiento de datos de 4 bits sin mucha pérdida de tamaño, agregue algo de carbono 12 y carbono 13 y hasta 6 bits, encuentre algunos elementos más estables y hasta 8 bits y así sucesivamente.
Por supuesto, la recuperación de datos sería terriblemente lenta, pero para el almacenamiento a largo plazo y de tamaño pequeño. Hablando de cuatrillones de bits por cm3
No soy físico, pero sé informática y me mantengo al día con los conceptos básicos de física, así que permítanme dar otra respuesta para esto:
Aún no lo sabemos. Siempre que haya cosas más pequeñas que se puedan encontrar, cambiar y observar, podemos usarlas para almacenar información.
Por ejemplo, si se encuentra una nueva propiedad cuántica que puede estar en el estado A o en el estado B, es un bit nuevo. Si eso está en cada mil millones de átomos de algo, son mil millones más de bits de datos. Si luego aprendemos a manipular esa propiedad en dos estados adicionales (digamos, de derecha a izquierda y de adentro hacia afuera), entonces acabamos de agregar un nuevo bit, elevando esa capacidad a la potencia de 2.
Entonces, el problema es que todavía estamos aprendiendo de qué están hechos la materia y el espacio-tiempo. Hasta que encontremos una teoría unificada demostrablemente correcta, no sabemos cuántas cosas diferentes hay dentro de cualquier material. Dado que cada estado adicional es al menos un cambio de ^2 en la densidad de la información, es bastante inútil dar cifras "aproximadas" hasta que sepamos más. Así que probablemente sea mejor dar algo como la Ley de Moore: una predicción de que duplicaremos el almacenamiento de vez en cuando, hasta que nos quedemos sin nuevos descubrimientos/tecnologías.
El factor de conversión de entropía física a entropía de información (en bits aleatorios) utiliza el límite de Landauer: (entropía física)=(bits de información)*kb*ln(2). El número de preguntas de sí/no que deben hacerse para determinar en qué estado se encuentra un sistema físico es igual a la entropía de Shannon en bits, pero no a la entropía H específica e intensiva de Shannon, sino a su entropía total y extensiva de una fuente generadora de datos. : S=N*H donde H=1 si los n bits son independientes entre sí.
El límite de Landauer establece que 1 bit de información que cambia de estado irreversiblemente libera entropía kb*ln(2), que es una liberación de energía térmica para un T: Q=T*kb dado, lo que implica que había una energía potencial almacenada que era el bit. Esto muestra que la entropía es entropía de información: el ln(2) se convierte de ln() a log2(). kb es un factor de conversión simple de energía cinética promedio por partícula (definición de temperatura) a julios de calor que tiene unidades de julios/julios, es decir, sin unidades. Si nuestra T se definiera en términos de julios de energía cinética (promedio 1/2 mv^2 de las partículas) en lugar de Kelvins, entonces kb=1. Entonces kb es julios/julios sin unidades. No es una constante fundamental como h. c tampoco tiene unidades fundamentales si se acepta tiempo=i*distancia como menciona Einstein en el apéndice 2 de su libro,
La "entropía" de Shannon (específica, intensiva) es H=sum(-p*log(p)) y afirmó 13 veces en su artículo que H tiene unidades de bits, entropía o información POR SÍMBOLO, no bits (entropía total) como supone la mayoría de la gente. Una fuente de información genera entropía S=N*H donde N es el número de símbolos emitidos. H es una "entropía específica" basada en la probabilidad de "n" símbolos únicos de N símbolos totales. H no es una "entropía total" como suele creerse, encontrando su paralelo físico con S o =entropía/mol. Físico S=N*S o e información S=N*H. Es raro encontrar textos que expliquen esto.
La entropía física parece ser siempre (?) S=kb*N*[ln(estados/partícula)+c] y la diferencia con la entropía de la información es la c. Pero en la materia a granel donde la energía se distribuye por igual entre los bultos, la entropía física es S = N * So . La entropía de la información es perfectamente así (S=N*H), pero no puedo derivar S o de H. De nuevo, S bits =S/(kb*ln(2)).
Entonces, la entropía de Shannon es mucho más simple y resulta en MENOS entropía si intentas hacer N partículas en un sistema físico equivalente a N símbolos únicos. La entropía física más simple es la de los osciladores armónicos independientes en 1D que comparten una energía total pero no necesariamente uniforme es S=kb*ln[(estados/oscilador)^N / N!] que es S=N*[log(estados/partícula) +1] para N grande. Entonces, incluso en el caso más simple, la c permanece. La entropía de Shannon tiene una forma fundamentalmente diferente: S~log((estados/símbolo)^N) = N*log(estados/símbolo) cuando cada símbolo es mutuamente independiente (no hay patrones en los datos y las mismas probabilidades de símbolo). Por ejemplo, para datos binarios aleatorios S=log2(2^N) = N bits. Entonces es difícil ver la conexión precisa en el caso más simple (el +1 no es una diferencia menor), incluso cuando las preguntas verdadero/falso muestran inmediatamente que son cantidades idénticas con un factor de conversión simple. La aproximación de Stirling es exacta en el límite de N y la H de Shannon depende en cierto modo de un N infinito para obtener p exactas, por lo que la aproximación no es un problema para mí.
No he contradicho nada de lo que ha dicho el usuario 346, pero quería mostrar por qué la conexión no es trivial, excepto en el caso de observar la entropía específica de la materia a granel. QM usa S=sum(-p*log(p)) pero la entropía de Shannon es S=N*sum(-p*log(p)). Salen iguales porque calcular las p es diferente. Física p = (cierto macroestado) / (microestados totales) pero el numerador y el denominador no se determinan simplemente contando. Información de p=(recuento de símbolos distintos)/(símbolos totales) para una fuente determinada. Y, sin embargo, ambos requieren la misma cantidad de bits (preguntas de sí/no) para identificar el microestado exacto (después de aplicar la conversión kb*ln(2)).
Pero hay un problema que se mencionó en los comentarios a su respuesta. En un sistema de información requerimos que los bits sean confiables. Nunca podemos obtener el 100% de confiabilidad debido a las fluctuaciones térmicas. En este límite de 1 bit = kb*ln(2) tenemos una probabilidad del 49,9999% de que cualquier bit en particular no esté en el estado que esperábamos. El límite de Landuaer es definitivamente un límite. La energía requerida para romper un enlace que retiene uno de estos bits en un sistema de memoria potencial está "justo por debajo" (realmente igual) a la energía cinética promedio de las agitaciones térmicas. El límite de Landauer asume que la energía requerida para romper nuestro enlace de memoria es E = T * kb * ln (2), que es ligeramente más débil que un enlace de van der waals, que es lo más débil que puede llamar un "enlace" en presencia de agitaciones térmicas.
Así que tenemos que decidir qué nivel de confiabilidad queremos para nuestros bits. Usar el límite del agujero negro también parece agregar un problema de "accesibilidad". Es el contenido de información del sistema, pero no es un sistema de almacenamiento de información.
usuario346
Marcos Eichenlaub
Selene Routley