Densidad de datos teórica máxima

Nuestra capacidad para almacenar datos en medios físicos continúa creciendo, y la cantidad máxima de datos que puede almacenar en un volumen determinado aumenta exponencialmente año tras año. Los dispositivos de almacenamiento continúan reduciéndose y su capacidad aumenta.

Sin embargo, esto no puede continuar para siempre, me imagino. Las "cosas" solo pueden volverse tan pequeñas; pero ¿y la información? ¿Qué tan pequeño puede ser un solo bit de información?

Dicho de otra manera: dado un espacio físico limitado, digamos 1 centímetro cúbico, y sin asumir más dimensiones de las que actualmente tenemos acceso, ¿cuál es la cantidad máxima de información que se puede almacenar en ese espacio? ¿En qué punto el crecimiento exponencial de la densidad de almacenamiento llega a un punto final tan definitivo que no tenemos motivos para intentar aumentarlo aún más?

esta es una gran pregunta que tiene que ver con el límite de entropía covariante de Bousso: vea mi respuesta
un átomo de hidrógeno tiene infinitos estados propios de energía...
@MarkEichenlaub Pero seguramente los estados propios de energía cada vez más altos llenan cada vez más espacio: IIRC no hay límite en el "tamaño" del estado propio a medida que aumenta la energía.

Respuestas (4)

La respuesta la da el límite de entropía covariante (CEB), también conocido como límite de Bousso en honor a Raphael Bousso, quien lo sugirió por primera vez. El CEB suena muy similar al principio holográfico (HP) en que ambos relacionan la dinámica de un sistema con lo que sucede en su límite, pero la similitud termina ahí.

El HP sugiere que la física (específicamente Supergravedad o SUGRA) en un espacio-tiempo d-dimensional se puede mapear a la física de una teoría de campo conforme que vive en su límite d-1 dimensional.

El CEB está más en la línea del límite de Bekenstein que dice que la entropía de un agujero negro es proporcional al área de su horizonte:

S = k A 4

Para acortar una larga historia, la máxima información que puede almacenar en 1   C metro 3 = 10 6   metro 3 del espacio es proporcional al área de su límite. Para un volumen esférico uniforme, esa área es:

A = V 2 / 3 = 10 4   metro 2

Por lo tanto, la información máxima (número de bits) que puede almacenar viene dada aproximadamente por:

S A A pags yo

dónde A pags yo es el area de planck 10 70   metro 2 . Para nuestro 1   C metro 3 volumen esto da S metro a X 10 66 pedacitos

Por supuesto, esta es una estimación aproximada del orden de magnitud, pero se encuentra en el estadio general y le da una idea del límite del que está hablando. Como puede ver, ¡todavía tenemos décadas, si no siglos, antes de que nuestra tecnología pueda saturar este límite!


Editar : Gracias a @mark por señalar que 1   C metro 3 = 10 6   metro 3 y no 10 9   metro 3 . Cambia el resultado final en tres órdenes de magnitud.

Sobre la entropía y el área de Planck

En respuesta a las observaciones de @david en los comentarios, permítanme desarrollar dos cuestiones.

  1. Área de Planck: de lqg (y también de la teoría de cuerdas) sabemos que los observables geométricos, como el área y el volumen, se cuantifican en cualquier teoría de la gravedad. Este resultado está en el nivel cinemático y es independiente de cuáles son las dinámicas reales. El cuanto de área, como cabría esperar, es del orden de yo pags yo 2 dónde yo pags yo es la longitud de Planck. En la gravedad cuántica, las entidades dinámicas son precisamente estos elementos de área a los que se asocia una variable de espín. j , donde generalmente j = ± 1 / 2 (la repetición más baja de SU(2)). Cada giro puede transportar un solo qubit de información. Por lo tanto, es natural asociar las áreas de Planck con una sola unidad de información.

  2. La entropía como medida de la información: existe un gran malentendido en la comunidad física con respecto a la relación entre la entropía S – generalmente descrito como una medida de desorden – e información útil yo como la almacenada en un chip, un ábaco o cualquier otro dispositivo. Sin embargo, son uno y el mismo. Recuerdo que una vez se rieron de una sala de chat de física por decir esto, así que no espero que nadie lo tome al pie de la letra.

Pero piensa en esto por un segundo (o dos). ¿Qué es la entropía?

S = k B en ( norte )

dónde k B es la constante de Boltzmann y norte el número de grados microscópicos de libertad de un sistema. Para un gas en una caja, por ejemplo, norte corresponde al número de formas diferentes de distribuir las moléculas en un volumen dado. Si pudiéramos realmente utilizar una cámara de gas como dispositivo de almacenamiento de información, entonces cada una de estas configuraciones correspondería a una unidad de memoria. O considere una cadena giratoria con metro giros. Cada giro puede tomar dos valores (clásicos) ± 1 / 2 . Usando un espín para representar un bit, vemos que una cadena de espín de longitud metro puede codificar 2 metro numeros diferentes ¿Cuál es la entropía correspondiente?

S en ( 2 metro ) = metro en ( 2 ) número de bits

ya que hemos identificado cada espín con un bit (más precisamente qubit). Por tanto, podemos decir con seguridad que la entropía de un sistema es proporcional al número de bits necesarios para describir el sistema y, por tanto, a su capacidad de almacenamiento.

He escuchado esto un par de veces, también podría preguntar ahora. ¿Qué pasa si tomas un volumen? V 2 que yace dentro de tu volumen V 1 tal que A 2 > A 1 . ¿Cuál sería capaz de contener más información?
@space_cadet: Esto tiene las características de una gran respuesta; mi única crítica (con suerte constructiva) es que realmente no explicas por qué la constante de proporcionalidad S / A está relacionado con A pags yo . Por supuesto, una prueba completa sería exagerada, pero creo que ayudaría incluir algunas palabras sobre la importancia del área de Planck en este argumento, para las personas que no están familiarizadas con ella. También prefiero ver un símbolo diferente utilizado en lugar de S en su última ecuación, ya que la entropía no mide exactamente la cantidad de bits de información. (Sé que es solo una diferencia de factor constante, solo se ve raro)
Gracias @mark y @david por sus comentarios. Espero que la edición resuelva las dudas que tenías. En cuanto a lo que señaló @bruce (agradable por cierto) todavía estoy procesando y volveré si tengo una respuesta.
@Bruce: V 2 obviamente; el objetivo de la holografía es que el volumen no importa en absoluto, solo el área sí :-) Por supuesto, no estoy seguro de hasta qué punto se ha demostrado esto (como en el cálculo microscópico) para superficies genéricas (¿ni siquiera lisas?) en lugar de para horizontes de BH bastante genéricos.
Esta es una buena respuesta, pero tengo que preguntarme, ¿cuánta de esta información se puede explotar realmente? Está claro que ha dado un límite inferior absoluto en esa información. Pero en realidad, no seríamos capaces de modificar y leer bits del horizonte de BH. Así que supongo que debería existir un límite inferior más grande. ¿O está sugiriendo que toda esa información holográfica se puede manejar de alguna manera, incluso en principio?
@marek: buen punto (dos comentarios arriba). Estaba pensando en líneas similares. Curiosamente, esta línea de razonamiento arroja luz sobre la naturaleza geométrica del límite de entropía, por lo que vale la pena seguirla con mayor detalle.
@marek: este no es un límite inferior . Es un límite superior . Determina la cantidad máxima de información que puede almacenar en una región determinada. ¿O te estoy malinterpretando? En segundo lugar, no estoy sugiriendo nada sobre cómo se puede gestionar dicha información. Esa es una pregunta aparte que nos llevará a considerar los límites en el procesamiento y la transferencia de información en lugar del almacenamiento . Hay un artículo interesante sobre esto de JB Pendry disponible aquí
@space_cadet: lo siento, invertí el orden, quise escribir superior . Y por cierto, no, no es una pregunta aparte. Si desea almacenar su información, es porque la quiere segura y recuperarla más tarde. Lanzar cosas a BH no cuenta como almacenar información en mi opinión (al menos, esa información volará tarde o temprano como radiación de Hawking) :-) Pero gracias por el enlace.
@space_cadet: la respuesta está incompleta. Todo lo que dice es que solo puede almacenar información en el área de superficie. Tiene sentido (necesita tener una superficie para poder recuperar la información). Por otro lado, la pregunta se refiere al volumen. Entonces, la pregunta ahora es: ¿cuánta área de superficie puede caber en un volumen dado? en.wikipedia.org/wiki/Menger_sponge
En El placer de descubrir cosas , Richard Feynman también especula sobre los límites de la densidad de la información. No va tan lejos como la longitud de Planck, por lo que puedo recordar, presumiblemente porque eso está muy lejos tecnológicamente, incluso hoy en día. Conferencia interesante.
@raskolnikov: Feynman fue uno de los defensores originales de la computación cuántica. Hay un artículo suyo de alrededor de ~ 1982 sobre este tema. @Sklivvz: la información que se puede almacenar en el horizonte de un agujero negro u otra superficie es la información máxima que se puede almacenar dentro de cualquier región (es decir, volumen) limitada por esa superficie. A energías lo suficientemente altas, el espacio-tiempo se vuelve dimensional 2+1 y la noción de volumen desaparece.
Hay problemas con la definición de información de área de superficie: 1) hace que la capacidad de información sea dependiente del observador (para un observador bajo la superficie nombrada, la capacidad de información será muy diferente) 2) no es aditivo y depende de la división que elijamos para el espacio: la suma de muchos volúmenes de 1 cm^3 evidentemente puede almacenar más información que un área del mismo volumen y los dos más pequeños que un volumen que los abarque a ambos. 3) No tiene en cuenta diferencias entre información cuántica y clásica 4) No es reversible: para un observador la entropía del universo se vuelve limitada
hace que la capacidad de información dependa del observador ... No estoy seguro de lo que quieres decir con eso. para un observador debajo de la superficie nombrada, la capacidad de información será muy diferente . Lo siento, no entiendo esto. ¿Quiere decir que un observador dentro de la región delimitada verá algo diferente de un observador en el exterior ? no es aditivo y depende de la división que elijamos para el espacio ... hay una restricción sobre los tipos de superficies que saturan el límite de entropía. Estas son generalmente superficies mínimas o "extremas" que son únicas para un espacio-tiempo dado.
No tiene en cuenta las diferencias entre la información cuántica y la clásica ... nuevamente, no entiendo el punto que estás tratando de hacer. Explique cuáles son estas diferencias y cómo la holografía no las tiene en cuenta. 4) No es reversible: para un observador la entropía del universo se vuelve limitada ... ¿Es una crítica o dos? La holografía en realidad asegura la unitaridad y, por lo tanto, la reversibilidad (microscópica) de una teoría de la gravedad cuántica. Vea la respuesta de Lubos a la pregunta 5407. Además, no veo cómo la entropía del universo siendo una cantidad finita es indeseable.
En la disciplina matemática de la teoría de la información, la entropía de un mensaje es el valor esperado de la información contenida en ese mensaje. Las fórmulas son las mismas, por lo que no debería sorprender que la entropía también sea una medida del contenido de información en los sistemas físicos.
¿La respuesta también es cierta poco después del Big Bang?

Ok, entonces, digamos que para un volumen dado, y tecnología de recuperación de datos nanomoleculares. Suponiendo que desea que los datos sean seguros, recuperables, hechos de un átomo estable a largo plazo, ¿cuál es el máximo de datos que se pueden almacenar de manera útil?

Primero, necesitamos que la mitad del volumen total se use para una sola capa molecular de la molécula elegida, esta será la "plataforma" para nuestro "disco duro".

En esto, coloca los átomos que representan bits para que tenga su volumen dividido por el volumen de su molécula/elemento elegido dividido por 2 como el número total de bits.

Pero con el almacenamiento molecular, podría usar diferentes moléculas y tener, por ejemplo,

Sin molécula = 0 Oro = 1 Platino = 2 Plata = 3

Luego, tiene almacenamiento de datos de 4 bits sin mucha pérdida de tamaño, agregue algo de carbono 12 y carbono 13 y hasta 6 bits, encuentre algunos elementos más estables y hasta 8 bits y así sucesivamente.

Por supuesto, la recuperación de datos sería terriblemente lenta, pero para el almacenamiento a largo plazo y de tamaño pequeño. Hablando de cuatrillones de bits por cm3

No soy físico, pero sé informática y me mantengo al día con los conceptos básicos de física, así que permítanme dar otra respuesta para esto:

Aún no lo sabemos. Siempre que haya cosas más pequeñas que se puedan encontrar, cambiar y observar, podemos usarlas para almacenar información.

Por ejemplo, si se encuentra una nueva propiedad cuántica que puede estar en el estado A o en el estado B, es un bit nuevo. Si eso está en cada mil millones de átomos de algo, son mil millones más de bits de datos. Si luego aprendemos a manipular esa propiedad en dos estados adicionales (digamos, de derecha a izquierda y de adentro hacia afuera), entonces acabamos de agregar un nuevo bit, elevando esa capacidad a la potencia de 2.

Entonces, el problema es que todavía estamos aprendiendo de qué están hechos la materia y el espacio-tiempo. Hasta que encontremos una teoría unificada demostrablemente correcta, no sabemos cuántas cosas diferentes hay dentro de cualquier material. Dado que cada estado adicional es al menos un cambio de ^2 en la densidad de la información, es bastante inútil dar cifras "aproximadas" hasta que sepamos más. Así que probablemente sea mejor dar algo como la Ley de Moore: una predicción de que duplicaremos el almacenamiento de vez en cuando, hasta que nos quedemos sin nuevos descubrimientos/tecnologías.

El factor de conversión de entropía física a entropía de información (en bits aleatorios) utiliza el límite de Landauer: (entropía física)=(bits de información)*kb*ln(2). El número de preguntas de sí/no que deben hacerse para determinar en qué estado se encuentra un sistema físico es igual a la entropía de Shannon en bits, pero no a la entropía H específica e intensiva de Shannon, sino a su entropía total y extensiva de una fuente generadora de datos. : S=N*H donde H=1 si los n bits son independientes entre sí.

El límite de Landauer establece que 1 bit de información que cambia de estado irreversiblemente libera entropía kb*ln(2), que es una liberación de energía térmica para un T: Q=T*kb dado, lo que implica que había una energía potencial almacenada que era el bit. Esto muestra que la entropía es entropía de información: el ln(2) se convierte de ln() a log2(). kb es un factor de conversión simple de energía cinética promedio por partícula (definición de temperatura) a julios de calor que tiene unidades de julios/julios, es decir, sin unidades. Si nuestra T se definiera en términos de julios de energía cinética (promedio 1/2 mv^2 de las partículas) en lugar de Kelvins, entonces kb=1. Entonces kb es julios/julios sin unidades. No es una constante fundamental como h. c tampoco tiene unidades fundamentales si se acepta tiempo=i*distancia como menciona Einstein en el apéndice 2 de su libro,

La "entropía" de Shannon (específica, intensiva) es H=sum(-p*log(p)) y afirmó 13 veces en su artículo que H tiene unidades de bits, entropía o información POR SÍMBOLO, no bits (entropía total) como supone la mayoría de la gente. Una fuente de información genera entropía S=N*H donde N es el número de símbolos emitidos. H es una "entropía específica" basada en la probabilidad de "n" símbolos únicos de N símbolos totales. H no es una "entropía total" como suele creerse, encontrando su paralelo físico con S o =entropía/mol. Físico S=N*S o e información S=N*H. Es raro encontrar textos que expliquen esto.

La entropía física parece ser siempre (?) S=kb*N*[ln(estados/partícula)+c] y la diferencia con la entropía de la información es la c. Pero en la materia a granel donde la energía se distribuye por igual entre los bultos, la entropía física es S = N * So . La entropía de la información es perfectamente así (S=N*H), pero no puedo derivar S o de H. De nuevo, S bits =S/(kb*ln(2)).

Entonces, la entropía de Shannon es mucho más simple y resulta en MENOS entropía si intentas hacer N partículas en un sistema físico equivalente a N símbolos únicos. La entropía física más simple es la de los osciladores armónicos independientes en 1D que comparten una energía total pero no necesariamente uniforme es S=kb*ln[(estados/oscilador)^N / N!] que es S=N*[log(estados/partícula) +1] para N grande. Entonces, incluso en el caso más simple, la c permanece. La entropía de Shannon tiene una forma fundamentalmente diferente: S~log((estados/símbolo)^N) = N*log(estados/símbolo) cuando cada símbolo es mutuamente independiente (no hay patrones en los datos y las mismas probabilidades de símbolo). Por ejemplo, para datos binarios aleatorios S=log2(2^N) = N bits. Entonces es difícil ver la conexión precisa en el caso más simple (el +1 no es una diferencia menor), incluso cuando las preguntas verdadero/falso muestran inmediatamente que son cantidades idénticas con un factor de conversión simple. La aproximación de Stirling es exacta en el límite de N y la H de Shannon depende en cierto modo de un N infinito para obtener p exactas, por lo que la aproximación no es un problema para mí.

No he contradicho nada de lo que ha dicho el usuario 346, pero quería mostrar por qué la conexión no es trivial, excepto en el caso de observar la entropía específica de la materia a granel. QM usa S=sum(-p*log(p)) pero la entropía de Shannon es S=N*sum(-p*log(p)). Salen iguales porque calcular las p es diferente. Física p = (cierto macroestado) / (microestados totales) pero el numerador y el denominador no se determinan simplemente contando. Información de p=(recuento de símbolos distintos)/(símbolos totales) para una fuente determinada. Y, sin embargo, ambos requieren la misma cantidad de bits (preguntas de sí/no) para identificar el microestado exacto (después de aplicar la conversión kb*ln(2)).

Pero hay un problema que se mencionó en los comentarios a su respuesta. En un sistema de información requerimos que los bits sean confiables. Nunca podemos obtener el 100% de confiabilidad debido a las fluctuaciones térmicas. En este límite de 1 bit = kb*ln(2) tenemos una probabilidad del 49,9999% de que cualquier bit en particular no esté en el estado que esperábamos. El límite de Landuaer es definitivamente un límite. La energía requerida para romper un enlace que retiene uno de estos bits en un sistema de memoria potencial está "justo por debajo" (realmente igual) a la energía cinética promedio de las agitaciones térmicas. El límite de Landauer asume que la energía requerida para romper nuestro enlace de memoria es E = T * kb * ln (2), que es ligeramente más débil que un enlace de van der waals, que es lo más débil que puede llamar un "enlace" en presencia de agitaciones térmicas.

Así que tenemos que decidir qué nivel de confiabilidad queremos para nuestros bits. Usar el límite del agujero negro también parece agregar un problema de "accesibilidad". Es el contenido de información del sistema, pero no es un sistema de almacenamiento de información.