¿Por qué el espacio de almacenamiento de datos del telescopio espacial James Webb es tan pequeño?

En una pregunta anterior , aprendí que la grabadora de estado sólido (SSR) del JWST puede contener al menos 58,8 Gbytes de datos científicos registrados. Que cada día requiere dos enlaces descendentes de 4 horas con la tierra para vaciar sus búferes de datos. En otra pregunta , aprendo que el almacenamiento de la nave espacial podría llenarse en tan solo 160 minutos.

Tengo curiosidad por saber por qué los diseñadores eligieron darle a este satélite de última generación de $ 10 mil millones una cantidad tan pequeña de espacio de almacenamiento.

Lo pregunto porque asumo que puede haber momentos en los que una transmisión no se complete en el tiempo programado o en los que se pierda un día debido a problemas de control en tierra. O incluso un momento en el que tiene que dejar de recopilar datos y esperar su ventana de enlace descendente porque el disco está lleno.

¿No estaría la nave espacial más preparada para el futuro si tuviera un búfer de datos más grande, por lo que tampoco se ve afectada por ningún sector de "disco" que haya fallado durante su funcionamiento?

¿O hay algo que no estoy considerando, tal vez como una restricción de diseño?

Como Old, la idea de que 60 GB de almacenamiento de estado sólido se consideren "tan pequeños" es alternativamente hilarante y deprimente.
Sí, algunos puntos de referencia modernos para tener en cuenta: 1) La tarjeta de memoria flash TESS (FMC) tiene 192 GB de almacenamiento masivo de datos. 2) Mi celular tiene 516gb de almacenamiento y una cámara de 108MP con 1 foto (jpg, comprimida con pérdida) siendo 22.6 megas. Lo que significa que el SSR del JWST se llenaría con 2.6 de las fotos de mi teléfono celular.
No, 2600 de tus fotos.
Realmente depende del instrumento y la misión. De todos modos, el cielo no cambia mucho, por lo que no suele tomar miles de fotografías por día.
Tienes razón, mis matemáticas estaban mal.
Los discos de estado sólido tienen una gran cantidad de capacidad "extra" incorporada, para nivelar el desgaste y reemplazar bloques que fallan: cuanto mayor sea el tamaño "nominal" de la unidad de almacenamiento, más capacidad "extra" tendrá. Para algo tan crítico como esto, no me sorprendería que la capacidad real fuera mucho más del doble de la capacidad "nominal", dada la vida útil esperada del telescopio, su entorno de trabajo, los ciclos de uso, etc. nominal”, también querrá aumentar la capacidad redundante. Necesito investigar algunos detalles aquí.
@RussellBorogove Incluso como una persona moderna de SRE/DevOps de casi 20 años, la idea de que 60 GB de almacenamiento es "pequeña" suena ridícula. Regularmente trato con sistemas con GB de almacenamiento de un solo dígito y he trabajado con hardware donde el almacenamiento persistente se midió en MB de un solo dígito.
El contrato @GabrielFair JWST se adjudicó en 2003. La adjudicación del contrato TESS fue en 2013, una década después. Entonces, TESS tiene tecnología mucho más actualizada. TESS se acerca a los tres años en el espacio, JWST permanece en tierra. Imagínate.
@ user3528438 Muchas de las cosas interesantes cambian rápidamente. Es por eso que TESS, basado en la experiencia con los límites reales de su manejo de datos, ahora toma imágenes de "fotograma completo" cada 10 minutos en lugar de cada 30 minutos como estaba previsto. Su comunidad de usuarios ha sido entusiasta.
@GabrielFair, el almacenamiento de su teléfono no está protegido contra la radiación. Póngalo en el JWST y lo más probable es que falle antes de que el telescopio se coloque en posición.
Sin mencionar que cualquier cosa endurecida por radiación por debajo de los tamaños de nodo de 32 nm sigue siendo difícil de encontrar. Sí, el LEON2-FT es significativamente peor que cualquier otro celular de 2020, pero me gustaría ver que el celular vaya al espacio...
La memoria flash de su teléfono se desgasta con el tiempo incluso sin radiación. Algunos datos interesantes sobre el uso del automóvil
Como ex ingeniero de cohetes, una de las mayores decepciones del trabajo fue aprender el día 1 que no podías jugar con la tecnología de última generación. Tenías que usar nex-gen -6 porque era la única tecnología que podía hacer frente al duro entorno del espacio. Bonificación: solo había 1 fabricante que todavía fabricaba hardware tan antiguo. Suspiro.
@JS Sin embargo, algunas misiones evitan esto hasta cierto punto. Bromeé diciendo que el QPL para HETE-2 era el catálogo de Digi-Key, pero estaba cerca de la verdad. La única falla electrónica que tuvimos en seis años de operación en órbita fue nuestro receptor GPS, que era una unidad calificada para el espacio. Aún así, cuando lanzamos en 2000, la tecnología era un poco vieja, de principios de los 90. Esto se debió en parte al hecho de que HETE-2 fue una reconstrucción con pocos cambios de HETE-1, que sufrió una falla en el vehículo de lanzamiento en 1996.

Respuestas (5)

La mejor tecnología disponible

A finales de 2002 , las unidades SSD acababan de alcanzar una capacidad de ~80 GB. Por supuesto, JWST no va a tomar un producto que nunca se ha implementado en la empresa y lo colocará en una plataforma de $ 2 mil millones con los dedos cruzados, con la esperanza de que el proveedor haya hecho un trabajo realmente bueno. La última tecnología mencionada anteriormente es para unidades terrestres de consumo. Una vez que tomamos en cuenta el endurecimiento de la radiación para el uso del espacio, el historial del producto existente para la confianza y cualquier misión de redundancia adicional que los diseñadores hayan elegido para cubrir su juguete de más de $ 2 mil millones para su vida útil de 5 a 10 años, 68 GB comienzan a parecer bastante razonables.

Cronología

Sí, se necesitaron 10 años para pasar de MB a GB y otros 10 para pasar de GB a TB. Entonces, para 2010, ya teníamos unidades independientes TB (no arreglos) en un factor de forma SATA COTS de 3,5". estaba disponible entonces. Para 2006, la NASA ya había desembolsado $ 1 mil millones en el proyecto. El contrato principal se adjudicó en 2003. No es difícil imaginar que la tecnología de almacenamiento de datos se seleccionó dentro de uno o dos años a partir de este punto en el tiempo, dado que ya habían gastado mil millones de dólares en desarrollo solo 3 años después.

Si tuviéramos que rediseñar JWST en este momento, podríamos elegir algo como el RH3440 apto para espacio de 440 GB de Mercury . Esta es tecnología de última generación, y ni siquiera es 1 TB. También tenga en cuenta que utiliza tecnología NAND de celda de un solo nivel más "primitiva", en lugar de celdas de nivel cuádruple de alta densidad. Obviamente, esto es por robustez y parte de lo que lo hace calificado para el espacio. Esta es la razón por la que no puede comparar productos de grado de consumo y de grado espacial de forma nivelada. Obviamente, podríamos poner algunos de estos en el JWST y obtener más de 1 TB de almacenamiento, pero me imagino que poner más de una docena a bordo aumentaría las limitaciones de tamaño y energía. Entonces, digamos que podríamos obtener hasta 6 TB de almacenamiento para JWST 2.0, edición 2021.

El crecimiento exponencial de la densidad de SSD ha seguido una relación aproximada de 1000x por 10 años. Rebobine 10 años hasta 2011, y esperaríamos colocar solo 6 GB a bordo utilizando la tecnología espacial de vanguardia disponible en ese momento. Retroceda 17 años hasta 2003-4, y el hecho de que tenga más de 60 GB de almacenamiento SSD en realidad se ve bastante notable, dado que lo extrapolaríamos a quizás 60 MB (¡¡grado espacial!!!). Puede haber más de una docena de unidades discretas a bordo de JWST (no se pueden encontrar detalles de diseño en ese nivel de granularidad).

La verdadera pregunta no es: "¿Por qué hay tan poco almacenamiento?" sino más bien: "¿Cómo subieron tanto a bordo?" Quizás se les permitió hacer trampa y actualizar el almacenamiento más adelante en el proceso de diseño a una tecnología más nueva pero aún madura. La revisión crítica de diseño, que imagino que consolidó muchas decisiones en piedra, ocurrió en 2010. Si lograron cosechar 6 o 7 años de avances, eso podría explicar una mejora de 100 veces sobre las capacidades esperadas.

Lo que demuestra que hubiera sido bueno diseñar un sistema "plug & play" que pudiera acomodar fácilmente unidades de memoria más grandes. Así que va. (consulte también sistemas operativos de 32 bits frente a 64 bits, etc.)
@CarlWitthoft, tengo entendido que VPX es la versión mil/space de PCI y proporciona un conjunto de características comparables: en.wikipedia.org/wiki/VPX . El problema no es asignar IRQ o direcciones base, sino más bien las pruebas y la validación requeridas para garantizar que cualquier parte que se incorpore realmente brindará el rendimiento prometido. Estoy seguro de que lo que validaron podría más o menos ser conectado al autobús sin fanfarria.
Buenos puntos. Soy dolorosamente consciente por proyectos de trabajo anteriores del esfuerzo requerido para calificar partes.
Por cierto, no espero que SSD continúe escalando 1000x cada 10 años. Parece que la tecnología SSD estaba significativamente por debajo de las capacidades de fabricación de chips y luego se puso al día. Por ahora, ha terminado de ponerse al día.
Supongo que hay un límite para la cantidad de almacenamiento que realmente desea allí. Si solo hay 2 contactos de cuatro horas con la tierra por día, y se necesitan ambos para vaciar completamente 60 GB, entonces tener 120 GB solo significa que se necesitarán dos días completos para vaciar en lugar de uno. Terminaría "constantemente atrasado" porque estaba llenando el búfer antes de vaciarlo por completo. Entonces, en cierto sentido, el espacio de almacenamiento está limitado por el ancho de banda de regreso a la tierra.
@ user253751 en su mayoría de acuerdo. El más grande en este momento es de 100 TB en lugar de 1000, pero parece estar más limitado por la demanda que por el progreso tecnológico. Por lo tanto, el crecimiento claramente se ha desacelerado, pero quizás porque nadie puede justificar gastar $ 40,000 en una pieza de hardware tan robusta.
@LawnmowerMan es cierto, puede hacer otros aún más grandes agregando más chips, según el factor de forma.

El hardware espacial casi siempre es una tecnología bastante arcaica. El problema es el largo tiempo de espera junto con la necesidad de certificarlo para el vuelo. No era arcaico cuando fue diseñado. El JWT se rediseñó en 2005, así que mire la tecnología de 2005, no la de 2020.

Mire la tecnología de 1995 en lugar de la tecnología de 2005. La aviónica espacial está al menos una década por detrás del estado del arte, y el retraso empeora a medida que los tamaños de los dados son más pequeños.
@DavidHammen Me imagino que el rediseño probablemente actualizó la tecnología a los estándares de 2005.
La tecnología de aviónica para su uso en el espacio estaba diez años atrasada (atrasada en el estado de la práctica, y mucho menos en el estado del arte) en 2005. Ahora está aún más atrasada.
Y estoy seguro de que otra ventaja de usar el software 2005 en una nave 2021 sería que han tenido unos 15 años para aprender sobre cualquier error que pudiera ocurrir, etc. El SSD de 5 TB que la compañía X lanzó hoy no ha sido tan probado .
Mis dos centavos: El problema es que tomó años, 10 o 15 años diseñar, obtener presupuesto y lanzar cualquier proyecto como este. Entonces, obviamente, la tecnología estaría desactualizada para el momento en que se implemente. Pero por otro lado, no es tan problemático. El envío de información a la tierra debe hacerse de manera regular, e incluso si lleva algún tiempo, siempre y cuando no interfiera con la capacidad del telescopio para hacer descubrimientos sorprendentes, el científico puede soportar un poco de retraso.
Creo que esta respuesta asume implícitamente que podría tomar un chip moderno de CPU/Flash/RAM y enviarlo a la órbita, si pudiera reducir el tiempo de certificación. Eso no es así; la electrónica sin endurecimiento por radiación no vivirá mucho tiempo fuera de nuestra magnetosfera, y será bastante poco confiable mientras siga siendo funcional. Además, cuanto mayor sea la densidad de un IC, más susceptible es; esta es una de las razones por las que la electrónica endurecida por radiación utiliza nodos de proceso mucho más grandes como 32nm (LEON) o 150nm (RAD750).
Además, la electrónica en el espacio está expuesta a una radiación considerable, lo que limita las posibilidades de agotar las posibilidades que existen en la Tierra.
Supongo que eso significa que mi plan de jugar los últimos videojuegos AAA en el viaje a Marte no va a funcionar.
@thkala: El almacenamiento de estado sólido en la actualidad es Flash NAND, y eso es electrónica de bastante alto voltaje. El problema con la RAM y la CPU es que son de bajo voltaje y, por lo tanto, incluso un evento de baja energía puede causar una interrupción. Es probable que Flash sobreviva al transitorio, y sus códigos de corrección de errores predeterminados detectarán algunos errores bastante grandes. Todavía no querría TLC, ya que logra empaquetar 3 bits por celda al reducir las diferencias de voltaje, pero la misma celda en modo SLC de 2 bits probablemente funcionaría bien en el espacio.
@MSalters Si quiere decir 2 bits por celda, eso es lo que comúnmente se llama MLC ("multinivel". Totalmente una falta de previsión allí, por lo que "multi" ahora siempre significa dos, en comparación con las celdas de tres niveles y cuatro niveles .) SLC es un (1) bit por celda.

Las otras respuestas son buenas. Agregaré que, generalmente debido a restricciones presupuestarias fuera de lugar, los planes de proyecto no tienden a esperar suficiente iteración. Un plan de proyecto es como un plan de batalla: rara vez sobrevive al contacto con la realidad. Planifique desechar las primeras versiones (más baratas, parciales) y tendrá la flexibilidad de actualizar la tecnología en función de la nueva información.

Un gran ejemplo de un plan de proyecto que tenía una iteración incorporada fue la serie Mercury/Gemini/Apollo: ese esfuerzo habría fracasado horriblemente si hubiéramos planeado poner botas en la superficie lunar en el primer lanzamiento.

El transbordador fue en la otra dirección: con Enterprise como el único prototipo de orbitador financiado, nunca pudimos convertir ese sistema en uno que fuera realmente seguro, confiable o barato.

En los últimos años, finalmente comenzamos a ver nuevos vehículos de lanzamiento y constelaciones de satélites que siguen un camino de desarrollo más iterativo: los contrastes en el cronograma, el costo y las capacidades son sorprendentes.

Si la iteración no está integrada, las decisiones iniciales se analizan exhaustivamente y se cometen errores por precaución, porque todos los que toman esas decisiones saben que habrá poca capacidad para probar el hardware hasta que sea demasiado tarde para cambiar. Las limitaciones resultantes deben aceptarse como restricciones a medida que avanza el proyecto en los años siguientes. Estas restricciones generadas internamente, a su vez, tienden a llevar a que los proyectos se ejecuten con tiempo extra, excedan el presupuesto o fracasen por completo.

Es extraño pensar que, si bien la ciencia tiene que ver con el cambio basado en nueva información, los proyectos de "gran ciencia" rara vez pueden tener esa característica incorporada en sus propios planes y contratos: los socios y proveedores tienden a ser contratados para entregar productos completos y terminados una vez. , completamente especificado de antemano y construido correctamente la primera vez. El universo simplemente no funciona de esa manera.

"En los últimos años, finalmente comenzamos a ver nuevos vehículos de lanzamiento y constelaciones de satélites que siguen un camino de desarrollo más iterativo: los contrastes en el cronograma, el costo y las capacidades son sorprendentes". Si tan solo la NASA estuviera siguiendo tales caminos de desarrollo...

Mirando hacia atrás en la tecnología, necesariamente parece primitivo. Una cita es probablemente solo una leyenda, Bill Gates supuestamente dijo en 1981: "640K deberían ser suficientes para cualquiera". Y para la gente de entonces, esto probablemente era razonable.

Note que en 1991,

SanDisk envía su primera unidad de almacenamiento de estado sólido o SSD. El SSD tenía una capacidad de 20 MB y se vendía por aproximadamente $1,000.00. Fue utilizado por IBM en la computadora portátil ThinkPad.

Los $1,000 no serán un problema aquí. Pero 20 MB fue la bomba. Hace unos años compré los pendrives más pequeños del mercado para regalar unos documentos, y eran mucho más grandes que eso.

En 1999, BiTMICRO realizó una serie de presentaciones y anuncios sobre SSD basados ​​en flash, incluido un SSD de 18 GB y 3,5 pulgadas.

Para las personas que diseñaron el satélite a fines del siglo XX, los 60 GB parecían un tipo de volumen 'guau, desearía tener esto en casa'.

Lo curioso es que las unidades SSD son en su mayoría espacios vacíos. Probablemente podría colocar suficientes chips en un ssd de 3.5 "para tener una capacidad de petabyte, pero sería terriblemente costoso debido a la cantidad que hay dentro

Debido a que se espera que pueda descargar sus datos entre objetivos, no necesita grandes cantidades de espacio y cualquier dato que acumule tomará tiempo para descargarse, por lo que no tiene mucho sentido crear un búfer enorme.

Estoy bastante seguro de que tienes causa y efecto al revés aquí
@CarlWitthoft, ¿podría aclarar su comentario? La cantidad de datos que se pueden almacenar durante un período de tiempo es la misma que se puede descargar durante el mismo tiempo... Entonces, si puede descargar 1 GB por día, hay un valor negativo para almacenar más que eso (ya que el almacenamiento eventualmente se desbordará) ... Y tenga en cuenta que puede pagarle a su ISP dos veces el próximo mes para obtener una velocidad de descarga más rápida: un transmisor más grande/más potente no volará solo al espacio... El hardware (ya sean discos o comunicación) en comparación con los datos tiene peso y el el costo por kg no es gratuito incluso ahora (era aproximadamente 20 veces más caro en ese entonces)
@CarlWitthoft no del todo. Cuando tiene restricciones de masa y volumen, opta por la masa y el volumen más pequeños que pueda. Si eso da como resultado una unidad de almacenamiento de 60 GB y puede hacer que funcione dentro de sus otros requisitos, eso es lo que debe elegir.