En una pregunta anterior , aprendí que la grabadora de estado sólido (SSR) del JWST puede contener al menos 58,8 Gbytes de datos científicos registrados. Que cada día requiere dos enlaces descendentes de 4 horas con la tierra para vaciar sus búferes de datos. En otra pregunta , aprendo que el almacenamiento de la nave espacial podría llenarse en tan solo 160 minutos.
Tengo curiosidad por saber por qué los diseñadores eligieron darle a este satélite de última generación de $ 10 mil millones una cantidad tan pequeña de espacio de almacenamiento.
Lo pregunto porque asumo que puede haber momentos en los que una transmisión no se complete en el tiempo programado o en los que se pierda un día debido a problemas de control en tierra. O incluso un momento en el que tiene que dejar de recopilar datos y esperar su ventana de enlace descendente porque el disco está lleno.
¿No estaría la nave espacial más preparada para el futuro si tuviera un búfer de datos más grande, por lo que tampoco se ve afectada por ningún sector de "disco" que haya fallado durante su funcionamiento?
¿O hay algo que no estoy considerando, tal vez como una restricción de diseño?
A finales de 2002 , las unidades SSD acababan de alcanzar una capacidad de ~80 GB. Por supuesto, JWST no va a tomar un producto que nunca se ha implementado en la empresa y lo colocará en una plataforma de $ 2 mil millones con los dedos cruzados, con la esperanza de que el proveedor haya hecho un trabajo realmente bueno. La última tecnología mencionada anteriormente es para unidades terrestres de consumo. Una vez que tomamos en cuenta el endurecimiento de la radiación para el uso del espacio, el historial del producto existente para la confianza y cualquier misión de redundancia adicional que los diseñadores hayan elegido para cubrir su juguete de más de $ 2 mil millones para su vida útil de 5 a 10 años, 68 GB comienzan a parecer bastante razonables.
Sí, se necesitaron 10 años para pasar de MB a GB y otros 10 para pasar de GB a TB. Entonces, para 2010, ya teníamos unidades independientes TB (no arreglos) en un factor de forma SATA COTS de 3,5". estaba disponible entonces. Para 2006, la NASA ya había desembolsado $ 1 mil millones en el proyecto. El contrato principal se adjudicó en 2003. No es difícil imaginar que la tecnología de almacenamiento de datos se seleccionó dentro de uno o dos años a partir de este punto en el tiempo, dado que ya habían gastado mil millones de dólares en desarrollo solo 3 años después.
Si tuviéramos que rediseñar JWST en este momento, podríamos elegir algo como el RH3440 apto para espacio de 440 GB de Mercury . Esta es tecnología de última generación, y ni siquiera es 1 TB. También tenga en cuenta que utiliza tecnología NAND de celda de un solo nivel más "primitiva", en lugar de celdas de nivel cuádruple de alta densidad. Obviamente, esto es por robustez y parte de lo que lo hace calificado para el espacio. Esta es la razón por la que no puede comparar productos de grado de consumo y de grado espacial de forma nivelada. Obviamente, podríamos poner algunos de estos en el JWST y obtener más de 1 TB de almacenamiento, pero me imagino que poner más de una docena a bordo aumentaría las limitaciones de tamaño y energía. Entonces, digamos que podríamos obtener hasta 6 TB de almacenamiento para JWST 2.0, edición 2021.
El crecimiento exponencial de la densidad de SSD ha seguido una relación aproximada de 1000x por 10 años. Rebobine 10 años hasta 2011, y esperaríamos colocar solo 6 GB a bordo utilizando la tecnología espacial de vanguardia disponible en ese momento. Retroceda 17 años hasta 2003-4, y el hecho de que tenga más de 60 GB de almacenamiento SSD en realidad se ve bastante notable, dado que lo extrapolaríamos a quizás 60 MB (¡¡grado espacial!!!). Puede haber más de una docena de unidades discretas a bordo de JWST (no se pueden encontrar detalles de diseño en ese nivel de granularidad).
La verdadera pregunta no es: "¿Por qué hay tan poco almacenamiento?" sino más bien: "¿Cómo subieron tanto a bordo?" Quizás se les permitió hacer trampa y actualizar el almacenamiento más adelante en el proceso de diseño a una tecnología más nueva pero aún madura. La revisión crítica de diseño, que imagino que consolidó muchas decisiones en piedra, ocurrió en 2010. Si lograron cosechar 6 o 7 años de avances, eso podría explicar una mejora de 100 veces sobre las capacidades esperadas.
El hardware espacial casi siempre es una tecnología bastante arcaica. El problema es el largo tiempo de espera junto con la necesidad de certificarlo para el vuelo. No era arcaico cuando fue diseñado. El JWT se rediseñó en 2005, así que mire la tecnología de 2005, no la de 2020.
Las otras respuestas son buenas. Agregaré que, generalmente debido a restricciones presupuestarias fuera de lugar, los planes de proyecto no tienden a esperar suficiente iteración. Un plan de proyecto es como un plan de batalla: rara vez sobrevive al contacto con la realidad. Planifique desechar las primeras versiones (más baratas, parciales) y tendrá la flexibilidad de actualizar la tecnología en función de la nueva información.
Un gran ejemplo de un plan de proyecto que tenía una iteración incorporada fue la serie Mercury/Gemini/Apollo: ese esfuerzo habría fracasado horriblemente si hubiéramos planeado poner botas en la superficie lunar en el primer lanzamiento.
El transbordador fue en la otra dirección: con Enterprise como el único prototipo de orbitador financiado, nunca pudimos convertir ese sistema en uno que fuera realmente seguro, confiable o barato.
En los últimos años, finalmente comenzamos a ver nuevos vehículos de lanzamiento y constelaciones de satélites que siguen un camino de desarrollo más iterativo: los contrastes en el cronograma, el costo y las capacidades son sorprendentes.
Si la iteración no está integrada, las decisiones iniciales se analizan exhaustivamente y se cometen errores por precaución, porque todos los que toman esas decisiones saben que habrá poca capacidad para probar el hardware hasta que sea demasiado tarde para cambiar. Las limitaciones resultantes deben aceptarse como restricciones a medida que avanza el proyecto en los años siguientes. Estas restricciones generadas internamente, a su vez, tienden a llevar a que los proyectos se ejecuten con tiempo extra, excedan el presupuesto o fracasen por completo.
Es extraño pensar que, si bien la ciencia tiene que ver con el cambio basado en nueva información, los proyectos de "gran ciencia" rara vez pueden tener esa característica incorporada en sus propios planes y contratos: los socios y proveedores tienden a ser contratados para entregar productos completos y terminados una vez. , completamente especificado de antemano y construido correctamente la primera vez. El universo simplemente no funciona de esa manera.
Mirando hacia atrás en la tecnología, necesariamente parece primitivo. Una cita es probablemente solo una leyenda, Bill Gates supuestamente dijo en 1981: "640K deberían ser suficientes para cualquiera". Y para la gente de entonces, esto probablemente era razonable.
Note que en 1991,
SanDisk envía su primera unidad de almacenamiento de estado sólido o SSD. El SSD tenía una capacidad de 20 MB y se vendía por aproximadamente $1,000.00. Fue utilizado por IBM en la computadora portátil ThinkPad.
Los $1,000 no serán un problema aquí. Pero 20 MB fue la bomba. Hace unos años compré los pendrives más pequeños del mercado para regalar unos documentos, y eran mucho más grandes que eso.
En 1999, BiTMICRO realizó una serie de presentaciones y anuncios sobre SSD basados en flash, incluido un SSD de 18 GB y 3,5 pulgadas.
Para las personas que diseñaron el satélite a fines del siglo XX, los 60 GB parecían un tipo de volumen 'guau, desearía tener esto en casa'.
Debido a que se espera que pueda descargar sus datos entre objetivos, no necesita grandes cantidades de espacio y cualquier dato que acumule tomará tiempo para descargarse, por lo que no tiene mucho sentido crear un búfer enorme.
russell borogove
feria gabriel
russell borogove
usuario3528438
feria gabriel
Mugir
austin hemmelgarn
Juan Doty
Juan Doty
Marca
Marca
shaunakde
RSF
JS.
Juan Doty