Precisión de ECEF a ECI, usando solo GAST

Estoy trabajando en una herramienta de análisis de órbita de fidelidad baja a media. Mi factor clave aquí es la velocidad, estoy analizando constelaciones con 500 - 1000 satélites y quiero poder realizar el análisis en menos de ~1 min. Ahora, esa es otra historia en sí misma, pero estoy analizando casos específicos de órbitas circulares que facilitan significativamente la propagación.

Mi problema con el que me encuentro es la conversión de ECEF a ECI para el análisis de acceso. Sé que hay muchas funciones que usan reducciones IAU que he usado y probado. Mi problema es que toman un poco de tiempo y memoria (para mí, 5-10 segundos es mucho).

He estado haciendo referencia a Vallado y dice que la mayoría de la diferencia proviene de la rotación de la Tierra. Tengo un algoritmo eficiente para calcular GAST, pero quiero saber qué cantidad de error estoy induciendo simplemente teniendo en cuenta la rotación de la tierra (metros, kilómetros, decenas de kilómetros, etc.).

Encontré esta buena herramienta ECEFtoECI que, según él, puede obtener una precisión en comparación con STK del orden de cm. Me parece incapaz de reproducir su información. Cualquier idea sería muy apreciada.

Respuestas (1)

Debe estar usando una computadora de la década de 1960 para que incluso el cálculo de orientación terrestre más preciso de la IAU tome "5-10 segundos".

Dicho esto, calcular la orientación de la Tierra usando un algoritmo extremadamente preciso en algún momento de época y luego rotar la Tierra por 2 π radianes por día sideral ( 7.29211585275553 × 10 5 radianes por segundo) sobre el eje z de la Tierra en la época tendrá un error esencialmente cero durante los próximos nansegundos después de la época, un error insignificante durante los próximos microsegundos a minutos (o quizás incluso horas) después de la época, y un error inaceptable y cada vez mayor a partir de entonces.

Si ese "error insignificante" se refiere a solo unos pocos microsegundos o varias horas después del tiempo de época, depende completamente de las tolerancias de error de lo que está haciendo. No ha dicho lo que está haciendo o cuáles son sus tolerancias de error.

Me han hecho esta pregunta varias veces, y mi respuesta será la misma que ha sido para aquellos que me han preguntado en el pasado: me niego a dar una respuesta genérica. En cambio, les ayudo a encontrar su respuesta personalizada buscando ese punto de inflexión en el que el peor de los casos supera su tolerancia de error. Elija algunas épocas aleatorias y luego, en momentos regulares, calcule la diferencia angular entre un cálculo de alta precisión de la orientación de la Tierra versus el simple 2 π radianes por día sideral sobre la orientación de la época. Encuentre el punto de inflexión para ese tiempo de época seleccionado al azar, repita y elija el peor de los casos. En muchos casos, este punto de inflexión está mucho más allá del punto en el que no importa desde la perspectiva del costo computacional.

Otra forma de encontrar este punto de inflexión personal es aumentar gradualmente el tiempo entre los cálculos de época hasta que comience a ver una diferencia insignificante en el tiempo de cálculo o una diferencia no despreciable en la salida algorítmica. Por lo general, es la diferencia insignificante en el tiempo de cálculo lo que gana, con algún otro cerdo computacional ahora abrumando el costo de calcular la orientación de la Tierra. ¿Por qué ir más allá de este punto?

David, aprecio la honestidad, pero creo que se malinterpretó un poco. El tiempo de cálculo es porque estoy haciendo el cálculo cada segundo durante 90 días. En cuanto a la precisión, mi pregunta es independiente de cuáles son los requisitos de mi simulación, por lo que no entré en gran detalle en cuanto a los requisitos de la simulación. Mi pregunta era simplemente si solo tiene en cuenta la rotación de la tierra (es decir, tiene un cálculo GAST preciso), entonces qué tipo de error de precisión se induce
Así que haz el experimento. Usted dice que tiene acceso a la solución de alta precisión y su solución GAST. Ejecute ambos para el período de interés y compare los resultados. Puede compararlos al mismo tiempo y ver cuánto le está costando esa precisión.
De acuerdo con David también: con los recursos computacionales modernos, la orientación terrestre no debería costarle tanto. Echaría un vistazo al diseño de mi algoritmo. Si eso no lo lleva allí, busque el procesamiento paralelo: todo tiene múltiples núcleos disponibles ahora y cosas como OpenCL son bastante accesibles.
@Smoran: usar GAST es tan del siglo pasado. (¡De hecho, el último milenio!) Los modelos de precesión/nutación 2000/2006 de la Unión Astronómica Internacional (IAU) reemplazan la eclíptica y GAST con conceptos llamados Origen Celestial Intermedio (CIO) y Ángulo de Rotación de la Tierra (ERA). Estos nuevos conceptos son más simples, rápidos y precisos que los antiguos. Hay una calificación en mi uso de "más rápido": esto solo se aplica si se usa un modelo de nutación degradado. El modelo de nutación/precesión más preciso implica más de mil frecuencias diferentes. Estos son necesarios para la astronomía de microsegundos de arco.
Los modelos IAU también proporcionan un modelo de menor fidelidad, preciso al nivel de milisegundos de arco, que es mucho más rápido que el modelo de mayor fidelidad. Y si es aceptable una fidelidad aún menor, sugiero usar el enfoque descrito en mi modelo: en varios puntos en el tiempo, calcule la orientación de la Tierra usando un modelo IAU / ICRS (posiblemente el modelo de menor fidelidad), pero en puntos intermedios en el tiempo, gire el orientación de referencia más reciente sobre el eje z instantáneo. No necesita GAST o UT1 para estos puntos intermedios en el tiempo. TT funciona bastante bien.
@CoAstroGeek: según la cantidad de puntos de tiempo involucrados, usar el modelo de mayor precisión puede ser extremadamente costoso desde el punto de vista computacional. El modelo de mayor precisión tiene más de mil frecuencias de componentes, la mayoría de las cuales son necesarias solo para la astronomía de mayor precisión que requiere una precisión de nivel de microsegundos de arco. Lanzar la gran mayoría de esas frecuencias da como resultado errores de nivel de milisegundos de arco. Para muchos análisis orbitales, incluso eso es excesivo, tanto en términos de precisión como de gasto computacional.