¿Cuáles son las restricciones que impiden sistemas de piloto automático más inteligentes?

El sistema de piloto automático actual está integrado con el Sistema de gestión de vuelo (FMS) para navegación como LNAV y VNAV; ambos se basan en parámetros preestablecidos proporcionados por el piloto antes de la salida (alineación del IRS, combustible total/pax, waypoints/vías aéreas, nivel de vuelo, etc.) o, en resumen, sistema experto

¿Cuáles son las restricciones para el piloto automático del sistema inteligente en el que el piloto automático debe ayudar al piloto a tomar una decisión (o el piloto automático decide per se)? Por ejemplo, durante el vuelo bajo ciertas condiciones en las que fallan algunos sensores y el sistema de control de vuelo vuelve a la ley directa (en el caso de FBW) y el piloto automático del sistema inteligente reconoce este caso para ayudar al piloto a decidir qué hacer o controlar la aeronave a fondo.

Si las computadoras pudieran controlar la aeronave, entonces, ¿por qué sería necesario volver a la ley directa (por cierto, creo que es un término estrictamente de Airbus, y no general para los sistemas FBW)? El punto de volver a la ley directa es que las computadoras no pueden controlar de manera segura la aeronave en su condición actual.
@MichaelKjörling mi error, lo siento... sí, la ley directa se refiere al término de Airbus para el control directo del piloto a los controles de vuelo; tal vez me confundí, lo que quise decir es que en ese caso, el piloto automático no se desconecta, sino que mantiene la aeronave en su vuelo actual, aunque perdió varios sensores para volar normalmente (y otros casos también). Gracias
Quizás te interese ¿La falla del motor apaga el piloto automático? que, aunque no es un duplicado, analiza diferentes modos de piloto automático en aviones comerciales y cómo los pilotos automáticos pueden interactuar con varias fallas.
¿Qué quieres decir con "cuáles son las restricciones"? ¿Está preguntando qué restricciones legales existen para hacer esto?
@TannerSwett ... sí, eso es exactamente lo que quiero decir, más al aspecto filosófico / regulatorio en lugar de técnico
@MichaelKjörling muchas gracias por tu enlace que me ayuda a encontrar pistas sobre el tema
Me gusta mucho esta pregunta, pero es difícil responder a una pregunta vaga de "por qué no". Todavía quedan muchas decisiones para el piloto (consulte esta pregunta o esta ), ¿está hablando solo de la falla del sensor o también está hablando de otros escenarios como la falla del motor, la respuesta al clima, la planificación de rutas, etc.? ¿Qué escenarios desea que maneje el piloto automático?
La falla de los sensores @CodyP es solo un ejemplo de caso en el que el A/P falla en consecuencia, pero esto puede conducir a otros problemas relacionados con el sistema A/P como los que mencionó ... por lo que entiendo sobre el sistema inteligente es que tiene la capacidad para "aprender de casos similares anteriores", por lo que el sistema A / P podría superar los problemas y volar la aeronave de manera segura; aunque técnicamente hablando "podría" ser posible, la regulación de la FAA/CAA podría restringir estrictamente el uso de sistemas inteligentes en aras de la seguridad (el sistema inteligente en sí mismo en la aviación podría considerarse como "peligroso")
@CodyP como una adición ... el escenario podría ser cualquier cosa, pero estaba pensando en un caso como Birgen Air 301 o Air Asia 8501 . Gracias

Respuestas (2)

Según la FAA, en realidad no existen regulaciones que limiten la capacidad de un piloto automático y, por debajo del despegue, la mayoría de los sistemas modernos son capaces de realizar la mayor parte de un vuelo completo sin intervención del piloto (aparte de las actualizaciones de ruta, etc.). En última instancia, cualquier sistema de aeronave deberá obtener la certificación y esto implica pruebas rigurosas y demostraciones de que el sistema funciona en todos los casos establecidos.

Sin embargo, hay un poco de un problema de lógica en su declaración:

Por ejemplo, durante el vuelo bajo ciertas condiciones en las que fallan algunos sensores y el sistema de control de vuelo vuelve a la ley directa (en el caso de FBW) y el piloto automático del sistema inteligente reconoce este caso para ayudar al piloto a decidir qué hacer o controlar la aeronave a fondo.

La razón por la que el piloto automático se desactiva o se desconecta es porque, debido a la falla del sensor, ya no tiene la información que necesita para controlar adecuadamente la aeronave. No importa cuán inteligente sea el sistema, sin la entrada adecuada del sensor, el control positivo no es posible o sería lógicamente incorrecto. Esto es cierto incluso para los pilotos humanos y fue en parte el problema que condujo al desastre del Air France 447 .

Aquí hay una pregunta más amplia sobre los pilotos automáticos que potencialmente manejan emergencias, que es un poco diferente a una falla del sensor (léase falla estática de Pitot). Esto ya está implementado en parte en algunos aviones y, a medida que pasa el tiempo, vemos más y más. Las aeronaves ahora son capaces de detectar una despresurización y descender automáticamente a una altitud segura; incluso los nuevos aviones pequeños GA tienen esta característica . Los pilotos automáticos ahora también tienen formas de modo de nivelación automática que devolverán la aeronave a una actitud recta y nivelada con solo presionar un botón.

Esto también se reduce en parte a la filosofía del diseño. Esto es muy obstinado, por lo que me mantendré alejado de él en este sitio, pero hay datos sólidos para respaldar ambos casos: en caso de una emergencia, ¿está mejor equipado un piloto o un sistema informático para manejar la situación?

Se podría argumentar que, con un ap lo suficientemente robusto, si el ap no tiene la información necesaria para volar el avión de manera segura, los pilotos tampoco.
@TomMcW sí, estoy de acuerdo con usted, si algo falla, el control vuelve al piloto y en este momento (al menos por ahora) no podemos confiar completamente en el sistema automatizado

No soy un experto, especialmente en el marco regulatorio, pero puedo dar una respuesta limitada.

De alguna manera, los aviones ya están dando pasos incrementales hacia una mayor automatización y protección contra fallas:

Los aviones ya intentan volver a la funcionalidad básica cuando algo falla. La falla de la baliza del localizador no desactiva todo el piloto automático, y muchos aceleradores automáticos pueden funcionar con un motor apagado. Sin embargo, puede haber margen de mejora en áreas específicas, pero tenga en cuenta que muchos de estos conjuntos de sensores redundantes ya están diseñados para tener menos de una falla completa por millón de horas de vuelo.

Algunos de los problemas no se prestan a una solución fácil: si está manteniendo la altitud y pierde los sensores de datos del aire, ¿cómo mide la altitud para mantener la altitud? Podría crear un nuevo submodo para vuelo nivelado basado solo en el IRS, pero esto sería muy complejo en comparación con la alternativa de volar a mano o simplemente ir a un modo básico de retención de cabeceo.

Claro, podría sortear estos escenarios peligrosos tomando más autoridad y volviendo mejor a los sistemas o modos básicos cuando algo falla, por ejemplo, acelerando en el campo cuando fallan ambos motores. O en el caso del vuelo 8501 de Indonesia que mencionó, obligar a una computadora de vuelo de respaldo a estar siempre encendida durante el vuelo y de alguna manera negarse a permitir que ocurra un giro peligroso en el momento en que se desconecta el piloto automático. Sin embargo, en todas estas situaciones, intentas burlar a los pilotos y tomar decisiones de ellos, lo cual es... complejo.

Algunos fabricantes otorgan al piloto autoridad total, otros limitan al piloto solo a lo que se sabe que es seguro. Si bien en mi experiencia, los ingenieros de aviónica están felices de pensar demasiado y tratar de hacer que sus sistemas sean a prueba de idiotas, este tipo de nuevos sistemas presentan muchas dificultades en las pruebas de factores humanos, mayor complejidad, etc., por lo que los cambios solo se realizan de forma incremental.

Hay algo de trabajo regulatorio del que soy consciente detrás de esto. Por ejemplo, los aviones están diseñados para ser predecibles y deterministas: la idea de escenarios no probados o código no determinista mantiene a las autoridades de certificación despiertas hasta altas horas de la noche. Esto limita el desarrollo a segmentos de vuelo y comportamiento modulares y mantenibles. También es más fácil certificar y entrenar para cambios incrementales que un rediseño completo, especialmente dado lo increíblemente complejo que es la aviónica moderna.

Muchas gracias por su respuesta, así que según la descripción que escribió y según las regulaciones de la FAA/CAA, es posible implementarlo, pero también debemos considerar en qué campo participará el IS, especialmente en sistemas esenciales como los controles de vuelo; esto incluye dinámica de vuelo, actuadores electro/hidráulicos/neumáticos, sensores; burlar al piloto mediante un sistema inteligente es (en mi humilde opinión) casi imposible debido al hecho de que el piloto debe ser la última línea de defensa en caso de que algo falle, tal vez el IS participe como un asesor en su lugar (si está diseñado para no manejar maniobras anormales)?