¿Por qué la mayoría de los transmisores de video FPV de 5.8 GHz usan PAL o NTSC?

No me interesan mucho los detalles de la transmisión de video en general. Sin embargo, me pregunto, dado que la mayoría de las pantallas y los dispositivos electrónicos son digitales, ¿por qué los proveedores de equipos FPV eligieron un sistema de transmisión analógico, que además está limitado a 30/24 fps y baja resolución?

¿Sería posible mejorar la resolución simplemente eligiendo un protocolo (digital) diferente sin cambiar el número de canal?

He entendido que la latencia es una consideración importante; el analógico básicamente puede transmitir píxeles a medida que se leen desde el CCD, el digital requiere codificación primero. Sin embargo, no tengo ninguna referencia para respaldar esa afirmación.
Entonces es principalmente por el bien de la simplicidad. Sin embargo, me pregunto si sería posible modificar NTSC/PAL aumentando la resolución/FPS.
proxeneta NTSC/PAL aumentando la resolución/FPS Teóricamente posible: sí. Pero es posible que ya no sea PAL/NTSC, ya que solo admiten ciertos FPS y resoluciones. También necesitaría la electrónica, es decir, los chips, para admitir eso "no PAL/NTSC". Me sorprendería si usted puede comprar estos. Para hacer el tuyo propio, tendrías que ser millonario. Entonces, en la práctica: no, no es posible modificar PAL/NTSC.
Además, nunca ha habido una buena interfaz de cámara digital plug and play de bajo costo.

Respuestas (4)

Como han dicho otros, PAL y NTSC son analógicos y prácticamente no tienen latencia. Esto es extremadamente importante cuando se vuelan drones FPV a altas velocidades. Tener latencia le dirá dónde ha estado, no dónde está realmente.

Tengo un gran dron de video/fotografía (Yuneec Q500 4K). Transmite el video digitalmente en 5.8 GHz usando el protocolo 802.11A. (Al igual que su red Wi-Fi doméstica). He medido la latencia de la señal de video en 282 milisegundos. Esto se debe a que el video debe convertirse de analógico a digital y luego volver al receptor. Puede que no parezca mucho, pero lo es cuando viaja a alta velocidad y trata de evitar obstáculos.

Aquí hay un gráfico rápido que le mostrará cómo 282 ms de latencia afectan el lugar donde cree que se encuentra, en comparación con el lugar donde se encuentra en realidad.

Speed    Error       Speed     Error
[MPH]    [Feet]      [km/h]    [Meters]
----------------------------------------------
 10      4.15         16       1.26

 20      8.24         32       2.51

 30     12.39         48       3.78

 40     16.54         64       5.04

 50     20.63’        80       6.29

Teniendo en cuenta que algunos drones FPV pueden viajar a más de 60 MPH, puede ver cuánto impacto tendría esa latencia de video.

En lo que respecta a FPS, 30 para NTSC y 24 para PAL son velocidades de cuadro estándar y más que suficientes para una imagen fluida. Una resolución más alta también requeriría un hardware más grande/más pesado. Cuando los corredores de FPV intentan reducir fracciones de gramo de sus drones, sacrificarán la resolución por una reducción de peso.

¡Espero que mi explicación ayude!

Convertir a digital, transmitir como una señal digital y mostrar el video digital no tiene que agregar una latencia significativa por sí solo. La gran mayoría de ese retraso masivo proviene de la compresión y descompresión de video, mientras que el video compuesto está completamente descomprimido.
^ Sí, si fuera un método de transmisión digital más simple (como sin comprimir, pero con reducción de croma), o incluso una compresión más simple que el típico MPEG, por ejemplo, el MJPEG utilizado en DV, sería más que capaz de sub-1- latencia de cuadro, o incluso apenas más de unos pocos píxeles (o 16 líneas de video para DV, que sigue siendo una pequeña fracción de un cuadro), en comparación con lo que pueda agregar la ruta de video analógica normal. El problema es que esos tipos de codificación digital son bastante ineficientes y no son particularmente robustos, lo que los hace inadecuados para enlaces OTA de baja potencia. El analógico es realmente mejor.
Además, pequeña corrección: PAL es de 25 fps. Si su video se ejecuta a 24 fps, es una especie de "pulldown" NTSC y se verá extrañamente desigual para contenido de alto movimiento como transmisiones de drones, a menos que sea un modo de transmisión totalmente personalizado que reduce la velocidad de sincronización (y probablemente la resolución) para aumentar el alcance, la fiabilidad y el consumo de energía...
NB 282ms es una cantidad bastante severa de latencia, al menos en términos de video analógico o uno de esos modos digitales basados ​​​​puramente en "I-frame" (y de hecho macrobloque individual o incluso grupo de píxeles individual). Eso es más de 8 fotogramas de un feed de 30 fps o 7 fotogramas de un feed de 25 fps. Pero es bastante bueno para una transmisión MPEG; dado que un grupo de imágenes típico (que debe recibirse casi por completo antes de que pueda comenzar la decodificación) consta de 15 a 18 cuadros, eso sugiere que utiliza un GOP reducido o una tasa de cuadros duplicada para reducir la transmisión de código efectiva. decodificar la latencia tanto como sea posible...

Voté a favor de la respuesta de Nettle Creek, pero aquí hay una explicación rápida sobre por qué es importante la latencia:

Pilotar un dron es un sistema de retroalimentación contigo al tanto. Como en cualquier otro sistema de retroalimentación, se aplican los criterios habituales de estabilidad de Nyquist. La latencia de video agrega retraso en el ciclo de retroalimentación, y el efecto es el mismo que en cualquier otro sistema de retroalimentación (usted es el opamp): hace que el sistema sea menos estable. Esto se puede compensar con varias técnicas, la más fácil de las cuales es reducir el ancho de banda, lo que hace que el sistema sea más lento.

Imagínese un automóvil con un retraso de 1 segundo entre girar el volante y girar las ruedas. Esto equivale más o menos a poner a una persona ciega detrás del volante y a ti en el asiento del pasajero gritando direcciones. Apuesto a que tardarías mucho más en llegar a tu destino...

Por ejemplo, hace unos años, el retraso de la pantalla LCD era un problema. Algunas pantallas LCD almacenarían uno o dos fotogramas para aplicar el procesamiento digital a la imagen. Esto resultó en un retraso de 1-2 cuadros. Básicamente, esto hizo que todos los juegos de disparos en primera persona no se pudieran jugar. Un retraso de un cuadro puede no parecer mucho, pero es suficiente para alterar gravemente el sistema de control humano (es decir, el cerebro) que no está acostumbrado en absoluto a tener un retraso de visualización entre mover el dedo y ver el resultado.

El video digital está comprimido, por lo que el compresor debe acumular varios cuadros en la RAM y procesarlos. Obtiene muy alta calidad, pero alta latencia.

El video analógico tiene básicamente una latencia cero. Solo unos pocos milisegundos para que la pantalla LCD reaccione. Mucho menos para CRT. No tiene una latencia de "un cuadro" (1/60 s), por una razón sutil: digamos que su ojo está mirando el centro de la pantalla. La cámara CCD lee la imagen línea de exploración por línea de exploración. Esto significa que leerá una línea de exploración, que se transmite inmediatamente y se muestra. Entonces, la imagen que se muestra en la pantalla en el lugar que está mirando (digamos, en el centro) aparece solo unos pocos milisegundos después de que la cámara la captó. Por lo tanto, la latencia es muy baja.

Por supuesto, solo se actualizará en el siguiente cuadro. Pero cada actualización es en gran medida en tiempo real. Si su dron está acelerando hacia el tronco de un árbol, el árbol se verá más pequeño en la parte superior de la pantalla y más grande en la parte inferior, porque durante el escaneo del marco, el dron se acercó.

Desde mi experiencia jugando juegos FPS, esto permite un control extremadamente bueno. Agregue un cuadro más (16 ms) y todo se descompone. ¡No más tiros en la cabeza! Apuntar se vuelve imposible. Se siente como jugar consola FPS.

Además, para pilotar un dron (o apuntar en juegos FPS), la calidad de la imagen no importa mucho. El PAL analógico de mala muerte funcionará bien. En el pasado, en una PC vieja con poca potencia, si la configuración de calidad de imagen excelente producía 30 fps, todos configurarían las texturas en calidad "atari 2600" para obtener más cuadros por segundo. 30 fps no se puede jugar a menos que sea contra un oponente de computadora predecible.

Un problema similar en estos días es el retraso de audio con auriculares inalámbricos; Tengo un juego de ritmo en mi teléfono que es increíblemente difícil de jugar cuando uso una conexión Bluetooth porque la retroalimentación de la nota de audio está desactivada en comparación con cuando realmente toco la pantalla.
"El video digital está comprimido": no necesariamente. El video "NTSC" sin procesar, cuando se transmite a través de un enlace digital, es una señal de video digital. Además de la cuantificación y el procesamiento básico de la señal, como la limitación del ancho de banda, no está inherentemente comprimido.
Además, los cables HDMI generalmente se usan para transmitir datos de video sin comprimir.
@sleblanc: el ancho de banda ocupado de una conexión HDMI es un orden de magnitud mayor que el de una señal de video NTSC analógica. La compresión se usa en el video digital por aire por una razón.
Lo sé. peufeu parece implicar que todo el video digital está comprimido.
Sí. Si desea transmitir video digital decente a través de un enlace de radio de una manera práctica, que es el tema aquí, entonces tendrá que comprimirlo. De lo contrario no hay manera. Los requisitos de ancho de banda son demasiado grandes para ser prácticos. Y si cabe en el mismo ancho de banda que el video analógico y no está comprimido, entonces no será de mejor calidad que el analógico.
@JAB sí, los músicos en el escenario ejecutan sus instrumentos a través de procesadores digitales y experimentan los mismos efectos que usted, por ejemplo, un guitarrista se volverá loco si lo que escucha en sus auriculares es demasiado lento en comparación con lo que toca. El equipo está optimizado para la latencia más baja.

Eligen este protocolo porque es universal, por lo que puede usar diferentes accesorios de diferentes fabricantes. Además, lo eligen simplemente porque es más rápido y necesita menos potencia informática para decodificar la imagen. Y una tercera razón es que una señal digital es menos confiable en objetos que se mueven rápidamente donde se necesita una latencia baja.

Aunque estoy de acuerdo con los otros puntos, no entiendo cómo es posible que puedas decir que "la señal digital es menos confiable en larga distancia". La razón principal por la que se inventó la señalización digital fue para resolver los problemas de confiabilidad asociados con la analógica y poder transmitir y almacenar la información en cualquier lugar sin degradación.
@dim Por lo general, las señales digitales se envían mediante paquetes. Entonces, por ejemplo, enviamos un cuadro de la imagen y lo enviamos usando 10 paquetes de los que no se ha recibido un paquete. Y debido a la compresión que debe usarse para transmitir video de alta calidad, un paquete perdido puede afectar toda la imagen cuando en la transmisión analógica solo obtendrá algo de ruido o la imagen perderá su color, pero podrá ver lo que está pasando. .
Querías decir "paquete". Bueno, ahora entiendo. Pero debería reformular porque el término "larga distancia" era muy confuso. Si desea enviar una transmisión de video al lado opuesto de la Tierra ( esto es de larga distancia), seguro que me volvería digital. Porque simplemente no hay forma de transmitirlo convenientemente y sin degradación con medios analógicos.
Es común que los esquemas digitales simplemente se apaguen en presencia de una mala relación señal/ruido. Los pilotos de FPV exigen no solo una señal analógica, sino también un monitor que no sustituya una pantalla azul o negra cuando se recibe una señal débil, porque incluso una imagen cargada de estática puede ser suficiente para ver el horizonte y los obstáculos principales, y las intensidades de señal permitidas significan que los abandonos breves son muy frecuentes. Si ve imágenes de drones sin ruido, eso se grabó a bordo del avión; lo que el piloto realmente vio por el enlace de radio durante el vuelo fue mucho más ruidoso.

Ofrezco una razón adicional a las otras dadas (de estándares establecidos y extremadamente compatibles entre sí, conjuntos de chips maduros asequibles de bajo consumo, latencia, etc.)... una de robustez de la señal. Una señal de video analógica puede degradarse bastante antes de que ya no pueda ser recibida de alguna forma, o entendida en la medida suficiente para el control de vuelo (o revisión) por parte de un observador humano. El color puede perderse, el audio pierde todo significado, el nivel de ruido visual puede aumentar hasta el punto en que apenas hay una relación de contraste de 2:1 de señal significativa frente a "nieve", y la sincronización puede interrumpirse gravemente, lo que hace que la imagen se deteriore. oscile hacia arriba y hacia abajo con cada cuadro, y de lado a lado con cada línea, y siempre que el portador no se haya caído por completo, en general, aún puede encontrar algún sentido en la alimentación. Eso'

Mientras que el video digital... bueno, cualquiera que haya sido testigo de los primeros días de la transmisión OTA digital (o incluso si vive en un área que todavía tiene una señal débil) puede decirle qué tan rápido la señal se vuelve completamente inútil una vez que la fuerza y ​​​​la la calidad cae por debajo de un cierto nivel no particularmente bajo, a menudo sin mucha advertencia. En contraste con la degradación gradual "graciosa" de la televisión analógica, la diferencia entre una señal digital nítida y perfectamente visible y una que está tan corrupta que no tiene ningún sentido para el espectador (el esquema de codificación significa cualquier interrupción aleatoria al flujo de bits puede causar cambios masivos e impredecibles en la imagen decodificada) o fallar por completo en la decodificación puede ser bastante complicado. No es realmente una característica con la que quieras tener que lidiar si vuelas en modo FPV.

En otras palabras, la versión analógica le avisará en términos de degradación gradual de la señal si está llegando al límite de su rango utilizable, para que pueda retroceder en el tiempo. Uno digital puede pasar por encima del filo de la navaja en un par de segundos, pasando de claro y fluido a espasmódico y fragmentado hasta dejarte volando completamente a ciegas en menos tiempo del que puedes reaccionar a la señal fallida y girar el dron. La señal analógica puede tener una resolución inherentemente más baja y más ruidosa que la digital, incluso en el punto de despegue, pero la compensación puede valer mucho la pena perder la máxima calidad de video absoluta.

Otra parte es la interferencia del motor y la electrónica de control y las propias radios. A menudo hay artefactos visibles en la señal de video de las otras partes eléctricas del dron mientras está funcionando. Ese tipo de cosas solo causa algo de ruido visual y distorsión de sincronización en una señal de video analógica... pero podría causar que una digital falle por completo.

Por supuesto, puede agregar una gran cantidad de codificación de corrección de errores a la versión digital para probar y probar estos dos problemas, pero eso reduce el ancho de banda disponible para la señal real (lo que limita la resolución posible, así como la compresión). e incluso la velocidad de fotogramas) y agrega latencia adicional (que ya es un problema incluso sin EC) ya que la FEC típica se basa en la distribución de datos durante un período de tiempo más largo a través del flujo de datos continuo.

Además, los códecs de video digital más eficientes se basan en gran medida en técnicas de compensación de movimiento, delta y redundancia entre cuadros/temporales para reducir en gran medida la cantidad de datos que deben transmitirse para una calidad de percepción dada, especialmente para contenido de movimiento bajo. que es la parte más grande de la mayoría de los contenidos de TV y video grabado. Estos, por supuesto, se suman a la latencia en la ruta de video en vivo (no es realmente un problema para la transmisión de TV donde se acepta un poco de retraso, o para el video almacenado/transmitido donde los datos se almacenan rápidamente en el búfer antes de que comience la decodificación, pero es mortal para control remoto/aplicaciones de presencia)... y también significa que el contenido de alto movimiento, que es una parte bastante grande del metraje FPV, impone una carga inusualmente alta en el flujo de datos y el motor de compresión,

Por supuesto, los códecs de video de baja latencia utilizados para clientes ligeros y servicios de juegos de servidor remoto muestran que es posible tener una compresión de eficiencia razonablemente alta sin retraso suficiente para interferir con las reacciones de contracción, pero pertenecen a un mundo electrónico completamente diferente en general. Los enlaces de datos generalmente están cableados de extremo a extremo, o al menos hasta los últimos metros, usando transceptores que están conectados a la red eléctrica o usando baterías bastante pesadas que no se utilizan para transportar la máquina por el aire. . El decodificador es una pequeña parte de una pieza más grande de hardware informático no trivialmente potente y, más relevante, el codificador .(muy parecido al de una emisora ​​digital hace 20 años) es particularmente robusto para capturar la imagen de alta definición, procesarla y dispararla por el enlace de la red lo más rápido posible. Con el beneficio de algunos años más, podría ser posible construir un codificador de capacidad similar en la placa de control y transmisión de video liviana y de bajo consumo de energía de un dron FPV, así como un transmisor de flujo de datos que pueda mantener una tasa de bits lo suficientemente alta. una distancia significativa... pero en este momento hay una gran diferencia entre lo que se puede construir en una pequeña máquina voladora y lo que va en un servidor de alta gama en un centro de datos.

Por el momento, un codificador/transmisor SDTV simple, que ocupa tanto espacio (y tan crucialmente, peso) como una cerilla de una caja de cerillas de un club nocturno (la cabeza es el chip y el palo es la antena) y apenas consume cualquier potencia más allá de tal vez un par de docenas de milivatios para la transmisión en sí, puede alimentar una resolución baja (pero aún lo suficientemente "alta"), una velocidad de fotogramas suave, una imagen de latencia cero efectiva del sensor derivado del teléfono quemador similarmente diminuto (ambas partes son ridículamente baratas) al visor o al terminal FPV con suficiente fidelidad para ser útil a lo largo de varios cientos de metros. Ahí es donde nos ha llevado el estado del arte, y cuando lo piensas, ya es bastante impresionante, muy parecido a poder transmitir una grabación de alta definición a Youtube o Twitch con un par de segundos. la latencia de una computadora de mano es. Solo necesita avanzar un poco más para dar una imagen de mejor calidad mediante transmisión digital con una latencia adecuadamente baja y alta confiabilidad...