¿La decisión de diseño para diferentes frecuencias en PAL y NTSC está relacionada con la frecuencia de alimentación de la red de CA?

En la discusión, un amigo mencionó:

En la implementación original de PAL y NTSC, utilizaron la corriente alterna como un medio para proporcionar la frecuencia para el televisor. Como las diferentes redes tenían frecuencias diferentes, diseñaron el estándar de TV para tener frecuencias diferentes.

No estaba seguro de esto, así que quería comprobar.

Mi pregunta es: ¿La decisión de diseño para diferentes frecuencias en PAL y NTSC está relacionada con la frecuencia de alimentación de la red de CA?

Respuestas (3)

Sí, está relacionado.

En las primeras implementaciones de TV, no era fácil eliminar toda la ondulación de la línea de CA de los circuitos de alimentación de CC que impulsaban el CRT, y esto resultó en una ligera variación en la intensidad de arriba a abajo. Se encontró que si la frecuencia vertical de la señal de TV era la misma que la frecuencia de la línea eléctrica, estas variaciones de intensidad aparecerían en la misma ubicación en cada barrido vertical, haciendo que efectivamente "se detuvieran" en la pantalla, y esto fue mucho menos objetable que tenerlos a la deriva hacia arriba o hacia abajo.

También hay fuentes de ruido de RF que están relacionadas con la frecuencia de la línea de alimentación, y los artefactos visuales causados ​​por ese tipo de ruido también se quedan quietos en la pantalla.

Además, la sincronización de línea congela la distorsión de la imagen causada por los campos magnéticos de los conductores de alimentación cerca del televisor.
La "filosofía" ahora es sincronizar cuadros y líneas con la principal, a través de un circuito PLL para TV de la UE.

PAL y NTSC son sistemas de codificación de color y no están necesariamente relacionados con las frecuencias de exploración horizontal y vertical.

La elección de hacer que las frecuencias de barrido vertical fueran iguales a la frecuencia de la línea eléctrica local fue hacer que la perturbación de la imagen debido al filtrado deficiente de la fuente de alimentación y los campos magnéticos de la corriente eléctrica fuera menos evidente. Con la misma frecuencia de la línea de alimentación y la frecuencia de exploración vertical, cualquier perturbación de este tipo sería estacionaria en la pantalla y, por lo tanto, sería menos perceptible que si la perturbación estuviera rodando por la pantalla, como sucedería si las frecuencias fueran diferentes.

Desde que se adoptaron los estándares de transmisión en color NTSC, la velocidad de fotogramas ya no es de 30 fotogramas (1/2 de la frecuencia de línea) por segundo, sino de 30/1,001 (aproximadamente 29,97) fotogramas por segundo, para reducir la interferencia que se ve en los televisores en blanco y negro entre el señal de color y la portadora de FM para audio.
@tcrosley Siempre supuse que la frecuencia estaba bloqueada en la línea local (por ejemplo, las cámaras de seguridad hacen esto). La frecuencia de la línea varía, pero hay beneficios de estar bloqueado durante la grabación y nuevamente bloqueado durante la reproducción en el aire. Supongo que si es un reloj de cuarzo, el latido sería muy lento, decenas de segundos, por lo que podría no ser visible de todos modos. ¿Sabes si usa Line o se genera internamente ahora?
No, no utilizan la frecuencia de línea, debido a la diferencia entre 1/29,97 y 1/30 de segundo por cuadro. Consulte este artículo sobre el código de tiempo SMPTE drop frame para obtener más información. Se supone que los relojes de grabación y reproducción tienen exactamente la misma frecuencia. En los estudios de televisión, el código de tiempo es generado por un generador de sincronización maestro, vinculado a un estándar de reloj atómico. Las cámaras portátiles pueden usar generadores de código de tiempo usando cristales de temperatura controlada. Un nuevo desarrollo es hacer uso de receptores GPS ya que las señales GPS tienen una precisión de ±10 ns.
"Siempre supuse que la frecuencia estaba bloqueada en la línea local (por ejemplo, las cámaras de seguridad hacen esto)". Me imagino que las cámaras de seguridad simplemente ignoran todo el problema de los fotogramas eliminados, ya que era para garantizar la compatibilidad entre las transmisiones en blanco y negro y en color. Supongo que los sistemas de seguridad son en blanco y negro o en color y, en cualquier caso, pueden funcionar a 30 fps.
La primera estación de televisión en la que trabajé tenía un generador de sincronización maestro que sí tenía provisión para conectarse a la línea de alimentación de CA, pero era para uso monocromático. Los generadores de sincronización de color para NTSC funcionaban con un cristal de 14,31818 MHz (cuatro veces la frecuencia de la subportadora de color). No me sorprendería que los generadores de sincronización actuales estén controlados por un estándar de frecuencia bloqueado por GPS. Esperaría que las cámaras de circuito cerrado/de seguridad en color tuvieran osciladores de cristal de 14,31818 MHz (pero eso es solo una suposición).
Dudo que en realidad se bloquee a la frecuencia de línea, aparte de como referencia para el circuito de temporización en su conjunto. La frecuencia de CA de la red eléctrica no es absoluta, no mantiene los 50 o 60 hercios sólidos como una roca, pero varía en el transcurso de un día en respuesta a la carga de la red, la energía del generador disponible, etc., y las compañías eléctricas simplemente intentan mantenerla dentro de aproximadamente 1 % del valor nominal instantáneamente (si se desvía más que esto, la red eléctrica tiene problemas y algunos SAI incluso activarán un apagado de protección en respuesta) y un promedio exacto de 50/60 durante 24 horas para mantener los relojes alimentados por la red sincronizados día a día. hoy.
Si bien eso todavía significaría que una red nacional integrada podría mantener sincronizados el estudio de transmisión y el receptor, todavía hay muchas razones para evitarlo. Por un lado, las redes no necesariamente están completamente sincronizadas a nivel nacional y podrían segmentarse (y mucho más durante los primeros días de la televisión que en la actualidad). El retraso de la propagación de la radio es lo suficientemente largo en comparación con el tiempo necesario para escanear una línea como para que la imagen se vea fantasma debido a las rutas múltiples y los reflejos, por lo que sin duda podría ser suficiente para desincronizar la imagen con respecto a la línea de alimentación, especialmente porque la propagación del cable es más lenta que la de la red. El aire
Y si bien puede haber estado bien para la transmisión en vivo, no sería bueno para el telecine de los noticieros, y más tarde para las grabaciones en cinta de video, donde debe bloquear la transmisión a cualquier velocidad que provenga de los medios pregrabados y qué tan rápido la máquina de telecine o un reproductor de cintas (que construiría para funcionar lo más cerca posible de 50/60 Hz, pero probablemente no podría garantizarlo, especialmente para convertir películas de 24 fps en áreas de 60 Hz).
Todos estos y probablemente más son los motivos por los que, incluso si el equipo del estudio se haya sincronizado con su propio suministro de CA local (un argumento particularmente sólido a favor de la sincronización, en lugar de simplificar los circuitos de la cámara/receptor, es que las cámaras se sincronicen con la alta luces de estudio eléctricas alimentadas, a veces basadas en arco y evitan la luz estroboscópica), la sincronización real en el extremo del receptor se basa en pulsos de sincronización incrustados en la señal de video en sí que significan no solo el final de cada cuadro sino también cada línea, así como lo que se entrelaza El campo es el siguiente, restableciendo el tiempo casi 16000 veces por segundo.

La respuesta de Dave Tweed es en gran parte correcta. Pero no fue solo la ondulación de CA en los circuitos de alimentación de CC lo que causó la variación. Los circuitos de señal en los primeros televisores usaban tubos (también conocidos como válvulas). Los cátodos generalmente tenían un filamento calentador que a menudo funcionaba con CA de bajo voltaje (generalmente alrededor de 6 V). Esto provocó que la temperatura del cátodo y, en consecuencia, la ganancia del tubo tuvieran alguna variación al doble de la frecuencia de la línea de alimentación (la potencia del calentador varía con el cuadrado del voltaje de CA, por lo tanto, la frecuencia duplicada).

Pero si eso implica una ondulación de 100 o 120 Hz, ¿no significaría eso, por ejemplo, una banda oscura en el medio de cada campo de 50/60 Hz y dos brillantes cerca de los niveles de 1/4 y 3/4 (o viceversa?) . etc)? Todavía menos objetable que las bandas rodando / parpadeando más rápido que quizás una o dos veces por minuto, pero aún así es muy obvio y molesto. Parece algo que tendría que arreglarse durante el desarrollo inicial y el refinamiento de ingeniería del hardware del receptor (y la cámara), por ejemplo, con una copia invertida y atenuada de la corriente de accionamiento del calentador para modular la salida del tubo...
Como dudo que la idea de la regulación de voltaje impulsada por retroalimentación hubiera sido ajena a los ingenieros incluso en los primeros días de la electrónica. El moderno regulador de semiconductores LM puede miniaturizar los circuitos necesarios y facilitar su configuración, pero la idea detrás de esto es bastante trillada. Y, además de eso, ya tenían condensadores... ((Quiero decir... No digo que no fuera el caso, ya que parece que hablas por experiencia... simplemente suena bastante innecesario y evitable incluso con tecnología de la época))
El efecto de la ondulación en los filamentos del calentador pasó efectivamente a través de un filtro de paso bajo por la inercia térmica de la bobina del calentador, por lo que no fue tan malo.