Esta pregunta no tiene importancia práctica para una canalización de producción de video regular, pero es algo que encuentro fascinante porque implicaría que los códecs de video usan métodos de submuestreo temporal para reducir la tasa de bits, y esos métodos están controlados por la velocidad de fotogramas en el momento de la codificación. . Entonces, aquí va:
Supongamos que tengo un conjunto de imágenes sin pérdidas (como fotogramas escaneados en una tira de película) que quiero codificar con cierto algoritmo de compresión de video, como H.264. Suponiendo que los fotogramas dentro de la transmisión de video recién comprimida se descomprimirán más tarde y se reproducirán a la velocidad correcta extrayendo los fotogramas sin procesar y no reproduciéndolos en un reproductor normal , la velocidad de fotogramas especificada en la que codifico esas imágenes no debería importa en absoluto a la calidad general de cada cuadro individual, dada una configuración de calidad constante. ¿O es eso?
Tiene sentido pensar que los códecs modernos usarían alguna forma de estimación temporal más gruesa cuando las velocidades de fotogramas son más altas, debido al hecho de que el efecto de fluctuación de la compensación de movimiento podría suavizarse en varios fotogramas, a diferencia de un video de baja velocidad de fotogramas donde los artefactos de movimiento y cuantificación se volverían mucho más notorios.
Si esto fuera falso, también implicaría que, si quisiera transmitir más datos/mayor calidad en un medio con una tasa de bits restringida, como YouTube, simplemente podría volver a codificar mi video con la mitad de la tasa de cuadros y pedirles a los usuarios que lo reproduzcan. al doble de la velocidad, ya que el límite de tasa de bits se duplicaría sobre el video de velocidad normal (menos cualquier problema de audio).
Todavía no he realizado ninguna prueba científica, pero antes de profundizar en el análisis de datos (y tratar de encontrar un corpus de video sin pérdidas para hacerlo), me gustaría preguntarle a la comunidad si se han realizado experimentos al respecto.
Esto depende del codificador específico y el estándar de compresión, por sí mismo, puede no tener nada que decir al respecto.
x264, que codifica en H.264, tiene en cuenta la duración del cuadro en su algoritmo de control de velocidad.
Desde el código fuente (mi énfasis):
Ratecontrol reduce la calidad relativa a velocidades de fotogramas más altas y lo contrario a velocidades de fotogramas más bajas; esto sirve como el centro de la curva.
donde this
se refiere a la duración del cuadro para los fps predeterminados de 25.
Esto se ve agravado por la configuración de los tamaños de búfer, importantes para la transmisión en red o los reproductores de hardware, y que se definen en términos de duración de los medios, no de recuento de fotogramas.
MVittiS
gian
alexis wilke