"Opus corta el audio por encima de 20 kHz": ¿es esto normal para los códecs de audio con pérdida?

Resumen:
1. ¿Es normal entre los códecs lossey?
2. ¿Cuáles son los efectos de esto específicamente cuando se maneja este archivo de audio 'cortado'?
3. ¿Por qué sigue guardando el archivo como 48 khz si ya no contiene esos datos? ++++++++++++++++++++++++++++++++++++++++++++++++++++++ +++
Estaba leyendo la wiki de Opus. Y las notas de fondo me llamaron la atención, principalmente: https://en.wikipedia.org/wiki/Opus_(audio_format)

Opus corta el audio por encima de 20 kHz, el límite superior generalmente aceptado del rango de audición humana.

Enumera frecuencias de muestreo muy específicas que también son compatibles con opus en esa página: 8khz, 12khz, 16khz, 24khz, 48khz

Entonces, si tengo la intención de usar opus como mi formato de audio, ¿significa que solo necesito grabar a una frecuencia de muestreo de 24 kHz? ¿Cualquier cosa por encima de 20 khz son solo datos adicionales para transformar la forma de onda antes de exportar? Entonces, ¿ninguna intención de transformar significaría que también podría grabar a 24 kHz?

No estoy demasiado familiarizado con los detalles de los códecs de audio, pero ¿es normal que los códecs corten una gama tan amplia de sonidos? Eso me pareció preocupante, dado que todos registran un mínimo de ~ 44.1 khz y, en general, 48 khz se usa bien. ¿Es mejor usar un códec 'lossey' diferente que opus si tengo la intención de editar/recodificar el audio nuevamente en algún momento? ¿O no habría una diferencia real entre la pérdida experimentada al editar y volver a codificar una obra y la pérdida al editar un aac/etc?

También estoy confundido por qué cuando vuelvo a codificar de un .wav f32 de 48 khz a opus, todavía se guarda como una frecuencia de muestreo de 48 khz. ¿No se han ido todos los datos por encima de 20khz...? Eso es confuso para mí. editar: bueno, supongo que cuando fusionas diferentes frecuencias de muestreo, suenan a diferentes velocidades, ¿por eso mantendría el formato original ...?

Y sí, soy consciente de que lossless es el formato ideal si tengo la intención de volver a codificar/editar en algún momento, pero por el bien del argumento, supongamos que tenemos que elegir entre formatos lossey (al menos para la exportación inicial, podemos transcodificar más tarde a sin pérdidas)

Respuestas (1)

Confunde la frecuencia de muestreo con la frecuencia de corte de audio. Si la frecuencia de muestreo es de 48 kHz, la frecuencia máxima absoluta que incluso teóricamente podría representarse con una señal de paso bajo es de 24 kHz (no me estoy metiendo en teorías de paso de banda ya que la banda subsónica de 20 Hz es demasiado pequeña para ser útil para transferir contenido de alta frecuencia). En la práctica, necesita más libertad de acción para evitar problemas de aliasing.

Por lo tanto, 48 kHz es una frecuencia de muestreo razonable para usar con señales que se cortan a aproximadamente 20 kHz. Ahora se pregunta si esto es habitual para los códecs de audio con pérdida. El principio de la codificación de audio con pérdida es descartar información que psicoacústicamente se supone que no es relevante. Dado que se supone que la audición humana está restringida básicamente al rango de 20 Hz-20 kHz, no sorprende en lo más mínimo que el rango por encima de 20 kHz no esté sujeto a codificación.

Si la frecuencia de muestreo de la fuente es inferior a 48 kHz, ¿hay algún avance en el uso de la misma frecuencia de muestreo para el objetivo? ¿Tal vez podría obtener un archivo más pequeño? ¿Cómo le dirías eso a ffmpeg?