Parece que convertir MIDI en sonido debería ser lo suficientemente simple: grabe todas las notas posibles y luego simplemente superponga los sonidos individuales de acuerdo con los datos MIDI (compensaciones, duración y volumen), y comprima el resultado en MP3 o envíelo a la tarjeta de sonido. .
Sin embargo, los sintetizadores MIDI que probé ( timidity
en Ubuntu y algunos otros que no recuerdo) suenan distorsionados y, en general, mucho peor que las grabaciones MP3 de músicos reales.
¿Porqué es eso?
Actualización: acabo de probar Fluid Synth en Ubuntu, que usa alrededor de 100 MB de "fuentes de sonido", comprimidas. Parece ser mucho mejor, pero sigue siendo bastante malo.
MIDI es solo una especificación de qué instrumento (parche) usar, qué notas tocar, cuánto tiempo y con qué volumen tocar una nota y otras cosas como el tempo, el tipo de compás y la letra del texto. El concepto es muy similar a cómo funciona una vieja pianola. Los datos midi son como el piano roll, el sonido que escuchas proviene del sonido físico producido cuando los martillos golpean las cuerdas. Del mismo modo, la forma en que suena la música cuando se reproduce a través de la especificación MIDI depende de la calidad de los sonidos del parche. Incluso es posible conectar una conexión MIDI a una máquina que toca instrumentos acústicos físicos y que puede sonar muy bien. Del mismo modo, podría darte un conjunto de mi canto para cada parche de instrumento y sonaría horrible. Todo depende del conjunto de parches que tenga o del instrumento que haya conectado al secuenciador o controlador MIDI también.
Un ejemplo de cómo la calidad del sonido puede ser diferente es que en los años 90 había un juego llamado Doom II que usaba archivos MIDI para la música. Dependiendo de la tarjeta de sonido que tengas, el juego sonará mejor o peor debido a la calidad de los parches de instrumentos que incluye tu tarjeta de sonido. Incluso era posible conectar cables MIDI desde su computadora a un sintetizador externo y usar la síntesis de sonido allí. Una vez lo conectamos a un Kurzweil K2000 y fue como tener una banda en vivo tocando la música de Doom II mientras jugabas.
Como protocolo y formato de archivo, MIDI ha sido sorprendentemente hábil y ha requerido poca revisión durante los últimos 30 años o más. Aunque a principios de 2015, la Asociación de Fabricantes de MIDI anunció que se está desarrollando un nuevo "Protocolo HD" MIDI.
MIDI no es sonido. La especificación MIDI no dicta cómo suena un instrumento, depende del sintetizador generar el sonido. Los sintetizadores gratuitos suenan como una mierda, pero los buenos pueden sonar tan bien como los creadores pueden hacerlo. Por ejemplo, la banda sonora de Piratas del Caribe está completamente sintetizada, pero la mayoría de la gente ni siquiera se da cuenta.
MIDI es solo un flujo de instrucciones, como:
Hay un conjunto de convenciones tales como:
Esto se llama General MIDI ( Wikipedia ).
General MIDI se especificó más tarde que el propio MIDI. Los usuarios de MIDI son libres de usar cualquier instrumento en el canal 1. Ni siquiera tiene que controlar un instrumento: MIDI puede usarse para controlar luces o cualquier otra cosa.
Si obtiene un archivo MIDI de Internet, es probable que esté escrito para GM, pero a veces no lo es.
Imagine el caso más simple de un archivo MIDI: una grabación de una persona tocando una parte de piano en un teclado. Es un poco como hacer que un robot imite exactamente los movimientos de un pianista y luego poner el robot en el teclado de un instrumento diferente.
Si el robot está en un buen piano, probablemente suene bien. Es posible que este piano no tenga exactamente la misma respuesta de la velocidad de las teclas al volumen, por lo que la expresión sonará sutilmente diferente. Pero sonará bastante bien.
Si sienta al robot en un teclado de juguete, es probable que suene horrible. Un buen músico probablemente podría sacar un sonido decente de ese teclado de juguete. Pero aquí el músico ha "tocado" un buen instrumento y su entrada se ha movido a un instrumento diferente, por lo que no pueden tener en cuenta sus limitaciones.
Luego están todos los demás parámetros. ¿Qué efecto tiene la "modulación 127" en el sonido? ¿Cuánto cambia el tono "100 pitch bend"? Incluso cuando GM los especifica, no todas las implementaciones lo hacen bien.
Luego, multiplíquelo por una cantidad de instrumentos y tenga en cuenta que si estuviera masterizando su propia pieza musical, estaría modificando aspectos que GM no especifica, y se vuelve obvio por qué la reproducción MIDI puede sonar terrible.
Una "fuente de sonido" de alta calidad, el conjunto de cosas que traducen los eventos en sonidos, puede mejorar las cosas, pero incluso así no se alcanzan los estándares de una grabación profesional completa.
Muchos discos electrónicos están hechos completamente con instrumentos secuenciados MIDI, pero los músicos también están configurando cuidadosamente sus instrumentos y efectos para obtener el sonido que desean.
Es muy divertido enviar archivos MIDI a los sonidos integrados de la tarjeta de sonido más barata que pueda encontrar y tocar "adivina la melodía". O intercambiando instrumentos.
Parece que convertir MIDI en sonido debería ser lo suficientemente simple: registrar todas las notas posibles y luego superponer los sonidos individuales de acuerdo con los datos MIDI (compensaciones, duración y volumen), y comprimir el resultado en MP3 o enviarlo a la tarjeta de sonido. .
Y este tipo de pensamiento (es decir, el tipo equivocado) te da exactamente los resultados que escuchas.
En primer lugar, tiene dos problemas principales aquí.
una. Cadenas de sonido de mierda.
b. secuencias de mierda
Veamos por qué.
En instrumentos distintos al piano, no hay dos notas que suenen igual. decir, guitarra. Hay un millón de formas de cambiar el sonido de una nota en una guitarra. Elige entre púa, dedos, púas y tienes diferentes sonidos. Elige dónde trastear la misma nota y tendrás diferentes sonidos. - o registros.
Los instrumentos y efectos eléctricos de uso generalizado en la producción musical suelen ser no lineales. Si ingresa dos notas en un amplificador de guitarra saturado, la salida no será la suma de las notas individuales. Incluso los buenos pianos acústicos antiguos tienen la llamada resonancia simpática.
Aborda esto con una buena cadena ad hoc de instrumento + efecto, resolviendo el problema a, pero timidity
ni siquiera califica.
Digo ad hoc porque para jugar Limp Bizkit necesitas una configuración diferente a la que necesitas para jugar gospel, en la vida real y en la computadora también. Necesitas encadenar los efectos correctos, las muestras correctas, etc. No querrás reproducir tu parte midi agitada de Limp Bizkit con una muestra de caja piccolo, ¿verdad? Si desea hacerlo correctamente, también desea que sus instrumentos virtuales puedan interpretar los datos de articulación (posición de selección, etc.), generalmente alimentados a través de CC
. Esto es muy complicado. Tan complicado que, de hecho, la gente prefiere grabar una guitarra real.
Articulación y expresión. Incluso en algo comparativamente sencillo como un piano, un pianista real no toca de manera robótica como un secuenciador mal programado donde cada nota es exactamente 1/8, 1/16 y los glissandos o "bendings" son perfectamente lineales.
La gente que crea los archivos midifiles que puedes encontrar en Internet suele ser bastante perezosa y te proporciona transcripciones deficientes, donde incluso se omite la articulación trivial.
Si solo toma la salida de un secuenciador, la interpretación sonará robótica y sin expresión, como era de esperar, incluso si obtiene la articulación y la ornamentación correctas. Pero si graba las notas tocadas por un jugador real con, digamos, un teclado MIDI y una guitarra MIDI, los resultados serán muy diferentes.
Esto se encarga de b.
Y ahora estoy tirando la bomba, amigo.
La mayor parte de lo que escuchas en la radio en estos días es MIDI.
El equipo de grabación y edición utiliza MIDI y la mayoría de las pistas de acompañamiento están secuenciadas o grabadas a través de MIDI. Incluso el autoajuste de la pista de voz probablemente esté controlado por eventos MIDI.
Y si vas a un concierto en vivo, probablemente usen código de tiempo y eventos MIDI para impulsar el espectáculo de luces y la cadena de efectos en la pedalera del guitarrista.
La cosa es que Celine Dion no usa timidity
para sus pistas de acompañamiento y sus productores pasan algún tiempo en las secuencias.
Las fuentes de sonido gratuitas que normalmente se instalan con Timidity tienen una calidad muy variada. Enrutar la reproducción a través de algún expansor Midi antiguo de buena calidad mejorará en gran medida los resultados, enrutarla a través de alguna oferta razonablemente actual de buena calidad brindará algunas mejoras adicionales en un tamaño de hardware mucho más portátil. Naturalmente, las rutas analógicas involucradas aquí disminuirán la calidad nuevamente.
Puede mejorar un poco la acción de Timidity trabajando con otras fuentes de sonido y ajustando sus parámetros, pero en realidad no se compara.
Puede haber algunos expansores MIDI de software comerciales que hacen un buen trabajo, pero su vida útil esperada es mucho menor que la de los expansores de hardware (es probable que los expansores de hardware continúen funcionando en 20 años, los expansores de software no a menos que mantenga algo de hardware + OS con ellos ) y hay mucha variación en cuanto a precio y calidad. Y es probable que no se ejecuten en GNU/Linux, y pueden ponerlo nervioso con los esquemas de licencias/DRM.
Alimentar un buen expansor MIDI con buenos datos MIDI en realidad producirá un sonido que es bastante útil para varios propósitos (en parte dependiendo de en qué se especialice el expansor MIDI). Algunos instrumentos con controles continuos y "analógicos", como cuerdas solistas, son bastante difíciles de hacer de manera convincente, especialmente cuando no se usan controladores MIDI continuos (pedales analógicos, acordeón MIDI o instrumento de viento con sensor de presión, etc.): las secciones de cuerda funcionan mejor en ese sentido.
hay 2 posibles problemas aquí.
1) El archivo midi se crea directamente a partir de la partitura. cada nota comienza exactamente en el momento adecuado y dura la duración exacta y todas las velocidades de las notas son 100. Eso hace que la canción no tenga ningún sentimiento. Si tienes un músico que toca la canción con velocidades expresivas, variaciones de tempo, arreglos mejorados, entonces sonará mucho mejor.
2) El sintetizador que estás usando puede ser cojo. Timidity usa fuentes de sonido, creo. Esa es una tecnología bastante antigua en la que la frecuencia de muestreo no siempre es de calidad de CD, las muestras son bucles cortos y no hay muchas muestras por instrumento. Los softsynths modernos suelen tener una tonelada de muestras superpuestas por instrumento.
De todos modos, si eres músico, esa podría ser la única partitura que encontrarás de tu canción pop favorita. Encuentro esas cosas invaluables.
La música basada en MIDI será tan buena como su diseñador. No es que la calidad del sonido de la música basada en MIDI sea intrínsecamente mala; los resultados finales dependen de quien haya diseñado el MIDI y de quien lo esté usando. En otras palabras, si suena mal es por las personas involucradas. Incluso si usted no lo diseñó y solo lo está usando, usted es responsable de la calidad de salida, ya que usted decide qué dispositivo se usará con qué configuración.
Hay dos áreas distintas en el diseño de música MIDI:
El archivo MIDI. Si fue capturado, la calidad dependerá del ejecutante. Si fue programado la calidad dependerá del diseñador/programador. No hay sonido involucrado aquí (todavía), por lo que puede pensar en este paso como la calidad de la talla de las instrucciones que luego serán interpretadas por un dispositivo que entiende MIDI.
El diseño sonoro. Ahora las instrucciones deben ser interpretadas por algo como un sampler, una caja de ritmos, un sintetizador. La calidad aquí depende tanto del dispositivo que esté utilizando como de sus habilidades como diseñador de sonido.
Si no le gusta el resultado, algo salió mal en estos pasos.
No das muchos detalles, por lo que es difícil saber con certeza qué es lo que está mal en tu caso. No estoy familiarizado con Timidity, pero si es un sintetizador (sustractivo, FM, etc.) eres tú quien lo programa, por lo que la calidad de la salida es un reflejo de tu habilidad. Si Timidity es una muestra, tal vez las muestras sean de baja calidad. Tal vez la distorsión provenga del recorte, pueden ser muchas cosas.
No debería haber distorsión, así que intente usar un sintetizador de buena calidad y/o un muestreador de buena calidad con muestras de buena calidad.
Suenan 'mal' porque no son sonidos creados naturalmente. No son los sonidos de los instrumentos acústicos, que tienen una gama mucho más amplia de características en comparación con algunas frecuencias particulares que suenan en un momento determinado.
Todd Wilcox
Tetsujin
el.pescado - нет войне
Pedro es
gidds