¿Cómo medir o estimar el retraso de fase entre dos canales de entrada analógica de esta placa?

Hay una placa de adquisición de datos de 16 bits con un rango de +/-10 V que multiplexa las entradas analógicas y almacena los datos en la PC. Las especificaciones se dan aquí (DAS6036 es el modelo en cuestión).

Ahora necesito cuantificar midiendo o estimando el retardo de fase entre dos entradas analógicas de dos canales. Parece que la placa tiene un convertidor A/D que se multiplexa entre canales porque, en las características clave, el muestreo se menciona como multiplexado. Más detalles para el tablero se dan aquí .

Primero quería medir el retraso en el muestreo de 100 Hz entre Ch0 Ch7 y Ch13. Para hacer eso, configuré el generador de funciones en una onda sinusoidal de 1 Hz y dividí la salida del generador de funciones en tres usando tres cables coaxiales de la misma longitud y los acoplé a Ch0, Ch7 y Ch13.

A continuación se muestran 5 segundos de datos registrados:

ingrese la descripción de la imagen aquí

Y aquí si hacemos zoom podemos observar el retardo entre los canales:

ingrese la descripción de la imagen aquí

Ahora, la salida del generador de funciones está configurada en una onda triangular de 1 Hz y la frecuencia de muestreo vuelve a ser de 100 Hz (todavía podemos observar el retraso):

ingrese la descripción de la imagen aquí

Pero ahora, manteniendo la misma entrada, si aumento la frecuencia de muestreo a 4kHz, ya no puedo observar ese retraso:

ingrese la descripción de la imagen aquí

Al aumentar la frecuencia de muestreo, esperaba observar que se reducía el retraso. Pero como ven, la demora está un poco enterrada en el ruido.

Aquí están las preguntas que no pude resolver:

  1. ¿Qué podría estar pasando aquí que nos hace imposible observar el retraso de fase? ¿Existe una mejor configuración o método para medir dicho retraso en frecuencias de muestreo más altas?

  2. Si no podemos medir, ¿es suficiente estimar el retraso de fase usando las especificaciones? Aquí hay un extracto de este sitio :

ingrese la descripción de la imagen aquí

¿Cómo puedo concluir que el tablero en cuestión es pseudosimultáneo o espaciado uniformemente?

Respuestas (2)

Si bien el cambio de fase resultante probablemente se deba al multiplexor, esto se puede calcular a partir de los datos que tiene.

Dado que las formas de onda tendrán la misma frecuencia, puede multiplicar dos de las señales y aplicar un filtro de paso bajo (o media móvil) a la señal resultante para extraer la diferencia de fase.

Extracción de cambio de fase y ganancia de una información de serie temporal

Esto también es muy interesante. Lo intentaré mañana cuando tenga acceso. ¿Existe una regla general de corte de filtro de paso bajo? Si la señal de entrada es de 1 Hz, ¿cuál sería el ajuste de corte del filtro LP? O eso depende del ruido? Gracias
¿Es esto para posprocesar (es decir, tiene los datos como un CSV)? si es así, es mejor hacer un filtro de promedio móvil con una profundidad de muestra igual a su período. Si no desea hacer esto o esto es en tiempo real, es cuestión de configurar el LPF. Este método cambia la frecuencia al doble: 1 Hz -> 2 Hz. Necesita un filtro que atenúe esto de manera bastante significativa, por lo que podría ser 3dB a 0.2Hz. Sin embargo... si espera oscilaciones de fase, es posible que deba aumentar el corte para capturar esto. Entonces es cuestión de 2º, 3º, etc.... En el peor de los casos, elija el método de frecuencia cuádruple.

El retraso de fase observado es artificial, causado por el retraso en el muestreo por turnos debido a la reconfiguración del multiplexor y el tiempo de establecimiento de la muestra, es un artefacto del software que les da la misma marca de tiempo. Un mejor sistema de muestreo compensaría las marcas de tiempo.

A medida que aumenta la frecuencia de muestreo, el retardo de fase se reduce en el modo de muestreo " espaciado uniformemente ".

En el modo " pseudosimultáneo ", esperaría que el retraso de la muestra se mantuviera constante, como tal, podemos concluir que el muestreo interno está espaciado uniformemente, pero está presionando el dispositivo a su velocidad máxima para que la diferencia desaparezca.

En este caso, no hay nada mejor que seguir además de la especificación publicada y calcular la compensación de fase usted mismo (ajustando la marca de tiempo)


En el modo pseudosimulado, siempre muestrea a la velocidad más rápida, o a una velocidad mucho más rápida que su frecuencia de muestreo programada, y luego espera hasta el siguiente período de muestra, esto se hace a expensas del ruido para obtener una mejor sincronización.

El otro enfoque, el muestreo "espaciado uniformemente" es establecer la frecuencia de muestreo multiplicada por el número de canales para mejorar el rendimiento del ruido, pero a expensas de la sincronización.

A medida que aumenta la frecuencia de muestreo programada, estos dos enfoques pierden su diferencia, porque no puede muestrear más rápido que la frecuencia más rápida, en algún momento los períodos internos "espaciados uniformemente" se vuelven tan amplios como los períodos internos "pseudo-diferenciales".

También es posible que el dispositivo cambie de modo cuando la frecuencia de muestreo supere un umbral

Dado que está midiendo la compensación de fase interna, no es realmente fácil medir el retraso propio en un mejor grado que el que tiene, ciertamente puede compararlo con otro muestreo de ADC sin ciclos de canales.

"A medida que aumenta la frecuencia de muestreo, estos dos se vuelven iguales". ¿Qué dos se vuelven iguales? ¿Y qué quiere decir con "8 veces su tasa prevista"? ¿Quiere decir que debería establecer la frecuencia de muestreo en 8 veces la frecuencia de la señal de entrada?
Me refiero a la diferencia entre los dos modos de muestreo que menciona en su pregunta, en algún momento, cuando aumenta la frecuencia de muestreo, el espacio uniforme puede volverse tan corto como el espacio pseudo-diferencial. Edité la respuesta para que quede claro. Debe realizar un ajuste posterior en el software para corregir el retraso o la muestra a la velocidad más rápida y hacer un promedio de software para reducir el ruido, es una especie de ecuación equilibrada.
Perdón por ser tonto, pero "para establecer la frecuencia de muestreo multiplicada por la cantidad de canales". ¿Podría aclarar esto un poco más con este ejemplo mío aquí: si la señal de entrada es de 100 Hz y la frecuencia de muestreo es de 4 kHz? ¿Qué debo hacer si el número de canales es 16?
@panicattack suponiendo que no puede controlar el comportamiento interno de este producto de adquisición, este es un detalle oculto para usted. Como tal, necesita posprocesar sus datos, ya sea cambiar las marcas de tiempo para corregir los retrasos de ADC, o muestrear a la velocidad y el promedio más rápidos para obtener un mejor ruido. Solo puede controlar la frecuencia de muestreo macroscópica, la herramienta que está utilizando puede ocultar cómo configura el muestreo por turnos.