¿Resolución ADC vs Precisión de medición de señal?

Quiero obtener una precisión del 0,1 % en la siguiente medición de señal analógica: voltaje de CA en el rango de 0-300 V (0,1 % = 300 mV)

Entonces, ¿cuál es el número mínimo de bits o resolución de ADC que puedo usar?

Mi entendimiento es el siguiente:

Si uso ADC de 16 bits, obtengo:

300/65536 => 0,0045 => 0,4 ​​%

Así que necesito un ADC con una resolución superior a 16 bits.

¿Es correcto mi entendimiento en este cálculo?


Editar: agregando más detalles:

Quiero hacer todos los cálculos basados ​​en casos ideales solo en este momento. No estoy preocupado por la frecuencia de la señal, la frecuencia de muestreo o los problemas de suministro de energía del diseño en este momento.

Si también necesito usar el mismo ADC para las siguientes mediciones de señal con una precisión del 0,1 %: Corriente (CC y CA) en el rango de 0-50 A. (0,1 % = 50 m A) Resistencia en el rango de 0f 0-10 MOhm. (0,1% = 10k ohmios)

Entonces, ¿qué factores de conversión adicionales tuve que incluir en mis cálculos?

Por ejemplo, ¿cómo afectará mi cálculo cuando convierta una señal de corriente o una señal relacionada con la resistencia en voltaje para alimentar mi ADC?

¿Puede un ADC de 16 bits cumplir con el requisito de diseño de precisión del 0,1 % en todas las mediciones anteriores de V, A, R?

¿Puede compartir un esquema que muestre el ADC y el circuito de preacondicionamiento?
Esta es una pregunta tan compleja que preocuparse por el ADC ahora parece prematuro. Primero diseñe el hardware (muy complejo) que necesitará para cada una de esas medidas y luego evalúe sus necesidades de ADC a la luz de sus opciones de diseño. Pero sí, al menos en papel, un ADC de 10 o 12 bits es lo que necesitas.
Preste atención a las unidades y detectará los errores más fácilmente. 300 V/65536 = 0,0045 V = 4,5 mV. O resolución como % FS = 1/65536 = 0.000015259 = 0.0015% (adimensional)
Tus números simplemente no tienen sentido. Una resolución del 0,1% (de cualquier cosa) es solo 1 parte en 1000, que solo requiere 10 bits si asume que todo es ideal. Creo que estás confundiendo las unidades y los porcentajes.

Respuestas (3)

300/65536 => 0,0045

Acabas de calcular que si todo es ideal, medir una señal de 300 V con un ADC de 16 bits da una resolución de 4,5 mV.

Anteriormente dijo que deseaba una precisión de 300 mV, por lo que esta resolución es más que suficiente para lograr la precisión deseada.

Sin embargo, la resolución es solo uno de los requisitos para lograr su objetivo de precisión. También debe tener cuidado con la precisión inicial de su ADC y cualquier circuito de preacondicionamiento utilizado, así como el rechazo de la fuente de alimentación, cualquier fuente de interferencia, cualquier deriva térmica, etc. Dependiendo de la frecuencia de su señal, es posible que deba preocuparse por la respuesta de frecuencia. de su sistema y cualquier deriva.

En principio, un ADC de 10 bits dará una resolución de alrededor del 0,1 % de la escala completa, pero para asegurarse de que el error de discretización sea solo una pequeña parte de su presupuesto de errores, recomendaría usar un ADC de 14 o 16 bits para esto. proyecto.

He agregado algunos detalles más en mi publicación. ¿Puedes comentar de nuevo?

Generar un presupuesto de errores.

  • para cada divisor de voltaje

  • para cada amplificador operacional

  • para cada regulador de conmutación que inyectará basura en el suelo y en los rieles

  • conozca el PSRR para cada opamp, en las frecuencias de llamada de switch_reg

  • basura inyectada, desde line_voltage switch_regs que se acoplan electrostáticamente (corrientes de desplazamiento) en sus divisores de voltaje de alta impedancia

  • cómo configurar inicialmente las cadenas de señales para que sean "precisas" (es decir, calibradas)

  • con qué frecuencia volver a examinar la calibración.

  • ¿Debe permanecer el sistema al 0,1% o más durante 40 años en órbita?

Su objetivo del 0,1 % (¿alguien MUERE si no se cumple? ¿O simplemente aparece un parpadeo del dígito menos significativo en una pantalla?) se puede cumplir con un ADC de 10 bits, pero requiere un presupuesto de error extremo para todas las demás fuentes de error.

Por lo tanto, 12 bits o 14 bits (con la especificación de estabilidad de temperatura en la hoja de datos de ADC) es más razonable.

"Quiero obtener una precisión del 0,1 % en... Entonces, ¿cuál es el número mínimo de bits?"

Necesita un error por debajo de 1 parte en 1000. Eso se puede hacer suponiendo un ADC perfecto, con 500 pasos colocados correctamente, de modo que ningún paso esté a más de 1/1000 del valor real de la señal.

Así que seleccione N el no. de bits para dar al menos 500 pasos: entonces el MÍNIMO es N = 9 dando 512 pasos.

Ahora nada es perfecto por lo que un mínimo práctico sería de 10 bits, 1024 pasos. Luego, con un ADC perfecto de 10 bits, la brecha entre pasos es de aproximadamente 0,1 %, por lo que nunca estará a más de 0,05 % (0,5 LSB) de distancia de un paso.

Necesita que esos pasos estén correctamente espaciados: busque un ADC con INL y DNL (no linealidad integral y diferencial) mejor que 0.25 o 0.5 LSB. Esto describe los tamaños de paso reales, que pueden estar a 0,25 o 0,5 LSB (0,025 % o 0,05 %) del valor de paso perfecto.

Esto también supone que puede asignar el rango de 0 a 300 V al rango de entrada del ADC (por ejemplo, 0 a 5 V), con un atenuador preciso.

Entonces, si puede eliminar otras fuentes de error, SOLO puede cumplir con su objetivo de precisión (presupuesto de error) con un ADC de 10 bits.

Puede haber buenas razones económicas para usar un ADC de 12 bits y simplificar el resto del presupuesto de errores.