Precisión real de un ADC

Revisé bastantes hojas de datos de ADC y estoy un poco confundido con respecto a la precisión real alcanzable de un ADC.

Tomemos este ADC para este ejemplo (ADC MCP3422): http://ww1.microchip.com/downloads/en/devicedoc/22088c.pdf

Las especificaciones más importantes:

  • ADC de 18 bits (para 3,75 SPS, sin códigos faltantes)
  • Referencia de voltaje a bordo (VREF): Precisión: 2,048 V ± 0,05 %
  • INL: 10 ppm de rango de escala completa
  • ERROR DE GANANCIA 0,05 a 0,35 % (PGA = 1, incluye todos los errores de PGA y VREF integrados)Características eléctricas 2

Un amplificador de instrumentación proporcionará una señal en el rango de 0-2 V a este ADC (un solo extremo). Este ADC no usará el PGA (por lo tanto: PGA = 1) Al tomar solo la especificación 'Error de ganancia' puede estar fuera de hasta 0.35%, por lo que con respecto a la tabla de conversión que adjunto a continuación, ya produciría solo un ADC de 10 bits como máximo . No incluí todos los demás errores de las especificaciones que publiqué hasta ahora. ¿Lo estoy viendo de manera incorrecta y aún podría obtener una precisión decente de este ADC (bits útiles reales 14 = <)?

Gracias.

Factores de conversión de especificación

Me perdiste allá atrás compañero. Demasiadas preguntas y algunas especulaciones ociosas. Los detalles están bien, pero debe reducir las cosas a preguntas específicas y más importantes que terminen con un '?'. Tal como está ahora, es demasiado amplio para responder con unos pocos párrafos.
@Sparky256: Gracias por los comentarios. Traté de reducirlo un poco...
ENOB se calcula a partir de SNR, incluido el ruido aleatorio y la distorsión armónica. Por lo tanto, los errores de compensación y ganancia no se incluyen porque no afectan la SNR.
@analogsystemsrf: Entendido, gracias. Entonces supongo que ENOB no es el término que busco. Mirando la tabla que proporcioné (Factores de conversión de especificación), un error del 0.1% es 1 parte de 1000, por lo tanto, 1000 ppm. Entonces, ¿el error de ganancia de 0.35% haría que este ADC ya sea un ADC pobre de ~ 10 bits?
El error de medición total es un término que quizás desee investigar. El error de ganancia puede o no ser importante, depende de la aplicación.
Estás confundiendo resolución y precisión. Sigue siendo de 18 bits a menos que tenga ruido en su sistema. La precisión que está solicitando es muy difícil de lograr fuera de la caja. Probablemente necesitarás calibrarlo para que sea preciso.
@TemeV: Entonces, al calibrar, ¿podría obtener la precisión solicitada? ¿Cómo calibraría en mi caso? Supongo que acortando las entradas y aprendiendo el desplazamiento/valor inicial y compensándolo (ya sea agregándolo o restándolo) en el software después de que se haya digitalizado.
Por lo general, debe medir al menos la compensación y el error de ganancia, luego restar la compensación y multiplicar el error de ganancia. También puede haber no linealidad, por lo que probablemente necesite múltiples puntos de medición y luego forme una tabla de búsqueda para los valores de compensación. Luego está la deriva de temperatura... Todo depende de lo que estés tratando de lograr.
@TemeV: Supongo que aprendo estos valores aplicando un CORTO en la entrada del amplificador de instrumentación y luego verifico en la salida del ADC qué valores obtengo. Entonces compensarlo? ¿Cómo aprendería los valores para una tabla de consulta? ¿Alguna de las mejores prácticas? ¡Gracias!
Alimente señales conocidas y verifique qué valor muestra el ADC instrumentationtoolbox.com/2013/08/…

Respuestas (1)

Hay muchas situaciones de medición diferentes, tantas especificaciones diferentes de 'precisión'.

Puede que le interese la precisión total. Si tiene una referencia NPL 1v, ¿cuál es la peor lectura del sistema ADC? Cuando suma todas las posibles fuentes de inexactitud (error de referencia, compensación cero, error de ganancia, potencial de contacto en las entradas del sistema, etc.) puede verse muy mal.

Sin embargo, existen otras situaciones en las que algunos de estos términos de degradación de la precisión son irrelevantes. Es posible que le interese saber cuánto ruido propaga esa medición de 1v en unos pocos segundos (SNR) para que pueda calibrar y medir. Es posible que le interese cuánto cambia mes a mes (estabilidad a largo plazo). Le interesará si 2x esa entrada y 3x esa entrada se leen como 2x y 3x (linealidad). Puede que le interese la distorsión de alto orden en una onda sinusoidal de pequeña escala (monotonicidad y linealidad diferencial). Es posible que esté realizando una medición radiométrica (por ejemplo, en una báscula) donde el voltaje de referencia es irrelevante.

Dependiendo de la combinación de especificaciones, uno u otro ADC podría ser mejor para una aplicación en particular. Es por eso que los fabricantes escriben una hoja de datos tan completa (para los novatos, confusa). Comprenda su aplicación y qué especificaciones son relevantes, luego mírelas solo.

¡Gracias por su respuesta! Vamos a asumir la temperatura. y la deriva a largo plazo no es importante y mi ADC es bastante bueno con respecto a la linealidad. En ese caso, podría calibrarlo y compensar los errores/compensaciones de los ADC en el software, ¿verdad? ¿Aplicar un voltaje conocido en la entrada y ver qué valor digital obtengo, luego restarlo de mi valor final? ¿Alguna otra mejor práctica o consejo? ¿O me equivoqué?
Aplique dos voltajes diferentes y coloque una línea recta ay=mx+c entre ellos. Eso calibra la ganancia y la compensación al mismo tiempo. Si solo aplica un voltaje de calibración y ajusta uno desconocido, entonces tiene que hacer suposiciones (posiblemente infundadas) sobre el otro. Por supuesto, uno de sus conocidos podría ser 0v, por lo que ese y otro voltaje hacen 2. Si el ADC tiene una corriente de polarización de entrada significativa, entonces habrá una diferencia entre el circuito abierto y el cortocircuito '0v'. Si es así, use el ADC con la misma impedancia con la que lo calibra.