Estoy trabajando en un sistema con un sensor de distancia. A medida que aumenta la distancia, el voltaje de salida disminuye. (Fig. 2 Página 5: http://www.farnell.com/datasheets/1657845.pdf?_ga=1.97138143.1773643066.1472611965 )
¿Es mejor dejar que el ADC "lea" el voltaje bruto o debo amplificarlo cuando el voltaje de salida es demasiado bajo? (y considere la amplificación en el software)
Editar :
¿Cómo es posible saber la distancia cuando la salida es de 1v? (Tanto 2 cm como 27 cm coinciden con este voltaje)
¿Alguna idea? ¿O debería evitar el escenario de un objeto a menos de 10 cm de distancia?
Debe decirnos cómo se utilizará el dispositivo antes de que alguien pueda responder esto de manera significativa.
Tienes 0.5V de cambio en el rango del dispositivo. Esta es una cantidad significativa para un A/D de 10 bits, por lo que no necesitaría amplificar si estuviera tratando de diferenciar entre el extremo inferior y el extremo superior del rango de distancia.
Suponiendo que la salida es lineal con la distancia, si estuviera tratando de resolver 1 mm de movimiento, el cambio de voltaje sería de 0,5/700 o 0,7 mV. Esto es demasiado para esperar que lo maneje un A/D de 10 bits, y necesitaría amplificación.
Suponiendo una referencia de 5 V, 1 LSB en un A/d de 10 bits es un poco menos de 5 mV. Un cambio de 1 cm en su dispositivo provocaría un cambio de unos 7 mV. Entonces, si está tratando de resolver 1 cm, esto todavía lo está empujando. Recomendaría una amplificación de aproximadamente un factor de 4 (más de eso corre el riesgo de saturación). Obviamente, necesitaría eliminar las compensaciones para poner su señal en el rango de 0-5V.
Si está tratando de resolver 10 cm, probablemente no necesite amplificación
M. Ferru