Estoy a punto de diseñar un nuevo proyecto basado en un microcontrolador. Revisé todos los componentes (pocos) y todos pueden funcionar a 3.3V o 5V. el microcontrolador en sí también puede funcionar a 3,3 V o 5 V (pic micro con un oscilador de solo 4 MHz).
Bueno, la pregunta es, ¿cuáles son las ventajas/desventajas de usar 5V como suministro positivo sobre el uso de 3.3V?
Todo lo que puedo pensar es que el consumo de energía será menor cuando el voltaje de suministro sea de 3.3V
Muchas gracias
Bueno, también está la susceptibilidad al ruido de su circuito, que será menor si usa 5V (necesita niveles de ruido más altos para perturbar un circuito de 5V).
Algunos componentes tienen un rendimiento analógico muy diferente según el voltaje de suministro, si usa un amplificador operacional, el voltaje de modo común o la diferencia de voltaje necesaria de los rieles puede ser un punto a tener en cuenta y ayudar a decidir cuál es mejor para usted. Entonces, incluso si todos sus componentes funcionan a 3,3 V y 5 V, es posible que su circuito no haga lo que espera si cambia el voltaje.
@Passerby mencionó que 5V es un estándar de facto debido a USB. Sin embargo, debe tener en cuenta que si necesita un voltaje de suministro estable, el USB es algo malo para usar directamente.
El USB en realidad permite una gran variedad de voltajes en su dispositivo, detrás de un concentrador pasivo pueden ser tan bajos como 4V y pueden llegar a 5.25V. Entonces, en ese escenario, es mejor usar 3.3V con un regulador de voltaje en su tablero.
La frecuencia operativa máxima de su controlador también podría depender, como se señaló, del voltaje de suministro. Aunque los controladores más nuevos funcionan con voltajes mucho más bajos internamente (como 1.2-1.8V) y ya no tienen una dependencia entre la frecuencia y el voltaje externo (como la serie STM32).
Y, por supuesto, el consumo de energía, ganará mucho al pasar de 5 V a 3,3 V. Solo usa el 66% de la potencia en un caso estático y solo (3.3 ^ 2/5 ^ 2) = 44% para el caso CMOS dinámico (su beneficio real estará en algún punto intermedio). Pero si eso es realmente beneficioso (a escala global lo es) o si es necesario depende de su situación de suministro y la corriente que necesita. Podría suceder que si baja a 3.3 V, su suministro se vuelve menos eficiente y la energía que ahorró se desperdicia en la menor eficiencia dándole la vuelta (no debería pero podría).
Otro punto válido mencionado por Paul en un comentario a continuación es que si se conecta a algunos dispositivos heredados, es posible que necesite 5V. Algunos microcontroladores ofrecen los llamados pines tolerantes a 5 V, pero solo pueden aceptar entradas de hasta 5 V (a menudo solo en modo digital). La salida está limitada a VDD, por lo que necesita un cambiador de nivel si el dispositivo heredado no acepta los 3,3 V como nivel alto. Que puede ahorrar si usa un controlador nativo de 5V.
Transeúnte