Quiero preguntar, al elegir la resistencia para un LED, cómo elegir la potencia de la resistencia (por ejemplo, en aplicaciones SMD).
Por ejemplo:
Con esta configuración, tengo 20 mA a través de la resistencia. Ahora, el LED disipa 0.04W. ¿Cómo puedo elegir correctamente la potencia nominal de la resistencia?
¿Debería referirme a la potencia del LED de 0.04W y elegir una resistencia de al menos 1/20W? ¿O consulte la corriente a través de la línea (3,3 V * 0,02 A = 0,066 W) y elija una resistencia de al menos 1/10 W?
¿Debo aplicar un factor de seguridad?
Conoce la corriente a través de su resistencia y el valor de su resistencia, por lo que puede calcular la potencia disipada por la resistencia (la ley de Ohm vuelve a aparecer):
Entonces, en su caso, serían 0.026 W o 26 mW.
Sin embargo, al elegir la potencia nominal, no consideraría solo el punto de funcionamiento normal, sino el peor de los casos.
Entonces, el peor de los casos sería que su fuente de alimentación fallara con un voltaje más alto y el LED fallara como un cortocircuito, en ese caso, la resistencia está disipando la mayor cantidad de energía.
Bueno, por lo general, no considera que ambos sucedan al mismo tiempo, pero también puede hacer ese cálculo.
Si el LED falla como un cortocircuito, la corriente aumentará y la resistencia se disipará (ley de Ohm una vez más):
Con sus números: 167 mW.
Lo siguiente a considerar es lo que realmente significa cuando un fabricante le dice "esta resistencia puede manejar 250 mW".
Este valor le dice que la resistencia se calentará una cierta cantidad si le pasa 250 mW. Digamos 60 K (me lo estoy inventando ahora mismo). Por lo tanto, su resistencia se calentará bastante en caso de que falle el LED. ¿Es su dispositivo capaz de manejar eso de manera segura? No sé.
La disipación de energía a menudo también se reduce por temperatura, por lo que a temperaturas elevadas, su resistencia solo puede disipar una potencia más baja. ¿Esto limita su aplicación? No sé.
Eugenio Sh.
nick johnson
pedro bennett