¿La resistencia o el voltaje son más efectivos para reducir la pérdida de energía?

Comúnmente se afirma que aumentar el voltaje de la fuente reduce la pérdida de energía. Si el voltaje de la fuente aumenta, la corriente a través del circuito aumenta, lo que resulta en una mayor pérdida de energía (que con menos voltaje) a través del componente y también a través del cable.

PAG = I 2 R

Para reducir la pérdida de energía a través del cable, necesitamos menos corriente a través de él. Si aumentamos la resistencia del componente, ¿no podemos reducir efectivamente la pérdida de energía a través del cable? (Como la caída en la pérdida de energía a través del componente es menor que a través del cable)

¿Estás usando una resistencia externa en tu circuito?
No entiendo lo que estás tratando de hacer. Para la transmisión de energía eléctrica, los transformadores se utilizan para aumentar el voltaje en el extremo de la fuente y disminuir el voltaje en el extremo de la carga. Esto reduce la corriente a través de los cables de transmisión largos y, por lo tanto, la potencia perdida por la resistencia en esos cables. ¿Estás pensando en otra cosa?
¿Está preguntando sobre la pérdida de energía en un circuito de distribución de alta tensión o la pérdida de energía en un circuito "normal", como un circuito en su casa?

Respuestas (5)

Si aumentamos la resistencia del componente, ¿no podemos reducir efectivamente la pérdida de energía a través del cable?

Esto es lo mismo que decir que diseñe el componente para que funcione con corriente baja de alto voltaje, que es exactamente lo que hacemos en las líneas eléctricas de alto voltaje.

Sin embargo, parece confuso a lo largo de su pregunta. Comienza a confundir la potencia entregada a la carga como potencia desperdiciada en la carga.

También habla de aumentar la resistencia de los componentes después de aumentar el voltaje para disminuir la pérdida de energía en el cable debido al aumento de corriente del voltaje más alto. Esto de pensarlo de la manera equivocada. Si tengo una carga de 100 W que funciona a 50 V a 2 A y quiero reducir las pérdidas en el cable, rediseño la carga para que tenga una resistencia más alta para que pueda producir la misma potencia con una corriente más baja. Eso significa que el voltaje debe ser mayor. Aumenté la resistencia porque eso es necesario para mantener la misma potencia de carga funcionando con una fuente de voltaje más alta.

Tomando la resistencia del alambre como r y la resistencia externa utilizada en el circuito R , entonces la resistencia total del circuito es R + r .

Ahora bien, si el voltaje suministrado es V entonces la corriente en el cable es

I = V R + r .

Ahora la pérdida de potencia total en el circuito es

I 2 R + I 2 r = V 2 ( R + r ) 2 ( R + r ) = V 2 R + r .

Entonces, al disminuir la diferencia de potencial a la mitad, la pérdida de potencia será un cuarto. Y aumentar la resistencia externa conducirá a una disminución de la corriente en el circuito, pero la caída en la pérdida de potencia será menor que en el caso anterior.

¿No es solo la potencia disipada por la resistencia del cable? r que normalmente se considera una pérdida de energía? La potencia entregada a la carga (para hacer algo útil, por ejemplo, generar luz) es menor que la potencia entregada por la fuente debido a la potencia perdida por la resistencia del cable.
@Alfred Centauri, la resistencia externa también contribuye a la pérdida de energía si está conectada al cable.

No está claro exactamente lo que estás preguntando. Pero si está preguntando si la fuente de voltaje o la resistencia tienen un efecto mayor en la disipación de potencia, entonces la forma de la ecuación de potencia que debería estar viendo es

PAG = V 2 R

Supongamos que la fuente de voltaje V es una batería conectada a través de la resistencia R . Supongamos además que la resistencia interna de la batería es insignificantemente pequeña en comparación con cualquier valor de R deseamos considerar.

De la ecuación vemos que la disipación de energía varía inversamente con la resistencia a través de la batería mientras que varía como el cuadrado del voltaje terminal de la batería V . Por lo tanto, una disminución en el voltaje da como resultado una mayor reducción en la disipación de energía que un aumento en la resistencia.

Si esto no es lo que quería saber, hágamelo saber y eliminaré mi respuesta o la revisaré.

Espero eso ayude.

Si aumenta el voltaje de la fuente, [entonces] aumenta la corriente a través del circuito...

En realidad lo entendiste exactamente al revés.

El problema es que malinterpretas el contexto en el que "aumentan el voltaje". No están hablando de aumentar el voltaje en algún circuito existente que alimenta, por ejemplo, alguna bombilla existente. Están hablando de modificar el diseño de un sistema de distribución de energía.

Suponga que desea entregar 100W a una bombilla. Si diseña un sistema en el que las bombillas esperan una fuente de alimentación de 10 V, entonces tendrá que suministrar 10 A para encender la bombilla. Pero si diseña el sistema para operar a 100V, entonces solo tendrá que suministrar 1A. "Subir" el voltaje de diseño le brinda un sistema en el que se necesitará menos corriente.

Comúnmente se afirma que aumentar el voltaje de la fuente reduce la pérdida de energía.

Allí se habla específicamente de potencia perdida en la red de distribución. Los cables que distribuyen la energía tienen resistencia. Es pequeño, pero es suficiente para importar. Suponga que el cable que conecta su bombilla a la estación generadora tiene 1/10 de ohmio de resistencia. Si el sistema suministra 1 A de corriente a su bombilla, entonces 1/10 de vatio ( 1 2 × 0.1 ) se "perderá" en el cable. Pero si su sistema necesita suministrar 10A a la bombilla, entonces la pérdida será 10 2 × 0.1 o 10W.

La red de distribución que utiliza 10 × el voltaje tiene solo 1/100 del I 2 R pérdidas.

PD: Este es exactamente el problema por el que Thomas Edison fue famoso: Edison no fue la primera persona en hacer una demostración de una bombilla incandescente. Fue el primero en demostrar una bombilla incandescente que funcionaba con más de dos o tres voltios. (La suya también fue la primera bombilla que funcionó durante más de unos pocos minutos antes de quemarse, pero lo principal fue el voltaje). Las bombillas de Edison funcionaban con aproximadamente 100 V, que era lo suficientemente alta como para distribuir la energía eléctrica a un radio de una milla más o menos desde la estación generadora vale la pena.

El aumento del voltaje de la fuente no disminuye la pérdida de energía.

Creo que estás hablando de transmisión de energía eléctrica sobre altos voltajes. Pero ese caso es diferente del caso habitual (solo resistencia). Allí no puede usar la relación V = I * R porque transformar el bajo voltaje en alto voltaje es diferente de aumentar el voltaje de la fuente. El aumento en el nivel de voltaje en el transformador elevador se produce a expensas de la disminución de la corriente. Debe usar una relación de potencia constante que es P = I 1 *V 1 = I 2 *V 2 = constante para calcular la corriente con voltaje aumentado.

Pasando a la segunda pregunta, ¿cómo aumentará la resistencia del componente? Si agrega una resistencia externa con el componente en serie, definitivamente reducirá la corriente a través del circuito, pero luego habrá una pérdida de energía adicional en la resistencia agregada. También se reducirá la caída de tensión en el componente. Pero los componentes eléctricos requieren cierto nivel de voltaje para funcionar.

Así que no podemos reducir la pérdida de energía de esta manera.