Novato eléctrico aquí. Estoy tratando de comprender cómo se involucra la resistencia con la disipación de energía (pérdidas óhmicas, por ejemplo, calentamiento). Principalmente estoy mirando la bobina del electroimán , dice que las pérdidas son , por lo que reducir la resistencia R reduce la pérdida de potencia de calentamiento P , lo que suena razonable ya que proviene (supongo):
y la ley de Ohm (y por lo tanto ), por lo que al sustituir U obtenemos
Pero, si uno sustituye a I en su lugar, obtendría . ¡Lo que parece decirme que con una fuente de voltaje estable U se obtendría una menor pérdida de potencia (calentamiento) con una mayor resistencia R !
Lo cual, lamentablemente, también tiene sentido para mí desde el punto de vista empírico: si conecto una resistencia de muy alto valor (o su equivalente, un cable muy largo) a través de una línea de 230 V, solo se calentará un poco, y pongo una resistencia de muy bajo valor a través de 230 V línea, se calentaría tanto que se quemaría (que supongo que es lo que hacen los fusibles para vivir). (reemplace la batería de 230 V CA con una batería de 9 V CC si aquí importa la distinción entre CA y CC)
Entonces, supongo que me estoy perdiendo algo básico: ¿el aumento de la resistencia reduciría o aumentaría las pérdidas de energía? ¿O el cable en el ejemplo "póngalo en un enchufe de 230 V" se comporta de manera completamente diferente que el cable en el ejemplo del electroimán (y si es así, por qué?)
La fuerza del campo magnético es proporcional a los amperios-vueltas. Si mantiene el campo constante y reduce la resistencia (para el mismo número de vueltas), entonces debe reducir el voltaje.
La pérdida de potencia para una intensidad de campo dada y un número de vueltas es proporcional a la resistencia.
Si R tiende a 0, como en un imán superconductor, no se consume energía en absoluto en el imán en estado estacionario.
contrabandista de plutonio
matija nalis