¿Por qué los fasores se suman como vectores?

Los fasores se utilizan para representar sinusoidales. Entonces, ¿por qué agregan vectores similares?

¿Por qué cuando sumo dos sinusoidales en forma de fasores y los sumo como vectores, obtengo la fase y la magnitud correctas y todo?

Nota: no estaba seguro de si se trataba de una pregunta de física o de matemáticas. Publicado aquí de todos modos.

Una respuesta adecuada a esta pregunta debería explicar por qué los fasores funcionan en primer lugar (es decir, porque las ecuaciones en cuestión son lineales e invariantes en el tiempo ). A partir de ahí, es trivial mostrar por qué los fasores se suman como vectores.

Respuestas (3)

Simplemente porque si:

(1) R porque ( ω t + θ ) = A porque ( ω t ) + B pecado ( ω t )

entonces:

(2) R porque θ = A
(3) R pecado θ = B

Para que la entidad R θ se descompone en una superposición de sinusoides de cuadratura de fase fija porque ( ω t ) , pecado ( ω t ) exactamente de la misma manera que un vector se descompone en X y y componentes Por lo tanto, si sumamos las entidades R θ R porque ( ω t + θ ) y R θ R porque ( ω t + θ ) , lo hacemos sumando todos los pesos correspondientes de porque ( ω t ) , pecado ( ω t ) , por lo tanto equivalente a la suma de vectores.

Uno puede resumir (1), (2) y (3) mostrando que el conjunto de funciones

{ F : R R ; R porque ( ω t + θ ) | θ , R R }

para cualquier fijo ω R es un espacio vectorial sobre los reales de dimensión 2 con un par de posibles vectores base F X ( t ) = porque ( ω t ) y F y ( t ) = pecado ( ω t ) . Si, además, definimos el producto interior

F , gramo = π ω 0 2 π ω F gramo d t

entonces nuestro espacio vectorial se convierte en un espacio de producto interno real bidimensional y la base { F X , F y } es una base ortonormal con respecto al producto interior.


Más detalles:

Los objetos y operaciones centrales que el método fasorial nos permite discutir son:

  1. Sinusoides en fase arbitraria, todos de la misma frecuencia portadora, es decir, entidades de la forma F ( t ) = R porque ( ω t + θ ) R θ ;
  2. Adición de estas sinusoides, lo que se justifica por la restricción del método fasorial al análisis de sistemas lineales, donde buscamos sumar soluciones de ecuaciones diferenciales lineales para encontrar otras soluciones de las mismas ecuaciones. Por ejemplo , la resta de dos potenciales eléctricos que varían sinusoidalmente con el tiempo a través de un elemento de circuito para encontrar el voltaje a través del elemento o la suma de tales voltajes alrededor de un bucle al escribir la Ley de voltaje de Kirchhoff (conservación de energía en estado estacionario); la adición de corrientes que varían sinusoidalmente con el tiempo en un nodo para escribir la Ley de corriente de Kirchhoff (ecuación de continuidad de carga en estado estacionario);
  3. La transformación de una entrada que varía sinusoidalmente con el tiempo mediante un sistema lineal invariante con el cambio de tiempo en una salida de estado estacionario que varía sinusoidalmente con el tiempo: por ejemplo, el voltaje a través de un elemento de circuito agrupado lineal en respuesta a la variable sinusoidal -Con el tiempo corriente de salida a través de él o al contrario. En el estado estacionario, un sistema lineal invariante con el cambio de tiempo transforma su entrada escalando su amplitud por un factor de escala constante y agregando un retardo de fase constante a la entrada.

Tenga en cuenta que en 3., el método fasorial no puede hacer frente a transitorios en sistemas lineales; solo puede describir un sistema lineal con excitación sinusoidal en estado estacionario.

Ya hemos justificado que, a través de (1), (2) y (3), cuando sumamos entidades de la forma R porque ( ω t θ ) R θ ( es decir, el LHS de (1)) podemos hacerlo agregando el A y B coeficientes, que a su vez es lo mismo que sumar los componentes cartesianos de un vector bidimensional.

Ahora, otra toma de esto es considerar que el R -función lineal

(4) R mi : C R

y el C -operador lineal de conversión ascendente:

(5) tu : ( R C ) ( R C ) ; F ( t ) mi i ω t F ( t )

a través de las linealidades anteriores tienen las propiedades de que

(6) R mi tu ( R mi i θ ) = R porque ( ω t + θ )
(7) R mi tu ( R mi i θ + R mi i θ ) = R porque ( ω t + θ ) + R porque ( ω t + θ )
(8) R mi tu ( R mi i θ × a mi i α ) = a R porque ( ω t + θ + α )

y además, R mi tu es biyectiva si la restringimos a constantes complejas y la aplicación inversa a funciones de la forma F ~ ( t ) = R porque ( ω t + θ ) ; el último conjunto restringido es todo con lo que queremos trabajar en el método fasorial.

(6) y (7) dicen que la operación de suma 2. se reproduce fielmente si representamos nuestras sinusoides desfasadas arbitrariamente mediante constantes complejas y sumamos las últimas, y (8) dice que podemos replicar la propiedad 3. anterior representando la acción de cualquier sistema lineal por una constante de escala compleja y aplicando esta constante a través de una multiplicación compleja en el número z = R mi i θ para encontrar la amplitud y la fase de la salida del sistema lineal.

Los números complejos, por supuesto, se suman como vectores.

Otra cosa que obtenemos del método fasorial es el producto interno que representa el producto promedio en el tiempo de dos cantidades que varían sinusoidalmente, es decir, si z = R mi i θ y z = R mi i θ son dos números complejos que representan las sinusoides variables en el tiempo R porque ( ω t + θ ) , R porque ( ω t + θ ) , entonces:

(9) R porque ( ω t + θ ) R porque ( ω t + θ ) t = 1 2 z , z = R mi ( z z )

dónde _ t es el promedio de tiempo durante un período, por lo que (9) nos permite calcular, por ejemplo, la potencia promedio cuando una corriente fluye a través de una diferencia de potencial combinando los dos fasores como en (9). De hecho, el producto vectorial entre los dos fasores considerados como vectores:

(10) z z = I metro ( z z )

aquí un número real, nos da la amplitud de la parte oscilante del producto instantáneo entre las dos sinusoides. Por lo tanto, es útil para calcular, por ejemplo , la energía que se transporta de un lado a otro durante un período en un circuito.


Y por último...

Una forma completamente diferente de motivar una técnica que amplía la idea de un fasor en el caso del campo electromagnético y termina siendo equivalente a él en el caso de una sola variación de frecuencia en el tiempo es la idea de Riemann-Silberstein de diagonalizar las ecuaciones de Maxwell. La técnica resultante no solo funciona como fasores (sino que es más general), sino que tiene una interpretación muy clara y elegante en términos de polarización. Discuto esta idea en mi respuesta aquí .

Pero eso es solo si estamos sumando un seno y un coseno. ¿Qué pasa con todas las fases intermedias?
¿Puede ampliar la "suma de pesos de seno y coseno"?
@PhyEnthusiast Aquí θ representa el ángulo arbitrario entre dos vectores cualquiera o la diferencia de fase entre dos fasores. En otras palabras, esta construcción única prueba que puede sumar dos fasores como vectores y, dado que el resultado también es un fasor, puede generalizar a cualquier número.
@PhyEnthusiast No, podemos representar todas las "fases intermedias" como sumas de un seno y un coseno. Esa es la esencia. Las funciones seno y coseno son vectores base y veamos que el conjunto de sinusoides en fase arbitraria es de hecho un espacio vectorial real de dimensión 2. Ver todas mis actualizaciones

Un fasor es en realidad un número complejo, que es isomorfo a R 2 , y ese es un espacio vectorial bien conocido: las flechas habituales.

Traducción: un fasor es un número complejo, y sumas números complejos de la misma manera que lo haces con los vectores. Trabajando con a + b i es equivalente a hacerlo con ( a , b ) pares

La única diferencia es que, ahora, el ángulo (fase) depende del tiempo, pero eso no cambia nada. La suma dependerá de t también, solo eso, y eso es lo que ves que sucede.

Los fasores son vectores giratorios. En pocas palabras, hacemos uso del teorema simple:

X ( o   y )   componentes de vectores = X   ( o   y )   componente de vectores .
Las sinusoides son las componentes x que quieres sumar. Pero puede ser más fácil sumar los vectores que tienen estos componentes x (usando un diagrama fasorial que es solo un tipo especial de diagrama vectorial) y luego tomar el componente x de la suma de los vectores (si queremos el valor instantáneo).

Agregar fasores es útil solo si los voltajes o las corrientes que representan tienen todos la misma frecuencia. Luego, todos los fasores giran como un grupo y mantienen sus posiciones relativas.

Los fasores se pueden representar con números complejos (y es algo muy bueno de hacer), pero, como vectores giratorios, se pueden manejar usando solo números reales.

Editado para tratar de aclarar.

Se agradecería la(s) razón(es) del voto negativo.