Si los rayos de luz obedecen a la ecuación de onda, ¿por qué pueden pensarse como líneas rectas?

Soy un novato en física, pero me pregunto cómo se puede representar esencialmente un rayo de luz. Siempre he sabido que un rayo de luz procede en línea recta hasta que encuentra otro objeto (o material) que lo refracta/refleja. Pero un rayo de luz debería ser parte de una onda electromagnética, ¿es así? Si es así, debería obedecer a la ecuación de onda y esto no me parece que describa un rayo en línea recta.

Tengo problemas para visualizar cómo se emite la luz y cómo se relaciona con la ecuación de onda. ¿Puede alguien con una comprensión clara del problema explicármelo en términos simples?

Respuestas (2)

Los rayos de luz son solo una buena manera de describir la luz en el límite de longitudes de onda muy cortas, en comparación con todas las demás escalas de longitud del problema. Esto se llama el límite de la óptica geométrica, y allí uno puede resolver las ecuaciones de Maxwell en lo que se llama la aproximación eikonal para obtener el Principio de Fermat y, por lo tanto, una descripción de la luz como un rayo de luz.

El punto esencial de la aproximación eikonal es hacer un Ansatz de la forma

mi ( X , t ) = mi 0 mi i ( x ( X ) ω t )
para el campo eléctrico. Aquí estoy ignorando la naturaleza vectorial de la luz y los campos multicromáticos, pero lo que sigue se generaliza bien. Aparte de eso, el Ansatz es bastante general. En estos términos, la ecuación de onda se lee
i 2 x + x 2 = norte 2 ω 2 C 2 .
La aproximación eikonal consiste entonces en despreciar el primer término. La razón de esto es que en el límite de longitud de onda corta x contiene un término de la forma k X que hace x muy grande en comparación con 2 x , que mide variaciones espaciales en la envolvente y que por tanto es "pequeña".

Una vez que haces eso, obtienes la ecuación eikonal, que dice

x 2 = norte 2 ω 2 C 2 .
(Por cierto, esto tiene una contraparte muy interesante en la mecánica clásica, la ecuación de Hamilton-Jacobi ). Las trayectorias de los rayos de luz se pueden definir como las curvas integrales del gradiente x , es decir, trayectorias r = r ( s ) , parametrizados por la longitud del camino, que siguen
d r d s = x norte ω / C .
Estas trayectorias son ortogonales a los frentes de onda, que son superficies de constante x , se propagan en línea recta en el espacio libre e interactúan con los elementos ópticos de la manera que esperarías: para todo el mundo, son rayos de luz.

Para obtener más detalles matemáticos, consulte esta pregunta . Si lo anterior sigue siendo demasiado complicado, házmelo saber.

Estoy seguro de que la respuesta de Emilio Pisanty está bien, +1, pero se me escapa un poco. También apela a las propiedades específicas de las ondas electromagnéticas, mientras que la aproximación de rayos es mucho más general que eso. Aquí hay un argumento de plausibilidad más simple que puede estar más al nivel que el OP puede entender.

Si difractas una onda a través de una rendija de ancho w , obtienes un patrón de difracción con un ancho angular θ de orden λ / w (en radianes). Cuando λ es pequeño en comparación con w , θ se hace pequeño En el límite donde λ / w 0 , θ 0 , y tienes un rayo entrando por la rendija. Diferentes tipos de ondas (ondas de agua, ondas de sonido, ondas de luz, ...) tendrán diferentes detalles relacionados con cosas como la polarización, pero nada de eso afecta el argumento anterior.

Si es así, debería obedecer a la ecuación de onda y esto no me parece que describa un rayo en línea recta.

Derecha. Un tren de ondas paralelo perfectamente colimado nunca puede ser una solución de la ecuación de ondas. Sin embargo, un patrón de difracción con un ancho angular muy pequeño puede ser una solución, y si el ancho es lo suficientemente pequeño, es indistinguible de un tren de ondas paralelo.

Gracias Ben, +1 a la respuesta de Emilio que creo que es la más completa de todas pero que, desafortunadamente, no puedo comprender. esto esta mas a mi nivel
Por "patrón de difracción con un ancho angular pequeño", te refieres solo a los grandes máximos centrales, ¿verdad? Y digamos, por ejemplo, que hablamos de un haz de luz y no de un solo rayo, ¿cómo puede la minimización de los máximos centrales a un punto mostrar el límite geométrico del haz, es decir, cómo puede tratarse un haz a través de una gran rendija como en óptica geométrica, considerando la minimización del ancho de los máximos centrales?