¿Por qué es necesario que un objeto tenga un tamaño mayor que la longitud de onda de la luz para que podamos verlo?

Sigo escuchando esta regla de que un objeto debe tener un tamaño mayor que la longitud de onda de la luz para que podamos verlo, y aunque no tengo ninguna relación profesional con la física, quiero aprender la explicación de esto. También es posible que haya expresado mal mi pregunta, pero espero que tenga una idea de lo que estoy tratando de preguntar.

¿Puedes explicar esto lo más simple posible para una persona que no sea física?

¡Hola davsan, y bienvenido a Physics Stack Exchange! En realidad, esta es una excelente pregunta tal como es. (Una cosa que sugeriría es poner su pregunta en el cuerpo de la publicación también, para que alguien que no leyó el título aún la entienda).
@DavidZaslavsky Gracias David:] Edité el cuerpo ahora.
¿Quiere simplemente detectar el objeto o resolver la estructura del objeto? Puede detectar un punto en teoría, solo buscando dispersión, no puede resolver dos puntos para saber si son dos puntos de uno cuando están demasiado cerca.
Usando métodos de campo cercano, es posible resolver (incluso la imagen) la estructura mucho menos que una longitud de onda. λ / 100 La resolución es típica en NSOM (microscopía óptica de barrido de campo cercano).

Respuestas (5)

A sugerencia de David Zaslavsky, transferiré esto de los comentarios a las respuestas (estaba un poco indeciso porque no sé qué tan confiables son los videos de YouTube para seguir existiendo, digamos, ¡dentro de 6 meses!):

Este pequeño video de youtube podría ayudar. Solo puede resolver los objetos mirando las ondas reflejadas. La cantidad de detalle que puede obtener en las ondas reflejadas no puede ser menor que la longitud de onda (en términos generales).

Editar: el video muestra ondas incidentes que se reflejan en pequeñas irregularidades en la superficie en la parte inferior de la imagen. El primer caso (longitud de onda más pequeña que las irregularidades) muestra información sobre las irregularidades que se "realimentan" en las ondas reflejadas:ingrese la descripción de la imagen aquí

El último caso (longitud de onda mayor que las irregularidades) muestra que se retroalimenta información mucho más tosca, por lo que no es posible obtener ninguna información sobre, por ejemplo, el tamaño de estas irregularidades:ingrese la descripción de la imagen aquí

Por supuesto, las instantáneas son un poco difíciles de leer, realmente tendrías que mirar las estadísticas de las ondas reflejadas recibidas en función de la posición para ver realmente lo que estaba pasando, pero el video da una impresión general del problema.

Creo que YouTube es bastante bueno para mantener las cosas, excepto en casos de supuesta infracción de derechos de autor. En cualquier caso, no es un problema si también incluye una breve explicación de lo que se supone que debe obtener del video ;-)
Gracias @twistor59, la respuesta es mucho más clara ahora con las fotos.

Clásicamente, es difícil resolver los detalles de un objeto en menos de la mitad de la longitud de onda de la luz (límite de abbe).

Es posible hacer una 'imagen' de la estructura de un objeto si puede acercarse más que una longitud de onda del objeto: microscopía de campo cercano , esencialmente midiendo el campo eléctrico de la luz directamente en lugar de enfocarlo.

Y si puede hacer un material con un índice de refracción negativo, entonces puede obtener imágenes de estructuras mucho más pequeñas que una longitud de onda, consulte: The Perfect Lens and superlensimaging

el ultimo enlace esta muerto

Como se señaló en otra parte, la premisa de la pregunta no es del todo precisa.

Sí, una longitud de onda más corta hace que sea más fácil ver objetos más pequeños, pero la longitud de onda no tiene que ser necesariamente más pequeña que el objeto.

La respuesta corta es que, más comúnmente, el límite de resolución de objetos pequeños se debe a la difracción de la luz y este límite está determinado (entre otras cosas) por la longitud de onda de la luz y el tamaño de la apertura.

Como resultado de la difracción, la imagen de un objeto pequeño se verá borrosa y aumentará de tamaño en relación con la imagen predicha por la óptica de rayos.

ingrese la descripción de la imagen aquí

Entonces, la difracción no nos impide ver o detectar un objeto, sino que nos impide ver los detalles finos de un objeto. Todo se reduce a la capacidad de ver dos puntos cercanos de un objeto como distintos, lo que se reduce a la determinación de un ángulo mínimo entre dos puntos cercanos en el que aún se percibirán como distintos.

El ángulo mínimo entre los dos puntos es una característica mejor que la distancia mínima, porque el ángulo es aplicable a una amplia gama de distancias, que podría ser una distancia entre dos átomos, dos faros de automóviles o dos estrellas.

Si una apertura, a través de la cual se observan los puntos, tiene forma circular, dicho ángulo mínimo de observación (o resolución), θ, podría aproximarse mediante esta fórmula:

θ=1.22λ/D,

donde λ es la longitud de onda de la luz y D es el diámetro de la apertura.

ingrese la descripción de la imagen aquí

En la imagen de arriba, la luz que se origina en los dos puntos de la izquierda pasa a través de una abertura circular (la pupila de una cámara o un ojo) y deja dos imágenes en la pantalla (la película en una cámara o la retina en un ojo). ).

Como se puede ver en la imagen, las imágenes en la pantalla están un poco dispersas y se superponen parcialmente. Es fácil ver que si el ángulo θ fuera más pequeño, las dos imágenes se fusionarían y se percibirían como una sola.

La dispersión de las imágenes es causada por la difracción (propagación) de la luz cuando pasa a través de la apertura y el grado de dispersión depende de la longitud de onda de la luz y del diámetro de la apertura. Es por eso que estos dos parámetros (no solo la longitud de onda) definen el ángulo mínimo entre los dos puntos en los que todavía se perciben como distintos.

Aquí hay una larga lista de algunos de los conceptos básicos detrás de esta fórmula, con algunas explicaciones simplificadas de cómo se relacionan con el problema en cuestión:

  • El principio de Huygens-Fresnel, que dice que cada punto de un frente de onda actúa como fuente de una nueva onda (una ondícula).

  • Interferencia de ondas, que describe cómo dos ondas se suman y se restan cuando se superponen.

  • Difracción, que es la dispersión de un haz de luz que pasa a través de una abertura o la curvatura de la luz que pasa por el borde de un objeto. La difracción resulta de la interferencia de múltiples wavelets en el frente de onda del haz.

  • Difracción de una sola rendija, que describe específicamente la formación del patrón de difracción (Airy) de la luz que pasa a través de una sola abertura y que está directamente relacionado con el caso en cuestión.

  • Criterio de Rayleigh, que define la distancia mínima entre dos patrones de Airy, en la que aún pueden detectarse como dos imágenes distintas. Este criterio se utiliza para calcular el ángulo en nuestra fórmula.

Su formulación no es exacta.

En realidad, se puede ver un objeto incluso si tiene un tamaño del orden de magnitud de la longitud del camino, e incluso menos. Todo depende de lo que entiendas por "verlo".

Simplemente hablando, todos los efectos de "onda" de los fotones tienen un impacto en la "imagen", que depende de un parámetro simple: la relación entre la longitud de onda y el tamaño del objeto (y la distancia donde se observan).

Si el orden de magnitud del tamaño del objeto es mucho mayor que la longitud de onda, obtendrá una imagen "clásica". OTOH a medida que el tamaño del objeto se acerca a la longitud de onda, los efectos de onda comienzan a dominar.

Por "ver" me refería a obtener información sobre sus tamaños, estructuras, etc.

No creo que nadie haya mencionado los métodos de campo cercano. En técnicas ópticas como NSOM (microscopía óptica de barrido de campo cercano) se logra habitualmente la resolución de λ / 100 . Con ondas milimétricas pudimos obtener imágenes de estructuras de aproximadamente 1/6 de λ . Aquí puede ver una imagen de un chip RFID dentro de la tarjeta de plástico con una imagen de 260 GHz. La escala de grises se refiere al contraste de fase, en este caso del campo E reflejado. pdf de papel . Con la óptica puedes hacerlo mejor que con las ondas milimétricas porque puedes usar tubos fotomultiplicadores y aperturas mucho más pequeñas.

imagen de fase reflejada