¿La Luna tiene solo 60x60 píxeles?

Al investigar sobre la visión, aprendí que la visión "20/20" corresponde a una agudeza visual capaz de resolver detalles de 1 minuto de arco de tamaño, que la mayoría de las personas tienen una visión de alrededor de 20/15 y que, debido a los límites de la fisiología básicamente nadie tiene una visión mejor que la visión 20/10. Este es un límite superior de resolución de detalles de aproximadamente 0,5 minutos de arco de tamaño.

Según Wikipedia, la Luna tiene alrededor de 30 minutos de arco de ancho cuando se ve a simple vista.

Ponga estos juntos, y parece decir que al mirar la luna a simple vista, nadie puede ver más detalles de los que serían visibles en una imagen de 60 × 60 de la Luna
Luna sobre fondo negro, 60×60 píxeles
y que la persona promedio no puede ver más detalles que en versión 40×40
Luna sobre fondo negro, 40×40 píxeles

Esos parecen tan pequeños en mi monitor. ¿Puede ser eso realmente todo el detalle que puedo ver en la Luna a simple vista?

Dado que la imagen inferior se ve del mismo tamaño que la luna en el cielo, eso parece correcto.

Respuestas (6)

Si y no.

Sí, es cierto que el tamaño aparente de la Luna es de 30 minutos de arco. Es cierto que la agudeza visual de la mayoría de las personas es de 1 minuto de arco. Entonces, es cierto que si tomas el tamaño angular del detalle más pequeño que puedes ver en la Luna y colocas un montón de ellos alineados en línea recta, podrías abarcar el diámetro de la Luna con solo unas pocas docenas de ellos. En ese sentido, tienes razón.

Sin embargo, cuando intenta reproducir la situación en la pantalla de una computadora, la comparación se rompe. En primer lugar, el ojo no ve en "píxeles". Como la mayoría de los sistemas ópticos, hay una función de dispersión de puntos , que toma detalles muy pequeños y los difumina en un punto más grande. La resolución del ojo no es el tamaño del píxel, sino el tamaño de la curva de campana que sale de la función de dispersión de puntos, que tiene bordes suaves y es redondo, está en todas partes y no es fijo.

Asimilas el tamaño de ese punto más grande con el tamaño de un píxel en una pantalla digital, en tu comparación. Pero eso no es lo mismo. La cuadrícula de píxeles en esas miniaturas es fija, por lo que todo lo que cae entre los píxeles se pierde para siempre. El aliasing interviene y crea artefactos que no están en la imagen original. No es lo mismo el rango dinámico del monitor que el rango dinámico del ojo (el ojo es mucho mejor). Los niveles de color y brillo en el monitor son discretos, mientras que el ojo los ve como un continuo. Finalmente, el centro visual de su cerebro es como una poderosa computadora que aplica algoritmos de corrección inteligentes a la imagen en vivo.

La lista sigue y sigue. La conclusión es que todos estos efectos se combinan y le permiten percibir una imagen en vivo que es un poco más rica que esas miniaturas muertas y congeladas que publicó. No mucho mejor, pero un poco mejor. No es que el ojo pueda "solucionar" las limitaciones, sino que se pierde demasiado cuando reduce una imagen grande a una pequeña cuadrícula de píxeles fijos en la pantalla de una computadora.

Es muy difícil reproducir la realidad en una pantalla de computadora. Una forma mucho mejor sería tomar una imagen de la Luna de 2000 px por 2000 px, colocarla en un gran monitor súper HD y moverla de regreso al punto donde el tamaño aparente de esa imagen es de 30 arcmin. Sé que no suena satisfactorio en el contexto de su consulta original, pero es una simulación mucho mejor.


Aparecen problemas similares cada vez que intenta asignar la resolución de cualquier sistema óptico continuo (como un telescopio) a una cuadrícula digital fija (como una cámara).

Supongamos que está utilizando un sensor con un tamaño de píxel de 4 micras. Digamos que su telescopio tiene una resolución lineal en el foco principal igual a 4 micras. Es posible que tenga la tentación de decir: genial, el sensor coincide con el telescopio, ¿verdad?

Bueno en realidad no. Cuando eso sucede, en realidad pierdes un poco de resolución. La imagen es buena, pero es un poco más suave de lo que realmente debería. Vea a continuación una imagen de la Luna que tomé hace un tiempo, con un sistema que tiene exactamente los parámetros indicados anteriormente.

Se puede decir que es un poco suave, no es realmente hasta el píxel. La turbulencia también influye, pero parte del problema es que la resolución lineal es igual al tamaño de píxel.

Haga clic en la imagen de abajo y abra en una nueva pestaña; si su navegador lo reduce de nuevo para ajustarse a la ventana, haga clic con el botón izquierdo en la imagen grande para expandirla a tamaño completo; debe hacer esto para ver la imagen en resolución completa y notar los efectos de los que estoy hablando. La borrosidad no es visible en esta versión pequeña aquí:

Una forma de evitar ese fenómeno, por ejemplo, es ampliar la imagen en el telescopio con una barlow hasta que la resolución lineal en el enfoque principal sea mucho mayor que el tamaño de píxel de la cámara, tal vez 4 veces más grande. Haces todo el procesamiento y luego lo encoges, si quieres, y obtendrás una imagen más nítida. Combínelo con el apilamiento de varios fotogramas y la calidad general puede acercarse bastante al 100 % del rendimiento teórico del telescopio.


TLDR: los sistemas ópticos continuos y las cuadrículas discretas de píxeles son cosas muy diferentes y no se pueden comparar fácilmente.

Muy buena y clara explicación. Ojalá pudiera darte más de +1.
¿Por qué detenerse en una imagen de 2000×2000? ¿Por qué no hacer una imagen de 4k×4k y moverla más lejos? En algún momento, los píxeles adicionales agregan cero detalles percibidos por el observador. Si bien 120 × 120 puede agregar detalles sutiles sobre 60 × 60, ¿240 × 240 agrega detalles observables reales más allá de 240 × 240? Supongo que no. Tiene razón en que el ojo no es un sistema digital, pero hay conos discretos que reúnen luz, y Nyquist tiene algo que decir sobre la cantidad de información que realmente pueden extraer en algún momento.
Esto está mal. De acuerdo con el teorema de muestreo de Nyquist , para modelar una forma de onda con un corte de frecuencia, debe muestrear al doble del corte y luego aplicar un filtro de paso bajo al resultado reconstruido. En otras palabras, es una imagen de 120x120 borrosa según la función de dispersión de puntos ideal en la ilustración.
@BlackbodyBlacklight Gracias por los detalles. Ha pasado tanto tiempo desde que Nyquist y yo nos dimos la mano que me había olvidado del bit "el doble de frecuencia". (Sin embargo, eso puede ser lo que lleva el límite superior de 1 minuto de arco a 0,5 minutos de arco). De todos modos, mi punto al invocar el nombre de Nyquist no fue que 60 píxeles sea el límite correcto , sino que hay algún límite (presumiblemente inferior a 2000 ).
@BlackbodyBlacklight: una complicación de aplicar Nyquist a los fenómenos visuales es que la luz no puede volverse "negativa". Si se filtra un patrón de franjas en blanco y negro con una determinada frecuencia espacial para eliminar todo lo que esté por encima de 5,1x esa frecuencia, el patrón resultante tendría algunas áreas en las que el brillo supera los niveles mínimo y máximo que estaban presentes en la señal original. Si el nivel mínimo hubiera sido cero, no habría forma de representar la onda filtrada cuyo valor mínimo sería negativo.
@supercat Las ondas de luz se vuelven negativas de la misma manera que lo hace el sonido. Pero representamos el sonido usando series de tiempo, muestreando la función directamente, mientras que las imágenes toman la energía de onda total en cada muestra espacial (píxel). Nyquist supone que la entrada es de banda limitada. Entonces, la entrada sería una imagen borrosa de 60x60 en un espacio continuo. Cuando muestra eso a 2x, obtiene una imagen ligeramente borrosa a 120x120. Nyquist garantiza que no habrá valores negativos en 120x120, o de la conversión de 120x120 a continuo, porque explícitamente no requiere líneas más nítidas que 2 píxeles de ancho.
@BlackbodyBlacklight: ¿Está sugiriendo que el muestreo de energía en 4x Nyquist es equivalente al muestreo en cuadratura en 2x? Eso parecería tener sentido en su mayoría, pero sigo pensando que habría problemas con el hecho de que el muestreo de energía no puede acomodar amplitudes negativas. Si alguna muestra de la forma de onda tiene una amplitud de cero, es probable que una reconstrucción filtrada precisa de la forma de onda sea negativa.
El muestreo en cuadratura de @supercat se ocupa de una frecuencia portadora y las imágenes son señales de banda base bidimensionales. ¿Dónde conseguiste 4x? En cuanto a los valores negativos, la imagen original no tiene ninguno, la codificación muestreada 2x no tiene ninguno y la reconstrucción de la imagen original no los tendrá. Entonces, ¿dónde está el problema?
Seamos explícitos: Nyquist nos dice que si desea muestrear una onda con 60 puntos de datos igualmente espaciados, pero no puede alinear la fase exactamente, debe tomar 120 muestras. Luego, si convoluciona los que usan el kernel de sincronización, recupera las 60 muestras originales. A pesar de que sinc tiene valores negativos, la reconstrucción es idéntica a la original.

No me parece tan descabellado. Claro, es posible que esté equivocado por unos pocos píxeles, debido a las diferencias entre el ojo humano y el monitor de una computadora, pero el orden de magnitud parece correcto: el detalle de sus imágenes, visto de cerca, más o menos coincide con lo que veo cuando miro. mira la luna llena.

Por supuesto, podría probarlo fácilmente usted mismo: salga en una noche oscura, cuando la luna esté llena, y vea si puede detectar a simple vista cualquier detalle que no sea visible (incluso con aumento) en la imagen escalada a coincidir con su vista. Sospecho que es posible que pueda ver algunos detalles adicionales (especialmente cerca del terminador, si la luna no está perfectamente llena), pero no mucho.


Para una prueba más objetiva, podríamos intentar buscar los primeros mapas o bocetos de la luna hechos por astrónomos antes de la invención del telescopio, que presumiblemente debería representar el límite de lo que el ojo humano desnudo podría resolver. ( Había que tener buena vista para ser astrónomo en aquellos días).

Desgraciadamente, resulta que, mientras que la invención del telescopio a principios de 1600 provocó una verdadera avalancha de dibujos lunares, con todos los astrónomos comenzando por Galileo mismo apresurándose a mirar la luna a través de un telescopio y dibujar lo que vieron, muy pocos Se conocen dibujos astronómicos (a diferencia de los puramente artísticos) de la luna anteriores a ese período. Aparentemente, mientras esos primeros astrónomos estaban ocupados compilando mapas estelares notablemente precisos y rastreando los movimientos planetarios a simple vista, nadie realmente pensó que era importante dibujar una imagen precisa de la luna; después de todo, si querías saber cómo era la luna, todo lo que tenías que hacer era mirarlo tú mismo.

Quizás este comportamiento pueda explicarse en parte por las opiniones filosóficas predominantes en la época, que, influenciadas por Aristóteles, sostenían que los cielos eran el reino del orden y la perfección, en oposición a la corrupción y la imperfección terrenales. Las "manchas" claramente visibles en la cara de la luna, por lo tanto, se consideraban principalmente como una especie de vergüenza filosófica, no algo para estudiar o catalogar, sino simplemente algo para explicar.

De hecho, William Gilbert (1540-1603) dibujó el primer y último "mapa de la luna" conocido, elaborado exclusivamente a partir de observaciones a simple vista, y se incluyó en su obra publicada póstumamente De Mundo Nostro Sublunari . Es bastante notable los pocos detalles que incluye su mapa, incluso en comparación con una pequeña imagen de 40 por 40 píxeles como se muestra arriba:

El mapa de la luna de William Gilbert La luna, reducida a un radio de 40 px y de vuelta a 320 px
Izquierda: el mapa de la luna de William Gilbert, de The Galileo Project ; Derecha: una fotografía de la luna llena, reducida a 40 píxeles de ancho y aumentada hasta 320 px.

De hecho, incluso los bocetos de la luna publicados por Galileo Galilei en su famoso Sidereus Nuncius en 1610, notables por estar basados ​​en sus observaciones telescópicas, no son mucho mejores; muestran pocos detalles excepto cerca del terminador, y los pocos detalles que hay parecen ser inexactos al borde de la fantasía. Son, quizás, mejor considerados como "impresiones de artistas" que como representaciones astronómicas precisas:

Bocetos de Galileo de la luna de Sidereus Nuncius (1610)
Bocetos de la luna de Galileo, basados ​​en las primeras observaciones telescópicas, de Sidereus Nuncius (1610), a través de Wikimedia Commons. Pocos de los detalles representados, si es que hay alguno, se pueden comparar con confianza con las características lunares reales.

Dibujos mucho más precisos de la luna, también basados ​​en las primeras observaciones telescópicas, fueron producidos casi al mismo tiempo por Thomas Harriott (1560-1621), pero su trabajo permaneció inédito hasta mucho después de su muerte. El mapa de Harriott en realidad comienza a acercarse, y en algunos aspectos supera, el nivel de detalle incluso de la fotografía de 60 píxeles de arriba, mostrando, por ejemplo, las formas de los mares con relativa precisión. Sin embargo, debe tenerse en cuenta que presumiblemente se basa en observaciones extensas con un telescopio, durante varios ciclos lunares (permitiendo, por ejemplo, que los cráteres se vean más claramente cuando están cerca del terminador):

Mapa lunar de Thomas Harriott, c.  1609 La luna, reducida a un radio de 60 px y de nuevo a 320 px
Izquierda: mapa lunar de Thomas Harriott, sin fecha pero probablemente dibujado c. 1610-1613, basado en las primeras observaciones telescópicas, citado de Chapman, A. "Una nueva realidad percibida: los mapas lunares de Thomas Harriot" , Astronomy & Geophysics 50(1), 2009; Derecha: la misma fotografía de la luna llena que la anterior, reducida a 60 píxeles de ancho y de nuevo a 320 px.

Con base en esta digresión histórica, podemos concluir que la imagen de 40 píxeles de la luna, como se muestra en la pregunta anterior, representa con bastante precisión el nivel de detalle visible para un observador sin ayuda, mientras que la imagen de 60 píxeles incluso coincide con el detalle nivel visible para un observador utilizando un telescopio primitivo de principios del siglo XVII.

Fuentes y lecturas adicionales:

  • Kopal, Zdeněk (1969). "Los primeros mapas de la Luna" . La Luna , Volumen 1, Número 1, págs. 59–66. Disponible por cortesía del Sistema de Datos Astrofísicos (ADS) de SAO/NASA.
  • Van Helden, Al (1995). "La Luna" . El Proyecto Galileo (sitio web).
  • Artículos de Wikipedia sobre la Luna y la Selenografía .
Una excelente respuesta a la pregunta original y comparaciones muy convincentes, gracias.
Después de pasar por una calibración de tamaño; está fuera, pero no por mucho. Sin tener en cuenta la capacidad telescópica del ojo (que ni siquiera es 2:1), diría que unos 90x90. A 60x60 puedo ver los artefactos de pixelación.

Cuando miras la luna "en vivo", no estás viendo una imagen fija. Estás viendo un "video": tu retina está reuniendo múltiples imágenes a lo largo del tiempo. Esos píxeles deben tenerse en cuenta; equivalen a píxeles adicionales.

Supongamos que se toman imágenes de 60x60 píxeles de una escena utilizando una cámara montada en un trípode que se mueve ligeramente. A partir de las múltiples imágenes, se podría reconstruir una imagen de mayor resolución.

¿Alguna vez ha notado cómo un video de aspecto nítido puede parecer borroso cuando se detiene o se avanza cuadro por cuadro?

Aparte, otra cosa para recordar es que un píxel no es una unidad de información; no a menos que especifique cuántos bits codifican un píxel. Suponga que muestrea 60x60 puntos, pero con resolución de amplitud continua y cero ruido. La imagen de 60x60 píxeles contiene información infinita (aunque, por supuesto, su capacidad para resolver detalles adyacentes aún es limitada).

Este es un punto excelente. Incluso si sus ojos no se están moviendo, los cambios atmosféricos ciertamente están reflejando diferentes detalles.
La "reunión de múltiples imágenes" son movimientos sacádicos. Cada uno es una sola instantánea de alta resolución que el cerebro compone en una sola imagen. Por cada instante de imagen percibido, toma más de una docena de instantáneas.
Pausar un video revelará artefactos de compresión VHS o digital. Las vibraciones oculares de "subpíxeles" ya se tendrían en cuenta en cualquier prueba de agudeza visual. Aprovechar las lentes atmosféricas, o los momentos de buena visión, es el dominio de la óptica adaptativa y no asumiría que el cerebro es capaz de ese tipo de procesamiento.
@Phrogz: los "cambios atmosféricos" se llaman ver. Ver nunca es un factor limitante (o potenciador) para las observaciones a simple vista. El único efecto visible de esa manera es el parpadeo de las estrellas, pero eso es todo.
@FlorinAndrei Una discusión de seguimiento, siete años después: creo que miré a través de un telescopio a objetos cercanos (la luna, detalles en montañas lejanas) y vi una refracción atmosférica cambiante que a veces borra por completo un pequeño detalle, y otras veces lo revela Una instantánea que omite ese detalle pero revela otro se mejora, desde una perspectiva de información real, mediante el recuerdo del detalle presenciado previamente. ¿Está seguro de que la refracción cambiante compilada a lo largo del tiempo nunca revela más información de la que podría percibir el ojo desnudo en un instante en una noche perfecta y "clara"?
@Phrogz debido a su naturaleza estocástica, la turbulencia solo puede empeorar las cosas. Pero nunca es tan malo como para empeorar las observaciones a simple vista. El único tipo de efectos de lentes remotos que pueden mejorar la vista son aquellos que son ordenados: piense en lentes gravitacionales alrededor de galaxias distantes.

Después de todas estas respuestas astronómicas, agregaré una de computadora.

Los píxeles no son los mismos en todos los monitores. Tome un monitor de 1990 y tome la última pantalla de teléfono inteligente, los 60 píxeles no serán lo mismo.

¿Cómo calculó el tamaño del píxel según la precisión de la visión?

Tienes razón, la forma en que ves esos píxeles es importante si quieres que se vea más o menos igual que la luna. Necesitaría ver los 60 píxeles en una pantalla a alrededor de 100-120ppd, por ejemplo, un monitor de 27" visto desde 6 pies de distancia, o un HDTV de 50" visto desde 12 pies de distancia. Prueba mi calculadora . (Nota: no funciona en IE, y el diagrama SVG actualmente se ve mal en Firefox. Use Chrome o Safari para obtener mejores resultados). Sin embargo, la pregunta no era cómo hacer que se viera como la luna, sino cuántos detalles había. es cuando ves la luna a simple vista.

No, no lo es.

Nuestros sentidos, incluida la vista, no funcionan de la manera en que funcionan los dispositivos digitales artificiales. Nuestros ojos no contienen "píxeles", ni la imagen que percibimos a través de nuestros ojos está compuesta por "píxeles". Nuestro sistema nervioso también hace tanto posprocesamiento de la imagen que cualquiera de estas no comparaciones no tiene sentido.

Un "píxel" es un elemento de imagen en gráficos de trama. Sin embargo, también hay gráficos vectoriales, en los que no existe la noción de "píxeles"; no tendría sentido hablar de un objeto representado en gráficos vectoriales en términos de "píxeles". Nuestra visión no es raster ni gráficos vectoriales.

La capa fotosensible de la retina está hecha de células fotosensibles (bastones y conos), pero no pueden compararse razonablemente con "píxeles". Si bien existen algunas similitudes distantes y engañosas, como el hecho de que el tamaño, la cantidad y la densidad de los bastones y los conos se corresponden con el grado de agudeza visual, los bastones y los conos no se corresponden con elementos discretos de nuestra visión de la misma manera que los píxeles individuales son elementos discretos de la imagen digital.

La retina es en realidad la extensión del cerebro, y hay mucho preprocesamiento de imágenes en la retina antes de que la señal se envíe por el nervio óptico. Este preprocesamiento es absolutamente necesario porque hay unas 100 veces más células fotosensibles que células ganglionares de la retina.(células que descienden por el nervio óptico). Básicamente, no hay suficientes fibras nerviosas ópticas para que cada uno de los 100 millones de fotorreceptores se conecte directamente a la corteza visual del cerebro. Las células ganglionares de la retina utilizan mecanismos sofisticados como la detección de bordes, etc. para "comprimir" las señales de los fotorreceptores, y esto es solo el comienzo del procesamiento posterior. Nuestro cerebro hace mucho más, incluido completar los elementos de imagen que faltan sin que nos demos cuenta. De hecho, es nuestro cerebro y no nuestros ojos el que crea nuestra experiencia cognitiva de percepción visual.

Lo que es más, nuestros ojos se mueven constantemente a través de un movimiento microsacádico porque, simplificando mucho, no podemos ver imágenes estáticas; si los ojos de las personas se inmovilizan experimentalmente, su visión percibida se disuelve lentamente y desaparece por completo hasta que se permite que los ojos se muevan nuevamente. Aquí hay una imagen estática que explota nuestros movimientos microsacádicos para causar una ilusión de movimiento aparente (advertencia: podría ser un fuerte desencadenante de náuseas):

ingrese la descripción de la imagen aquí

En conclusión, a pesar de las no comparaciones demasiado simplificadas promovidas por fuentes pseudointelectuales como xkcd y muchas otras, la realidad es mucho más complicada y los detalles de los sistemas biológicos complejos no pueden compararse razonablemente con los detalles de los sistemas artificiales.

Es correcto decir que el tamaño de la Luna es de 30 minutos de arco, pero no que su tamaño sea A×B píxeles.

i.stack.imgur.com/sWjfi.png Así no se usa Stack Exchange; Los comentarios de edición propuestos no son para dirigirse a los usuarios individualmente, especialmente de esta manera. En lugar de escalar a una guerra de edición, las opciones de "Tengo razón, estás equivocado" incluyen encogerse de hombros y dejarlo solo, dejando un comentario (que en este caso no puede hacer hasta que obtenga 50 puntos de reputación y algo de experiencia con SE) marcando la asistencia del moderador, o yendo a Astronomy meta y publicando una pregunta del tipo "¿qué hacer a continuación si mis ediciones aparentemente útiles son rechazadas?"

Respuesta : No, la luna no tiene 60x60 píxeles de ancho (tal como la ve el ojo humano).

Por favor, lea la respuesta de Bad Chad. Es objetivamente correcto y hace que muchos puntos destacados se pasen por alto en otras respuestas. Solo puedo ampliar o los excelentes puntos que hace:

El sistema visual humano no puede modelarse a partir de una cámara o un video más de lo que el cerebro puede modelarse a partir de una computadora o el hígado a partir de una fábrica química. Los sistemas biológicos están diseñados de manera fundamentalmente diferente a los artefactos diseñados por humanos. Por ejemplo, la retina no es un sensor lleno de píxeles. Tiene múltiples capas de neuronas que procesan la información de la imagen antes de comunicarla a la corteza visual. Según algunas medidas de velocidad de cómputo, la retina supera a algunas supercomputadoras https://www.videofoundry.co.nz/ianman/laboratory/research/retina . Cuando una célula ganglionar se dispara, está comunicando información de mayor orden que un "píxel".

La proposición de que la visión humana se puede definir por un cierto tamaño de píxel es un artefacto del uso de optotipos (letras de alto contraste) para determinar la prescripción de anteojos. Hay una multitud de otras formas de medir el rendimiento visual humano, muchas de las cuales dan una mayor agudeza medida que los optotipos:

La agudeza vernier es la capacidad de discriminar líneas rectas desalineadas. Es posible que esté familiarizado con los calibradores Vernier que permiten una precisión de medición de una milésima de pulgada a simple vista. La agudeza Vernier supera con creces la agudeza del optotipo (y por eso se denomina hiperagudeza ) y puede mejorarse hasta 6 veces mediante el entrenamiento.

ingrese la descripción de la imagen aquí https://en.wikipedia.org/wiki/Vernier_scale

Otro ejemplo de hiperagudeza es la estereoagudeza (percepción de profundidad) https://en.wikipedia.org/wiki/Stereoscopic_acuity

Otro ejemplo de hiperagudeza son las miras de dioptrías en los rifles de precisión de competición.

ingrese la descripción de la imagen aquí

Así que Bad Chad tiene razón: "Es correcto decir que el tamaño de la Luna es de 30 minutos de arco, pero no que su tamaño es A×B píxeles".