¿Por qué tomó tanto tiempo darse cuenta de que la capa de ozono tenía agujeros? ¿Qué satélite proporcionó los datos?

Wikipedia dice :

El descubrimiento del agotamiento anual del ozono sobre la Antártida fue anunciado por primera vez por Joe Farman, Brian Gardiner y Jonathan Shanklin, en un artículo que apareció en Nature el 16 de mayo de 1985 . (pago)

Creo que el descubrimiento lo hizo un satélite en órbita, pero no estoy seguro de cuál.

Preguntas:

  1. ¿Qué satélite(s) de observación de la Tierra fue el primero en proporcionar los datos que alertaron a los científicos de que la capa de ozono estaba desapareciendo cerca de los polos?
  2. ¿Qué tomó tanto tiempo? ¿Por qué este (estos) satélites y no cualquiera de las observaciones anteriores de la Tierra?
  3. ¿Cuáles son exactamente las tecnologías habilitadoras que hicieron esto posible por primera vez?

Respuestas (4)

Creo que el descubrimiento lo hizo un satélite en órbita, pero no estoy seguro de cuál.

Ese no es el caso.

Mire la afiliación del autor del artículo al que se vinculó. Los tres autores de ese artículo eran del British Antarctic Survey. Estos científicos formaron parte de una expedición más grande a la Antártida. Apuntaron un instrumento barato (extremadamente barato en comparación con un instrumento a bordo de un satélite, y bastante barato en comparación con el costo de enviar científicos a la Antártida) llamado Dobsonmeter en el cielo y encontraron niveles de ozono en rápida disminución al final del invierno / principios de la primavera en 1984.

El agujero de ozono podría haber sido descubierto por un par de instrumentos en el satélite Nimbus 7, el Solar Backscatter UltraViolet (SBUV) y el Total Ozone Mapping Spectrometer (TOMS). Ese satélite se lanzó en 1978, pero esos instrumentos no detectaron el agujero de ozono porque el software terrestre que procesó los datos de esos dispositivos marcó los datos relevantes como faltantes en lugar de muy bajos.

Había razones sólidas para hacerlo. La teledetección funciona mejor cuando las lecturas se corroboran con técnicas más directas, en este caso con cohetes sondas y globos sondas que pueden medir directamente los constituyentes de la atmósfera en función de la altitud. (El sufijo "sonda" es una forma elegante de decir "sonda", o más precisamente, una sonda de sondeo).

Estas técnicas directas nunca habían observado lecturas tan bajas como las implicadas por SBUV/TOMS, o incluso mediante dispositivos de detección remota basados ​​en tierra como un Dobsonmeter (al menos no hasta 1984). No hubo validación para esas mediciones muy bajas. Además, SBUV/TOMS funcionó midiendo la luz ultravioleta que fue retrodispersada por la atmósfera. Esta técnica se consideró quizás sospechosa cuando el Sol estaba muy bajo en el horizonte, que era exactamente el caso a fines del invierno o principios de la primavera en las regiones polares.

El software de procesamiento terrestre SBUV/TOMS, que tenía que procesar montones y montones de lecturas y que tenía que ejecutarse sin supervisión, simplemente rechazaba las lecturas que eran demasiado bajas o demasiado altas y cuando el Sol estaba bajo en el horizonte. Escribí el software que hizo esos controles, según los requisitos establecidos por los científicos del equipo. Aunque dejé el equipo de procesamiento de ozono a principios de 1980, recibí varias llamadas telefónicas de la NASA a fines de 1984 y principios de 1985 porque "su nombre está en todo el software". Afortunadamente, fue fácil de arreglar: simplemente relaje esas restricciones y vuelva a ejecutar el software con los datos históricos. La NASA pronto descubrió que el agujero de ozono se remontaba a 1978, cuando se lanzó el satélite.

Cómo funciona

Simplificando demasiado, la ciencia subyacente es la misma razón por la que el cielo es azul, que es la dispersión de Rayleigh. El cielo es azul porque la atmósfera dispersa mucha más luz azul que luz roja. Dado que la dispersión de Rayleigh es inversamente proporcional a la longitud de onda elevada a la cuarta potencia, la atmósfera dispersa la luz ultravioleta incluso con más fuerza que la luz azul. Mientras que parte de esta luz se dispersa hacia la superficie de la Tierra, otra parte se dispersa en el espacio. Observar la distribución de frecuencias de esta luz retrodispersada da una idea de cuánta luz ultravioleta está siendo absorbida por el ozono en la estratosfera y cuánto ozono hay en la estratosfera.

Eso fue demasiado simplificado. Hay otros tipos de dispersión implicados (p. ej., dispersión Raman y dispersión Mie). Las nubes reflejan en lugar de dispersarse. Los aerosoles cambian el coeficiente de Rayleigh y otros coeficientes de dispersión. El ángulo en el que la luz del sol incide en la atmósfera tiene un efecto significativo. Estos y otros efectos se tienen en cuenta, y los algoritmos se han modificado repetidamente para que se comporten mejor con las mediciones directas.

Aparte: estoy algo sorprendido por el uso de la palabra "sonda" en lugar de "sonda". Habiendo buscado la palabra, estoy más confundido por qué Star Trek usó "sondas" por todas partes...
Estoy aún más sorprendido de que haya una respuesta muy precisa de una persona directamente involucrada en el asunto unos 40 años antes :) Y aprendí algo nuevo hoy :)
Como científico de meteorología satelital / Observación de la Tierra, recuerdo que me enseñaron sobre esta historia durante mi doctorado, con la lección "ten cuidado con los datos que arrojas". Por supuesto, en retrospectiva es 20/20, pero creo que podemos ser más cuidadosos en estos días; si entendemos correctamente nuestro instrumento y la física de la teledetección, deberíamos poder tener una idea de si las mediciones fuera del rango calibrado están dentro del rango que esperaríamos dada nuestra mejor estimación de la incertidumbre de la medición; si no, es posible que queramos echar un vistazo más de cerca. Genial que estuvieras involucrado personalmente en esta famosa historia. ☺
@gerrit Si bien se había volado un predecesor del SBUV, el instrumento TOMS era completamente nuevo en ese momento. Había razones legítimas para filtrar lo que podrían ser datos sospechosos, en particular los datos fuera del nadir que solo podía proporcionar el TOMS. Dicho esto, objeté un poco el filtrado (no enérgicamente, ya que escribí el código).
@DavidHammen ¡Estoy seguro de que hubo razones legítimas para filtrar los datos! Pero como probablemente estará de acuerdo, también hay razones legítimas para comprender los datos filtrados en la medida de lo posible (¿es ruido blanco puro o hay patrones?, si no hay ruido blanco, entendemos por qué; si hay patrones, entender si se relacionan con algo que sabemos sobre el instrumento o con algo ambiental, etc.). Comprender nuestros instrumentos es crucial, en particular para detectar anomalías o tendencias. El ruido de una persona es la señal de otra persona. Al menos sin filtrar siempre debe archivarse...
@gerrit Se archivaron los datos de Nivel 0 y Nivel 1. El filtrado se realizó en el Nivel 2 o el Nivel 3 (no recuerdo cuál, fue hace más de 40 años). El hecho de que se archivaran los datos de Nivel 1 fue lo que permitió a la NASA volver a ejecutar el procesamiento para regenerar los productos de nivel superior que mostraban la existencia del agujero de ozono sobre la Antártida.
Dado que mencioné los términos Nivel 0, etc., podría ser útil explicarlo. Los datos de nivel 0 son los que el satélite envía a la Tierra, con un procesamiento mínimo (p. ej., divididos por instrumento, divididos en datos de observación frente a datos de mantenimiento). Los datos de nivel 0 suelen tener la forma de recuentos. El nivel 1 transforma esos recuentos en valores más significativos (p. ej., intensidad en varias frecuencias, en unidades métricas). Puede haber algún rechazo de datos en el Nivel 1, pero no mucho.
El nivel 2 transforma las observaciones en las cantidades científicas deseadas (p. ej., concentraciones de ozono en varios niveles de la atmósfera o cantidad total de ozono en la atmósfera). Los datos de nivel 2 suelen corresponder uno a uno con las mediciones sin procesar. El nivel 2 es a menudo donde los datos se filtran en busca de valores sin sentido. El nivel 3 interpola los datos del nivel 2 en una cuadrícula estandarizada. El nivel 4 agrega aún más interpretación.

Para resumir rápidamente la respuesta:

  1. Nimbus 7 fue el satélite involucrado, pero no fue el primero.
  2. El agujero de ozono no se materializó sustancialmente antes de principios de la década de 1980; en retrospectiva, la disminución era visible, como muestra este gráfico , pero la caída catastrófica aún no había ocurrido. Nimbus 7 fue el primer satélite (¿creo?) en llevar un espectrofotómetro de ozono, que se puso en línea justo cuando comenzaba el rápido declive alrededor de 1980.

El trabajo de Farman, Gardiner y Shanklin que usted cita se basó puramente en tierra: los tres investigadores nombrados pertenecían al British Antarctic Survey. Los datos se tomaron de una serie de tiempo de larga duración utilizando un espectrofotómetro Dobson , registrados en las Islas Argentinas (65 S) y la Bahía Halley (76 S) desde el Año Geofísico Internacional en 1957. (Por feliz casualidad, Halley está perfectamente posicionado para observar el agujero). Según tengo entendido, el Dobson en uso en la década de 1980 se mantuvo esencialmente sin cambios con respecto al instalado en la década de 1950; no hubo un cambio tecnológico significativo.

Sin embargo, los satélites también lo vieron. En retrospectiva , resultó que Nimbus 7 también había identificado la caída de los niveles de ozono en ese momento. Cuando los datos satelitales de EE. UU. para fines de 1983 se procesaron a mediados de 1984, los recuentos bajos de ozono se señalaron como una anomalía, por lo que se compararon con los recuentos terrestres "verdaderos" en el Polo Sur. Desafortunadamente, esos conteos en realidad eran erróneos, desconocidos para todos los involucrados, y los datos británicos de Halley aún no estaban completamente disponibles, por lo que no había nada más con lo que compararlos. El equipo estadounidense finalmente decidió a fines de 1984 que los datos satelitales probablemente mostraban un fenómeno real, y planeó anunciarlo en una conferencia en agosto de 1985. El artículo británico, sin embargo, salió en mayo...

(Como beneficio adicional: definitivamente lea los comentarios en esa publicación, ya que contiene algunas notas al pie de página de Jon Shanklin ).

La NASA no pudo haber detectado el agujero de ozono hasta que se cambió el software de procesamiento terrestre. Fue el descubrimiento de Farman et al. eso hizo que la NASA reconsiderara si debería haber marcado esas lecturas anómalamente bajas como perdidas. Escribí ese software en 1979. Cuando me opuse a marcar los datos como faltantes, el IP señaló que yo acababa de salir de la universidad mientras que él había estado en el campo durante décadas. Para citar, "Yo soy el IP, tú eres el peón. Haz lo que digo". Así que lo hice.
@DavidHammen wow, estoy seguro de que eso nunca sucedió antes o después, ya sea en esfuerzos científicos o de ingeniería de software.
@uhoh, sospecho que olvidaste el /s para denotar sarcasmo. Eso sucede con gran regularidad. Es, por ejemplo, por qué Dilbert es tan popular.
@uhoh Sucede todo el tiempo, pero en ciencia trabajamos duro para reparar el daño. Este es un buen ejemplo, donde los resultados independientes discreparon y la resolución del desacuerdo reforzó el descubrimiento. Un proceso perfectamente normal en la ciencia.
Y esa es la diferencia entre rechazar los datos directamente y considerarlos como anómalos durante el procesamiento, por lo tanto, rechazarlos. Algunas de las cosas de alto rendimiento en la física de partículas (LHC) tienen que desechar las cosas aburridas antes de guardar algo en el disco. Se dedicó un gran esfuerzo a decidir qué descartar.
"en la ciencia" luego "nosotros", como si hubiera alguna organización científica especial y fuera diferente de otras áreas de nuestra vida.
@JohnDoty Es el "Yo soy el IP, tú eres el peón. Haz lo que digo". puede suceder todo el tiempo, pero no me gustaría caracterizar esa mentalidad como "un proceso perfectamente normal en la ciencia". Es problemático y necesita ser llamado como tal.
@uhoh Molesta al peón, pero en los casos que he visto, no ha afectado el futuro del peón. Y lo más importante es la ciencia, que se corrige a tiempo. El IP debe ser capaz de dirigir el grupo de investigación: si todos están trabajando con propósitos opuestos, no se hace nada. Por supuesto que preferimos no cometer errores, pero eso es imposible. Es mejor entender que tales errores son normales y tener procesos para corregirlos.
@JohnDoty ese escenario binario extremo es una elección falsa; si PI escucha, entonces "todo el mundo está trabajando en propósitos opuestos, no se hace nada". Este no es un argumento razonable. Los buenos líderes (grupos de investigación o de otro tipo) escuchan, fomentan la disidencia y los puntos de vista opuestos, y los consideran cuidadosamente.
Por supuesto, un buen líder fomenta la revisión de las decisiones. Pero te estás perdiendo el punto. Por lo general, no hay forma de saber, excepto en retrospectiva, cuál es la decisión correcta. A menudo, el IP tiene razón. A veces el peón tiene razón. A veces, el que está equivocado termina conduciendo la decisión. No puedes evitar los errores independientemente de cómo tomes estas decisiones. Lo importante es que la ciencia supere los errores.
@JohnDoty "Cuando me opuse a marcar los datos como faltantes, el IP señaló que yo acababa de salir de la universidad mientras que él había estado en el campo durante décadas". ¿Es esta la razón correcta para objetar? "Lo importante..." es nuevamente una elección falsa porque sugiere que solo debería haber una cosa importante. Los fracasos suelen ofrecer varias lecciones al mismo tiempo, en este caso, "debería haber tratado mejor la fecha fuera de rango" y "debería haber escuchado a los peones y pensado en sus ideas" pueden ser lecciones importantes . Cuando se trata de la gestión de naves espaciales, debemos tener cuidado, de lo contrario...
esto sucede Esto es Space SE y estamos hablando de misiones científicas basadas en naves espaciales con grandes presupuestos y visibilidad para el Congreso de EE. UU. y los contribuyentes de EE. UU. No es un solo investigador en su propio laboratorio.
@uhoh Sucede más cuando tienes un gran presupuesto. Los gerentes de grandes proyectos quieren organizaciones rígidas con estrictas líneas de autoridad. Se desaconseja encarecidamente la difusión de datos cuestionables. Y recuerde, esto fue en la década de 1970, cuando el procesamiento y almacenamiento de datos era bastante primitivo. Pasar tiempo procesando datos erróneos fue una gran pérdida de recursos del proyecto. Hacer que los datos sin procesar de las misiones espaciales estuvieran disponibles era algo raro en los años 70. Lo que se publicó reflejaba los intereses de científicos de alto nivel. Ahora, los datos sin procesar de las grandes misiones suelen estar disponibles en línea, lo que mejora este tipo de problema.
@JohnDoty sucedieron muchas cosas en la década de 1970; Fumar no causaba cáncer, se podía ganar una guerra en el sudeste asiático... Cosas así dieron lugar a " Cuestionar la autoridad " (bueno, eso es de los 60, pero gran parte de los 60 sucedió en los 70). Bien, el café finalmente ha hecho efecto y tengo que comenzar el día, ¡salud!
@uhoh El bien aliterado Soy el IP, eres el peón que me quemó en ese momento. En retrospectiva, me lo merecía. Sucedió porque me opuse a hacer el filtrado que él quería que hiciera. Yo era el peón, y él era el IP. En retrospectiva, tal vez no deberíamos haber hecho ese filtrado. Sin embargo, y este es un gran sin embargo, las afirmaciones científicas prematuras pueden tener un impacto negativo enorme en la ciencia. Yo era el peón recién salido de la universidad y no lo sabía. Él era el IP y estaba muy consciente de eso. Al final, los datos archivados permitieron a la NASA ver el agujero de ozono con esos instrumentos Nimbus-7.
Un ejemplo reciente de afirmaciones prematuras basadas en sensores remotos es la afirmación de una detección de fosfina de 15 sigma en la atmósfera de Venus. Esas afirmaciones han sido refutadas. Cuál es correcto (la afirmación original o las refutaciones) sigue siendo un tema de debate científico. Si las refutaciones de esas afirmaciones originales resultan ser correctas, la reputación de los científicos que hicieron esas afirmaciones originales disminuirá. No solo disminuido, sino drásticamente disminuido.
Un contraejemplo es cómo el CERN esperó durante años para anunciar oficialmente el descubrimiento del bosón de Higgs. Querían que los datos cruzaran el umbral de cinco sigma antes de hacer oficialmente ese anuncio. La afirmación de una detección de quince sigma haría que el descubrimiento del bosón de Higgs pareciera ordinario. Los nuevos análisis que mostraron menos de un umbral de dos sigma dicen algo muy malo sobre aquellos que hicieron esa afirmación de quince sigma, si esos nuevos análisis son correctos.
@DavidHammen, ¡te horrorizaría saber cuán malos son la mayoría de los científicos en la codificación (no es de extrañar, su enfoque es diferente)!
@Vorac No realmente. Aprendí esa lección hace más de 40 años. Es posible que se horrorice al saber cuánto software malo escrito en la década de 1960 todavía está en uso. Hay libros sobre programación científica que algunos toman como un evangelio pero que en realidad son instrucciones sobre cómo no escribir software.

El agotamiento del ozono surgió por primera vez como un problema públicamente visible alrededor de 1976. Hasta ese momento, casi nadie sabía que el ozono era un problema en absoluto, por lo que no había habido un gran impulso para construir satélites para observarlo.

Incluso cuando se conoció el agotamiento del ozono, algunos lo recibieron con escepticismo (especialmente las personas que ganan dinero con la venta de aerosoles, por supuesto). Por ejemplo, aquí hay un par de extractos de una historia del New York Times de 1977 1 :

Un portavoz de la industria, que solicitó el anonimato, dijo: “Todas las teorías científicas contra los fluorocarbonos son solo eso: teorías, no hechos. Lo que necesitamos es más investigación antes de que haya más prohibiciones o comentarios negativos. No queremos otro susto falso”.
[ ...]
De hecho, la industria confía en que las teorías sobre el agotamiento del ozono serán anuladas. “Es posible que los consumidores estén comenzando a considerar las suposiciones de Rowland como las tonterías que creo que son”, dijo Abplanalp.

TOMS se lanzó en 1978, solo dos años después de que la capa de ozono y el agotamiento del ozono entraran en el ojo público como problemas.

Pero, como ya ha mencionado @David Hammen, en ese momento carecíamos de la experiencia necesaria para procesar los datos lo mejor posible, por lo que al principio, los datos que indicaban un agujero real en la capa de ozono se rechazaron como anómalos. Entonces, eso condujo a una demora de otros cinco años (más o menos) antes de que se reconociera el agujero real (como tal).

Casi lo mismo se aplica a las mediciones anteriores también. Por ejemplo, Nimbus-4 llevaba instrumentos tanto para la retrodispersión UV como para medir el ozono a un nivel de alrededor de 40 kilómetros, pero 2 :

Este instrumento había medido ocasionalmente valores de ozono total muy bajos sobre la Antártida, más bajos que los valores medidos en cualquier otro lugar del mundo. Sin embargo, en ese momento no estaba claro si tales valores fueron causados ​​por un error de medición o algún efecto geofísico real.

También me gustaría señalar que, especialmente en ese momento, el agujero de ozono era interesante principalmente como una indicación/demostración del agotamiento de la capa de ozono en general. Es solo más recientemente que la evidencia ha indicado que el agujero de ozono es un problema en sí mismo. Aparentemente conduce a un enfriamiento localizado de la estratosfera cerca del polo, lo que a su vez conduce a vientos más fuertes y cambia la circulación atmosférica 3 .


  1. https://www.nytimes.com/1975/06/22/archives/aerosol-feels-the-ozone-effect.html
  2. https://www.sciencedirect.com/science/article/pii/S1631071318301196?via%3Dihub
  3. https://climate.nasa.gov/faq/15/is-the-ozone-hole-causing-climate-change/
No ayudó que las operaciones del instrumento Backscatter Ultraviolet (BUV) en Nimbus 4 tuvieran que reducirse después de solo dos años en funcionamiento debido a una falla parcial del panel solar en el satélite. Las lecturas fueron escasas después de la falla de 1972, y se volvieron aún más escasas a medida que avanzaba la misión. Tampoco ayudó que el BUV, junto con su sucesor SBUV en Nimbus 7, buscaran estrictamente el nadir; solo vieron pequeños parches de la atmósfera. El instrumento TOMS del Número 7 era un dispositivo de escaneo, pero como era nuevo, había preocupaciones sobre la verificación y validación.
En caso de que alguien quiera leer un poco más sobre Nimbus 7 y su instrumento TOMS: directory.eoportal.org/web/eoportal/satellite-missions/n/… .
DYAC, ya no puedo corregir mi comentario de hace un par de días. Me refiero a Nimbus 7, no al Número 7.

Los agujeros en la capa de ozono se conocían desde 1957. Los científicos simplemente se olvidaron del informe anterior porque nadie estaba interesado en el tema en el momento del descubrimiento.

Me encontré con este hecho mientras revisaba los eventos registrados en el NY Times o en el Omaha Herald (a través de microfichas) que ocurrieron en mi año de nacimiento mientras estaba en la universidad.

No he encontrado ningún artículo web que confirme esto, pero un artículo de la NASA menciona que los británicos midieron el ozono en 1956/1957: https://ozonewatch.gsfc.nasa.gov/facts/history_SH.html

¡Bienvenidos al Espacio! Puede estar en algo; 1957/8 fue el famoso Año Geofísico Internacional Vea todas estas preguntas y produjo (entre otras cosas) el meme de la Tierra en forma de pera . Fue una campaña para medir cosas sobre la Tierra en todo el mundo por tantos países como sea posible. Definitivamente hubo una campaña para medir la columna total de ozono en el polo sur y posiblemente también en otros lugares.