¿Alguna vez se equivocó la navaja de afeitar de Occam?

En resumen, estoy buscando un ejemplo en el que la navaja de Occam favoreciera una teoría A sobre otra teoría B, pero la teoría B resultó ser una mejor descripción de la realidad más adelante. Pero permítanme formular algunos criterios de lo que quiero decir con eso:

  • En primer lugar, dado que nuestra perspectiva moderna puede estar sesgada, por ejemplo, debido a avances didácticos en la teoría prevaleciente o nuevos conocimientos sobre experimentos históricos, considere mis criterios sobre las cualidades de las teorías para referirse a opiniones y declaraciones científicas históricas, siempre que puede considerarse que se basa en la razón (en lugar de, por ejemplo, estar fuertemente influenciado por un sesgo religioso).

  • En un momento dado, dos teorías (A y B) fueron comparativamente buenas para describir el mismo aspecto de la realidad que era observable en ese momento. No tenían por qué haber sido descripciones perfectas de las observaciones disponibles, pero no deberían haber sido tan lejanas como para ser aplicables sólo a casos especiales oa ninguna en absoluto.

  • La navaja de Occam fue invocada razonablemente en una disputa científica a favor de la teoría A. No es necesario que esta invocación haya sucedido por nombre ni en una publicación revisada por pares (si es que existió en ese momento). También me interesan, pero no prefiero, los casos en los que los seguidores de ambas teorías invocaron la navaja de Occam (o similar) para argumentar en contra de la otra teoría respectiva.

  • En un momento posterior, la teoría B o una modificación razonablemente pequeña de la misma resultó ser una mejor descripción de la realidad que la teoría A. Alternativamente, la teoría B todavía se usa hoy para algunos aspectos, mientras que la teoría A no lo es. La teoría B no tiene por qué ser la teoría predominante en la actualidad.

Pregunto por curiosidad. Soy muy consciente de que la existencia de tal ejemplo no invalida la navaja de Occam.

La teoría matemática desde la década de 1870 ha reconocido que existe más de una variedad de cantidad infinita; por ejemplo, que el número infinito que cuenta los enteros es esencialmente diferente del número infinito que cuenta los puntos de una recta; de hecho, la familia de diferentes cantidades infinitas es en sí misma infinita. Para un matemático del siglo XVIII o anterior, esto habría parecido una proliferación de entidades extraña e innecesaria, pero ahora se reconoce universalmente como correcta.
No, porque se trata de probabilidades, por lo que se puede ver en general, pero no en un caso aislado específico.
A menudo encuentro que después de inspeccionar los resultados de un experimento y los controles disponibles, la teoría X más simple parece más probable que la teoría Y más complicada (donde ambas parecen ser posibles explicaciones). Pero al realizar experimentos de control adicionales que prueban más variables, resulta que Y es cierto y X no lo es. ¿Esto cuenta?
No estoy seguro de entender. ¿Está usted preguntando si alguna vez ha habido una teoría más parsimoniosa que una teoría contendiente pero falsificada empíricamente, después de un período en el que ambas teorías eran igualmente plausibles empíricamente, mientras que la contendiente sobrevivió a la falsificación? Creo que esto describiría muchos debates entre una teoría original y parsimoniosa y una modificación menos parsimoniosa pero "realista" de la teoría original.
@henning: Creo que esto describiría muchos debates entre una teoría original y parsimoniosa y una modificación menos parsimoniosa pero 'realista' de la teoría original. – Me sorprendería que alguien discutiera con la navaja de Occam en este caso. Alguien podría argumentar que la modificación es objetivamente incorrecta o irrelevante, pero no argumentaría que es poco probable que la modificación sea correcta solo porque el original es más simple, lo que esencialmente sería argumentar que la modificación es incorrecta porque es una modificación.

Respuestas (5)

A modo de carraspeo, ¿qué es la navaja de Occam? John Baez tiene un ensayo útil que da la historia y algunos ejemplos. La formulación original de Guillermo de Ockham fue

Las entidades no deben multiplicarse innecesariamente.

En otras palabras, no asuma la existencia de algo a menos que haya buena evidencia para ello. Nuevamente citando a Báez, "En física usamos la navaja para afeitar conceptos metafísicos". El ejemplo canónico es desechar el éter. El tiempo y el espacio absolutos de Newton, las explicaciones mecánicas de la gravedad y las trayectorias clásicas de las partículas han sentido el filo de la navaja.

Pero Báez también menciona un famoso fracaso de esta versión de la navaja de Occam:

Mach y sus seguidores afirmaron que las moléculas eran metafísicas porque eran demasiado pequeñas para detectarlas directamente.

El punto de Mach es que la hipótesis molecular es simplemente una decoración innecesaria superpuesta a las regularidades empíricas (leyes de Dalton y Gay-Lussac en química, la ley de Boyle) que funcionan perfectamente sin adornos adicionales. Tenemos (o eso diría Mach) una analogía:

éter : relatividad = moléculas : (química+física)

La navaja de Occam a menudo se fortalece con la regla de la simplicidad : en una formulación (tomada del ensayo de Baez),

Es más probable que la explicación más simple de algún fenómeno sea precisa que las explicaciones más complicadas.

A menudo, la gente dice la navaja de Occam cuando en realidad se refieren a la regla de la simplicidad. El problema obvio con la regla de la simplicidad es su subjetividad. Un excelente ejemplo es la hipótesis heliocéntrica.

Para los copernicanos del siglo XVI (Galileo, Kepler, algunos otros) el heliocentrismo era claramente más simple. En este período, la competencia era entre el verdadero heliocentrismo y los llamados híbridos geoheliocéntricos: los planetas giran alrededor del sol, que gira alrededor de la tierra. (El sistema geoheliocéntrico de Tycho fue el más famoso, pero no el único).

A los ojos modernos, el heliocentrismo parece obviamente más simple. Pero los defensores del geoheliocentrismo desplegaron dos poderosos argumentos a partir de la simplicidad.

  • El heliocentrismo era incompatible con la física tal como se entendía entonces. Kepler respondió inventando su propia física celeste, con tres fuerzas diferentes guiando a cada planeta, más la fuerza de la gravedad, que no tenía nada que ver con la órbita del planeta.
  • La falta de paralaje estelar detectable implicaba distancias enormemente mayores a las estrellas fijas que con una teoría geoheliocéntrica. Los tamaños aparentes de los discos estelares (un artefacto de la óptica, no comprendido en ese momento) implican que todas las demás estrellas son mucho más grandes que el sol. Tycho fue el primero en presentar este argumento, bastante convincente para muchos de sus contemporáneos. (Consulte este artículo de Chris Graney para obtener más detalles).

La simplicidad no es simple.

Además, Popper argumentó que lo que hace que una hipótesis sea "simple" es la facilidad con que se falsifica, por ejemplo, se necesitan más puntos para refutar una elipse que un círculo, de ahí el término "helicóptero de Popper". Entonces, la gente refina la navaja para que se ajuste a sus nuevas ideas.
Curiosamente, desde el punto de vista de la precisión predictiva, las órbitas elípticas de Kepler fueron mucho menos importantes que algunas de sus otras innovaciones, entre ellas tecnicismos nunca mencionados en relatos breves. Como comenta Curtis Wilson en un artículo de la Enciclopedia de la Historia de la Astronomía, durante algún tiempo todo lo que la observación podía decir es que las órbitas eran ovaladas.

En la década de 1960, se conjeturó que la estructura matemática de los grados de Turing era bastante simple y homogénea. Esto era consistente con lo que se sabía en ese momento. Más tarde resultó que lo contrario es cierto en cierto sentido: los grados de Turing son tan complicados como pueden ser.

Detalles en Ambos-Spies y Fejer, Historia de la teoría del grado .

Tengo algunos ejemplos adicionales, pero me preguntaba si la redacción de la pregunta excluía las matemáticas. (¿Hubo una teoría construida y favorecida por la comunidad sobre la suposición de la homogeneidad de los grados? Lo más cerca que puedo pensar sería un estudio intensivo de grandes axiomas cardinales que resultan ser inconsistentes. -- Los cardenales Reinhardt en ZFC no calificar.)
No puedo evaluar completamente su ejemplo por ahora, pero no estoy buscando algo que no resulte ser más complicado de lo que se pensaba. La navaja de Occam no favorece claramente la solución más simple, sino la más simple de dos soluciones que son igualmente buenas para describir la realidad. ¿Puede explicar un poco más cómo encaja su respuesta en esto, incluso si no encaja perfectamente? (Por cierto: lo siento por la respuesta tardía, de alguna manera lo olvidé por completo).
@AndresCaicedo: Me sorprendería mucho una respuesta que venga de las matemáticas, porque si bien existe la matemática experimental, no tengo conocimiento de que produzca hipótesis o teorías suficientemente generales. Sin embargo, los conjuntos de axiomas inconsistentes pueden ser algo interesante de observar (después de todo, se podría argumentar que lo más parecido que tienen las matemáticas a una teoría científica es que ciertos axiomas se cumplen en la vida real): ¿Se ha argumentado alguna vez que un conjunto de axiomas es preferible porque es más simple y este conjunto resultó ser inconsistente después?

Esto está demasiado cerca de fallar en mis criterios para no mencionarlo por completo.

En los primeros años de la genética molecular, solo se sabía que el código genético utilizaba un alfabeto de cuatro bases diferentes y codificaba veinte aminoácidos. De ahí surgieron varias hipótesis sobre el diseño del código, todas ellas capaces de explicar lo que se sabía experimentalmente en ese momento. Sin embargo, algunos de estos produjeron el número correcto de aminoácidos sin más preámbulos, es decir, no requerían este número como parámetro y, por lo tanto, eran ligeramente favorables según la navaja de Occam.

Por ejemplo, Crick et al. consideró códigos sin coma que presentaban inmunidad contra errores de cambio de marco. Demostraron que, dada una longitud de codón de tres, existen códigos que pueden codificar veinte aminoácidos y que era imposible tener un código que codificara más aminoácidos.

Los diseños de código que producían automáticamente el número correcto de aminoácidos despertaron especial interés en ese momento, sin embargo, cuando se descubrió el código genético real, resultó ser de un tipo diferente: se podían codificar hasta 63 aminoácidos con este diseño general.

Ahora bien, no puedo encontrar ninguna invocación contemporánea de la navaja de Occam. Crick incluso advirtió en contra (debido a que la selección natural no está obligada a producir el mecanismo más efectivo):

Si bien la navaja de Ockham es una herramienta útil en las ciencias físicas, puede ser un instrumento muy peligroso en biología. Por tanto, es muy temerario utilizar la sencillez y la elegancia como guía en la investigación biológica.

Aún así, la navaja fue mencionada en retrospectiva, por ejemplo, por Woese :

Los detalles de las teorías de codificación de Gamow (había más de una) ya no son de interés, porque en sus detalles sus modelos estaban equivocados. Sin embargo, su enfoque de la navaja de Occam y el impacto que su pensamiento tuvo en sus contemporáneos fue un factor importante para moldear cómo se percibía la expresión génica.

[…]

Pero sin duda, la teoría más memorable e influyente que surgió de este nuevo capítulo en la historia del código (en el sentido de que mantuvo una apariencia biológica y un estilo teórico) fue el famoso "código sin comas" de Crick, uno de esos triunfos maravillosos pero efímeros. del intelecto sobre la realidad (al que están predispuestos los teóricos). El código sin comas permaneció basado en la presunción esperanzadora de que el código podría inferirse a partir de primeros principios de algún tipo.

Para responder al ejemplo solicitado en el que la navaja de Occam favorecía una teoría A sobre otra teoría B, pero la teoría B resultó ser una mejor descripción de la realidad, más adelante mencionaré la historia del análisis real que se ha basado desde la década de 1870 en la teoría A ( para Arquímedes), que involucra el campo ordenado completo de Arquímedes. Un enfoque antiguo/nuevo implica una teoría B (para Bernoullian), que trabaja con infinitesimales como lo hizo Johann Bernoulli. Resulta que mientras el continuo de fondo es más fácil de describir en la pista A, los procedimientosson más fáciles de trabajar en la vía B. Por ejemplo, en lugar de definir la continuidad de una función requiriendo que por cada épsilon mayor que cero debería haber un delta mayor que cero tal que los estudiantes ya se están durmiendo o tomando pastillas calmantes, simplemente puede seguir a Cauchy (1821) al requerir que todo cambio infinitesimal α en la entrada debe producir un cambio infinitesimal en la salida: F ( X + α ) F ( X ) es infinitesimal.

El mejor ejemplo que se me ocurre es la cosmología del estado estacionario frente al big bang.

En los modelos de estado estacionario, el universo es homogéneo en el espacio y en el tiempo. En los modelos del big bang es homogéneo en el espacio pero no en el tiempo. Los modelos del Big Bang tienen muchos más parámetros que los modelos de estado estacionario porque hay muchas cosas que plausiblemente podrían haber sido diferentes en épocas anteriores.

Los modelos de ambos tipos se tomaron en serio hasta principios de la década de 1990, cuando COBE encontró anisotropías en el fondo cósmico de microondas. ΛCDM, un modelo big-bang, tiene suficientes parámetros para ajustarse al espectro de potencia CMB (que, cabe señalar, tiene una vaga forma de elefante ). Los modelos de estado estacionario no pueden reproducirlo, por lo que están equivocados.

¿Se ha invocado alguna vez la navaja de Occam como argumento a favor de los modelos de estado estacionario (frente al big bang)? Además, ¿no hay muchos más argumentos a favor del big bang que ΛCDM, que es solo una teoría específica que lo presenta? Finalmente, cuando su único argumento para una teoría es que tiene suficientes parámetros para adaptarse a cualquier cosa, esto me parece una gran señal de alerta.