¿Cómo se pueden falsear los enunciados de probabilidad?

He estudiado recientemente algunos puntos de vista filosóficos sobre la probabilidad y me encontré con un problema interesante planteado por Popper:

Según Popper, los enunciados de probabilidad no son estrictamente falsables. [Por ejemplo, el enunciado "la probabilidad de que llueva mañana es igual a 0,85" no se falsearía aunque no llueva mañana, ya que el enunciado también dice indirectamente que la probabilidad de que no llueva mañana es igual a 0,15 ; de modo que los enunciados de probabilidad de hecho se asemejan a enunciados que cubren todos los casos: es decir, enunciados de la forma "A o no A"].

Sin embargo, Popper agrega que, sin embargo, los científicos tratan los enunciados de probabilidad como falsables. A su vez, propone tratarlos como tales, pero parece dejar que los estadísticos expliquen los detalles de cómo falsificar declaraciones de probabilidad.

Mi pregunta tiene dos partes:

  1. En cuanto a la decisión metodológica de Popper de referirse a los enunciados de probabilidad como falsables, ¿no debilitaría su criterio de demarcación? ¿No haría científica toda ciencia social que se basa en la estadística?
  2. Con respecto a las estadísticas (de las cuales sé muy poco): ¿qué tipo de pruebas realizan los estadísticos para refutar hipótesis?
2. Suponga que la probabilidad de que ocurra A es 0,2 y la probabilidad de que ocurra B es 0,3. Suponiendo que A y B son independientes, la afirmación: la probabilidad de que A y B ocurran es 0,5 es falsable. (básica) La teoría de la probabilidad nos dice que la probabilidad de que ocurran tanto A como B es, de hecho, 0,06.
En algunos casos, la Ley de los Grandes Números se puede utilizar para falsificar probabilidades.
Hace un tiempo tuve una serie de preguntas al respecto. La respuesta parecía ser que la filosofía de la ciencia es más turbia de lo que podría sugerir la fácil y clara falsificación de los enunciados lógicos. A partir de las respuestas que obtuve, todo el proceso de falsificación implicó la abducción para rechazar hipótesis que son lo suficientemente "improbables".
Con respecto a la 2ª parte, uno de los métodos que se pueden utilizar es el de “correlación” con una prueba doble ciego.
La parte estadística se responde en Prueba de hipótesis: Fisher vs. Popper vs. Bayes hsm.stackexchange.com/questions/3176/… , y la demarcación de Popper en su aplicación a las ciencias sociales se aborda en Semántica del criterio de demarcación de Popper.philosophy.stackexchange.com /preguntas/24530/…
Gracias por todos los comentarios; y @conifold: gracias por estos útiles enlaces relacionados.

Respuestas (5)

Popper expresa su posición sobre la contrastabilidad de los enunciados sobre probabilidad más claramente al final de la Sección 68 de LScD, véase también la Sección 66. Su posición es que tenemos que hacer una regla metodológica sobre qué frecuencias relativas deben considerarse consistentes con una estimación de probabilidad . Esa regla, sostiene, no debe ser arbitraria, sino que debe ser el resultado de la precisión con la que se puede probar la regla con la tecnología disponible. En LScD, Popper abogó por la teoría de frecuencia de la probabilidad. Más tarde cambió de opinión y adoptó una interpretación de probabilidad de propensión, pero esto no cambió la sustancia de su posición sobre la comprobabilidad de las declaraciones de probabilidad. La interpretación de la propensión postula algún tipo de medida sobre el conjunto de estados posibles, pero Popper no lo hizo.

David Deutsch ha proporcionado una explicación más satisfactoria de la contrastabilidad de los enunciados probabilísticos. Los enunciados del tipo comúnmente descritos como probabilísticos pueden probarse cuando las leyes de la física proporcionan una medida sobre el conjunto de posibilidades que respeta el cálculo de probabilidades. Tal medida se ha derivado en el contexto de la teoría cuántica. Véase también una conferencia que ha dado sobre este tema.

Gracias de nuevo, @alanf. Acabo de escuchar la conferencia a la que se refirió y eché un vistazo, aunque rápido, al artículo de Deutsch 'La lógica de las pruebas experimentales', aunque necesito procesarlo. Desea verificar: ¿prescinde de la interpretación de la probabilidad apelando a la metafísica de múltiples mundos?... ¿Podría por favor explicar su razonamiento en palabras simples? (Dice que es popperiano pero... no acepta el enfoque popperiano de la probabilidad al hablar de probabilidades objetivas, o tal vez lo interpreté mal).
La mayoría de las discusiones sobre probabilidad suponen que algún estado se extrae al azar de un sombrero. Tales discusiones no explican de dónde vienen estas probabilidades, lo cual no es bueno. Eso no es cierto en la teoría cuántica. Existe una cantidad física objetiva que respeta las reglas de la probabilidad y puede actuar como guía para algunos tipos de decisiones. El hecho de que la cantidad en cuestión pueda actuar como guía para las decisiones no lo hace subjetivo. Puede haber o no otras cantidades similares relacionadas con otras teorías.
Las similitudes relevantes con Popper son: (1) Rechazo de las teorías de probabilidad subjetiva. (2) Rechazo del inductivismo en general, incluida la inducción probabilística.

Esta respuesta debe leerse como una especie de comentario extendido sobre la respuesta de alanf, con la que estoy ampliamente de acuerdo, pero me gustaría calificar. Deutsch argumenta que las probabilidades pueden eliminarse de las teorías físicas, en otras palabras, que no necesitamos procesos estocásticos en una teoría física. En particular, le preocupa mantener que la teoría cuántica, que a menudo se ha interpretado que involucra indeterminaciones fundamentales, puede entenderse como una explicación determinista de cómo se comportan las partículas y los campos en una multitud de mundos, de acuerdo con la interpretación de muchos mundos.

Deutsch luego procede a descartar la noción epistémica de las credenciales, pero esto no tiene por qué seguir del rechazo de las probabilidades físicas. Nosotros, como agentes cognitivos con capacidades limitadas e imperfectas, nunca poseemos información perfecta sobre nada. Cada vez que tomamos decisiones, que es todo el tiempo, nos vemos obligados a tomar esas decisiones bajo incertidumbre y, a menos que tengamos alguna forma de cuantificar esa incertidumbre, seremos propensos a tomar malas decisiones. Esta es la razón por la que las probabilidades aparecen en la teoría de la decisión: no significa que estemos tomando decisiones sobre eventos estocásticos, simplemente que estamos tomando decisiones con información incompleta o imperfecta. Las probabilidades simplemente están ahí para cuantificar la incertidumbre. Bruno de Finetti mostró cómo, usando argumentos de libros holandeses, podemos partir de una noción muy inocua y plausible de lo que constituye una decisión mala o irracional, y derivar de ella la teoría de la probabilidad. Otros, incluidos Richard Cox y Edwin Jaynes, han demostrado cómo se puede utilizar una noción primitiva de inferencia para derivar la probabilidad.

El resultado de esto es que el razonamiento inductivo que utiliza probabilidades epistémicas está muy vivo y prosperando en la práctica estadística, y en particular en los dominios de aprendizaje automático/inteligencia artificial. En cuanto a su pregunta específica sobre qué tipos de pruebas realizan los estadísticos, no hay un acuerdo general sobre la metodología. Los tres campos principales son clásico (frecuentista), bayesiano y verosimilitud. En líneas generales, el enfoque clásico implica formular hipótesis nulas, diseñar experimentos para probarlas y rechazar la hipótesis si los resultados son significativos (Fisher), o probar hipótesis de acuerdo con sus tasas de error de falsos positivos y falsos negativos (Neyman y Pearson). Los bayesianos especifican distribuciones de probabilidad previas y usan datos para actualizar esas distribuciones.

Esta respuesta no tiene sentido. Las probabilidades son predicciones numéricas precisas. No se pueden obtener predicciones numéricas precisas a partir de la ignorancia. Más bien, debe asignar una medida sobre un espacio de estados. Entonces, debe conocer las leyes de la física que dan la medida y el espacio de estados relevantes. El enfoque tipo Jaynes consiste en asumir implícitamente tal espacio de estado y medida. Esto oscurece los problemas potenciales con la medida elegida.
El razonamiento inductivo no se usa en absoluto ya que es imposible (Deutsch, "Fabric of Reality" ch 3 y 7 y Popper "Objective Knowledge" Capítulo 1). Para críticas de la probabilidad inductiva, véase la Parte II de "Realism and the Aim of Science" de Popper. El aprendizaje automático, etc. implica configurar una computadora con un espacio de estado y una medida apropiada sobre ese espacio de estado para que la computadora realice alguna tarea. ¿Cómo se hace esto? Adivina un montón de medidas y ejecuta programas que respetan esas medidas. Luego elige algunos de los programas, los modifica y vuelve a intentarlo hasta que obtenga un programa lo suficientemente bueno.
Las probabilidades no tienen que ser precisas, pueden tomar la forma de rangos o distribuciones. Además, no estoy afirmando que las predicciones surjan de la ignorancia sin una medida o un espacio de estado, ya que en la práctica nunca carecemos de ellos, aunque nuestras conjeturas iniciales sobre ellas pueden ser muy inexactas y necesitan revisión. Lo que hacen las probabilidades es cuantificar la incertidumbre y ayudarnos a hacer inferencias y decisiones con información incierta. Si no hacen esto, ¿por qué supones que la probabilidad tiene tantas aplicaciones útiles?
En cuanto a que el razonamiento inductivo es imposible, yo diría más bien que es ubicuo e ineludible: así que quizás estemos hablando de algo diferente con el término. Lo estoy usando en un sentido amplio para cubrir cualquier tipo de razonamiento ampliativo. Decir que la inducción es imposible parece significar solo que la inducción no es reducible a deducción, pero eso sería perder el sentido.
cuando creas que lo imposible es "ubicuo e ineludible", revisa tus premisas. Supongo que realmente no crees que sea imposible, pero tampoco has abordado los argumentos de que la inducción es imposible y que cualquiera que lo haga es un mito. no pareces familiarizado con las ideas popperianas a las que eres hostil.

Ninguna falsación empírica es nunca decisiva, ya sea que la teoría sea probabilística o no. Popper discutió esto, por ejemplo, la sección 29 de LScD "LA RELATIVIDAD DE LAS DECLARACIONES BÁSICAS". el problema básico, también conocido como el problema duhem-quine, es que siempre que tenga una refutación, la teoría refutada es incorrecta O la refutación en sí misma podría ser incorrecta, por lo que nunca es totalmente clara, decisiva y resuelta.

Entonces, ¿qué haces en su lugar? Criticas y dejas de buscar certezas. Intenta encontrar malas ideas y rechazarlas. ¿Tiene sentido? ¿Algún problema lógico? ¿Resuelve el problema que se supone que debe resolver? ¿Causa algún problema? Buscas buenas cualidades para las ideas y cosas malas con ellas. Haz tu mejor esfuerzo para pensar y mejorar tus ideas. Haz crecer tu conocimiento en lugar de anhelar respuestas finales incuestionables. Esto funciona igual con teorías probabilísticas y no probabilísticas.

No creo que esto sea complicado.

Si afirmamos que la probabilidad de algún evento es muy, muy pequeña y luego ocurre, entonces esa declaración de probabilidad es falsa (con una probabilidad muy pequeña de estar en error). Esto da un subconjunto de declaraciones de probabilidad que se pueden falsificar. Este sería el enfoque estadístico clásico adoptado por Fisher, Neyman y Pearson.

Tenga en cuenta que si un evento ya ha ocurrido, tiene una probabilidad de 1 y no tiene sentido asignarle ninguna otra probabilidad. El orden de es importante. Por ejemplo, no lanzamos un dado 10 veces, obteniendo 4 5 2 4 5 4 2 3 1 4, y luego continuamos diciendo que la probabilidad de obtener esta secuencia con un dado justo es 1.6e-08 y por lo tanto rechazamos que este es un dado justo.

Con respecto a su "ejemplo de probabilidad de lluvia": la probabilidad dada es grande, por lo tanto, no es falsable. Sin embargo, a partir de una teoría que se puede usar para calcular tales probabilidades, puede obtener una declaración de probabilidad con una probabilidad pequeña, por ejemplo, "la probabilidad de que llueva todos los días durante 100 días es 1e-6". Si luego lloviera todos los días durante 100 días, la teoría sería falsa.

No estoy seguro de cómo Popper resolvió el problema, pero en general, tratamos los enunciados estadísticos como referentes a un conjunto de eventos, no a un solo evento. La afirmación "un átomo de uranio tiene una probabilidad X/Y de desintegrarse en el tiempo T", significa que esperamos que la proporción observada se acerque a X/Y a medida que observamos más y más átomos.

En cierto sentido, esto todavía no es estrictamente falsable, porque no hay nada que impida las anomalías estadísticas. Sin embargo, se pueden establecer estándares para desviaciones esperadas aceptables.