He estudiado recientemente algunos puntos de vista filosóficos sobre la probabilidad y me encontré con un problema interesante planteado por Popper:
Según Popper, los enunciados de probabilidad no son estrictamente falsables. [Por ejemplo, el enunciado "la probabilidad de que llueva mañana es igual a 0,85" no se falsearía aunque no llueva mañana, ya que el enunciado también dice indirectamente que la probabilidad de que no llueva mañana es igual a 0,15 ; de modo que los enunciados de probabilidad de hecho se asemejan a enunciados que cubren todos los casos: es decir, enunciados de la forma "A o no A"].
Sin embargo, Popper agrega que, sin embargo, los científicos tratan los enunciados de probabilidad como falsables. A su vez, propone tratarlos como tales, pero parece dejar que los estadísticos expliquen los detalles de cómo falsificar declaraciones de probabilidad.
Mi pregunta tiene dos partes:
Popper expresa su posición sobre la contrastabilidad de los enunciados sobre probabilidad más claramente al final de la Sección 68 de LScD, véase también la Sección 66. Su posición es que tenemos que hacer una regla metodológica sobre qué frecuencias relativas deben considerarse consistentes con una estimación de probabilidad . Esa regla, sostiene, no debe ser arbitraria, sino que debe ser el resultado de la precisión con la que se puede probar la regla con la tecnología disponible. En LScD, Popper abogó por la teoría de frecuencia de la probabilidad. Más tarde cambió de opinión y adoptó una interpretación de probabilidad de propensión, pero esto no cambió la sustancia de su posición sobre la comprobabilidad de las declaraciones de probabilidad. La interpretación de la propensión postula algún tipo de medida sobre el conjunto de estados posibles, pero Popper no lo hizo.
David Deutsch ha proporcionado una explicación más satisfactoria de la contrastabilidad de los enunciados probabilísticos. Los enunciados del tipo comúnmente descritos como probabilísticos pueden probarse cuando las leyes de la física proporcionan una medida sobre el conjunto de posibilidades que respeta el cálculo de probabilidades. Tal medida se ha derivado en el contexto de la teoría cuántica. Véase también una conferencia que ha dado sobre este tema.
Esta respuesta debe leerse como una especie de comentario extendido sobre la respuesta de alanf, con la que estoy ampliamente de acuerdo, pero me gustaría calificar. Deutsch argumenta que las probabilidades pueden eliminarse de las teorías físicas, en otras palabras, que no necesitamos procesos estocásticos en una teoría física. En particular, le preocupa mantener que la teoría cuántica, que a menudo se ha interpretado que involucra indeterminaciones fundamentales, puede entenderse como una explicación determinista de cómo se comportan las partículas y los campos en una multitud de mundos, de acuerdo con la interpretación de muchos mundos.
Deutsch luego procede a descartar la noción epistémica de las credenciales, pero esto no tiene por qué seguir del rechazo de las probabilidades físicas. Nosotros, como agentes cognitivos con capacidades limitadas e imperfectas, nunca poseemos información perfecta sobre nada. Cada vez que tomamos decisiones, que es todo el tiempo, nos vemos obligados a tomar esas decisiones bajo incertidumbre y, a menos que tengamos alguna forma de cuantificar esa incertidumbre, seremos propensos a tomar malas decisiones. Esta es la razón por la que las probabilidades aparecen en la teoría de la decisión: no significa que estemos tomando decisiones sobre eventos estocásticos, simplemente que estamos tomando decisiones con información incompleta o imperfecta. Las probabilidades simplemente están ahí para cuantificar la incertidumbre. Bruno de Finetti mostró cómo, usando argumentos de libros holandeses, podemos partir de una noción muy inocua y plausible de lo que constituye una decisión mala o irracional, y derivar de ella la teoría de la probabilidad. Otros, incluidos Richard Cox y Edwin Jaynes, han demostrado cómo se puede utilizar una noción primitiva de inferencia para derivar la probabilidad.
El resultado de esto es que el razonamiento inductivo que utiliza probabilidades epistémicas está muy vivo y prosperando en la práctica estadística, y en particular en los dominios de aprendizaje automático/inteligencia artificial. En cuanto a su pregunta específica sobre qué tipos de pruebas realizan los estadísticos, no hay un acuerdo general sobre la metodología. Los tres campos principales son clásico (frecuentista), bayesiano y verosimilitud. En líneas generales, el enfoque clásico implica formular hipótesis nulas, diseñar experimentos para probarlas y rechazar la hipótesis si los resultados son significativos (Fisher), o probar hipótesis de acuerdo con sus tasas de error de falsos positivos y falsos negativos (Neyman y Pearson). Los bayesianos especifican distribuciones de probabilidad previas y usan datos para actualizar esas distribuciones.
Ninguna falsación empírica es nunca decisiva, ya sea que la teoría sea probabilística o no. Popper discutió esto, por ejemplo, la sección 29 de LScD "LA RELATIVIDAD DE LAS DECLARACIONES BÁSICAS". el problema básico, también conocido como el problema duhem-quine, es que siempre que tenga una refutación, la teoría refutada es incorrecta O la refutación en sí misma podría ser incorrecta, por lo que nunca es totalmente clara, decisiva y resuelta.
Entonces, ¿qué haces en su lugar? Criticas y dejas de buscar certezas. Intenta encontrar malas ideas y rechazarlas. ¿Tiene sentido? ¿Algún problema lógico? ¿Resuelve el problema que se supone que debe resolver? ¿Causa algún problema? Buscas buenas cualidades para las ideas y cosas malas con ellas. Haz tu mejor esfuerzo para pensar y mejorar tus ideas. Haz crecer tu conocimiento en lugar de anhelar respuestas finales incuestionables. Esto funciona igual con teorías probabilísticas y no probabilísticas.
No creo que esto sea complicado.
Si afirmamos que la probabilidad de algún evento es muy, muy pequeña y luego ocurre, entonces esa declaración de probabilidad es falsa (con una probabilidad muy pequeña de estar en error). Esto da un subconjunto de declaraciones de probabilidad que se pueden falsificar. Este sería el enfoque estadístico clásico adoptado por Fisher, Neyman y Pearson.
Tenga en cuenta que si un evento ya ha ocurrido, tiene una probabilidad de 1 y no tiene sentido asignarle ninguna otra probabilidad. El orden de es importante. Por ejemplo, no lanzamos un dado 10 veces, obteniendo 4 5 2 4 5 4 2 3 1 4, y luego continuamos diciendo que la probabilidad de obtener esta secuencia con un dado justo es 1.6e-08 y por lo tanto rechazamos que este es un dado justo.
Con respecto a su "ejemplo de probabilidad de lluvia": la probabilidad dada es grande, por lo tanto, no es falsable. Sin embargo, a partir de una teoría que se puede usar para calcular tales probabilidades, puede obtener una declaración de probabilidad con una probabilidad pequeña, por ejemplo, "la probabilidad de que llueva todos los días durante 100 días es 1e-6". Si luego lloviera todos los días durante 100 días, la teoría sería falsa.
No estoy seguro de cómo Popper resolvió el problema, pero en general, tratamos los enunciados estadísticos como referentes a un conjunto de eventos, no a un solo evento. La afirmación "un átomo de uranio tiene una probabilidad X/Y de desintegrarse en el tiempo T", significa que esperamos que la proporción observada se acerque a X/Y a medida que observamos más y más átomos.
En cierto sentido, esto todavía no es estrictamente falsable, porque no hay nada que impida las anomalías estadísticas. Sin embargo, se pueden establecer estándares para desviaciones esperadas aceptables.
M. le Fou
Era
Cort Amón
Guill
Conifold
Estudiante de LM