¿Qué es el frecuentismo?

Estoy estudiando para un examen y me encontré con el frecuentismo. Sinceramente, no entiendo nada de eso. ¿El frecuentismo está relacionado solo con la probabilidad? ¿Por qué las probabilidades se entienden como frecuencias? Creo que son diferentes de las frecuencias. Además, ¿cuáles son los defectos del frecuentismo?

Perdón por la pregunta, pero estoy muy confundido con este tema.

Hice algunas modificaciones que puede revertir o continuar editando. Puede ver las ediciones haciendo clic en el enlace "editado" de arriba. ¡Bienvenido a este SE!

Respuestas (2)

Wikipedia proporciona una base útil para esta consulta en la medida en que señala la base probabilística del frecuentismo (por ejemplo, consulte el enlace 1 a continuación). Ahí es donde sugeriría que el OP comience su exploración. Como no soy de los que hacen distinciones finas y duras entre disciplinas, solo señalaría que los resúmenes de Wiki alejan el debate de lo filosófico y lo acercan a un terreno más matemático y estadístico.

De hecho, en las últimas décadas ha habido guerras de religión entre dos escuelas de estadísticos, una que se autodenomina frecuentista , asociada con las ideas clásicas de inferencia y probabilidad, tal como se enseña típicamente en las clases de Estadísticas 101, por ejemplo, valores de p inferiores a 0,05 como una herramienta de decisión, frente a los bayesianos que rechazan este marco clásico sustituyendo la credibilidad o la fuerza/grados de creencia en lugar de límites. Los bayesianos también establecieron un marco iterativo tripartito para la inferencia basado en la regla de Bayes.(por ejemplo, consulte el enlace 2 a continuación) que se originan con suposiciones y creencias previas o "subjetivas" (generalmente definidas por una distribución estadística teórica para los datos o la información bajo análisis), seguidas de una estimación empírica de una probabilidad en función de esas creencias previas y terminando con resumir los resultados posteriores de esa estimación que se utiliza para actualizar los anteriores. Los enfoques bayesianos para la estimación se asemejan a las simulaciones y pueden ser computacionalmente intensivos, lo que los hace engorrosos y lentos con grandes cantidades de datos. Los frecuentistas , por otro lado, se oponen enérgicamente al uso de supuestos subjetivos.

Dicho esto, los filósofos de la ciencia han intervenido en estos temas. Entre las contribuciones frecuentes importantes se encuentra el libro reciente de Deborah Mayo Inferencia estadística como pruebas severas: cómo ir más allá de las guerras estadísticas . Aquí está el resumen de Amazon:

Los crecientes fracasos de replicación en las ciencias sociales y biológicas dan una nueva urgencia a la evaluación crítica de las reformas propuestas. Este libro abre la tapa de los desacuerdos entre expertos encargados de restaurar la integridad de la ciencia. Niega dos puntos de vista generalizados sobre el papel de la probabilidad en la inferencia: asignar grados de creencia y controlar las tasas de error a largo plazo. Si los consumidores estadísticos desconocen los supuestos detrás de las reformas de evidencia rivales, no pueden escudriñar las consecuencias que los afectan (en medicina personalizada, psicología, etc.). El libro zarpa con una herramienta simple: si se ha hecho poco para descartar fallas al inferir un reclamo, entonces no ha pasado una prueba severa. Muchos métodos defendidos por los expertos en datos no resisten un escrutinio severo y están en tensión con las estrategias exitosas para bloquear o contabilizar la selección selectiva y los informes selectivos. A través de una serie de excursiones y exhibiciones, la filosofía y la historia de la inferencia inductiva cobran vida. Las herramientas filosóficas se ponen a trabajar para resolver problemas sobre ciencia y pseudociencia, inducción y falsificación.

En el lado bayesiano, me gusta The Cult of Statistical Significance: How the Standard Error Costs Us Jobs, Justice, and Lives de McCloskey , que, entre otras cosas, es muy crítico con las pruebas de hipótesis frecuentistas clásicas desarrolladas por RA Fisher, uno de los grandes genios de la estadística del siglo XX. Nuevamente, el resumen de Amazon:

The Cult of Statistical Significance muestra, campo por campo, cómo la "significación estadística", una técnica que domina muchas ciencias, ha sido un gran error. Los autores encuentran que los investigadores en un amplio espectro de campos, desde la agronomía hasta la zoología, emplean "pruebas" que no prueban y "estimaciones" que no estiman. Los hechos sorprenderán al lector externo: ¿cómo es posible que un grupo de científicos brillantes se aleje tanto de las magnitudes científicas? Este estudio alentará a los científicos que quieran saber cómo volver a encarrilar las ciencias estadísticas y cumplir su promesa cuantitativa. El libro muestra por primera vez cuán amplio es el desastre y cuán malo para la ciencia, y rastrea el problema hasta sus raíces históricas, sociológicas y filosóficas.

Al igual que con muchos esfuerzos humanos, no hay respuestas inequívocas a este debate.

1) https://www.google.com/search?source=hp&ei=8jm3W_ClGIKzggfcoIL4DA&q=Frequentism+wiki&btnK=Google+Search&oq=Frequentism+wiki&gs_l=psy-ab.3..0i22i30l2.2007.2007..4036...0.0. .0.53.53.1......0....1j2..gws-wiz.0KGjn5lAHJE

2) https://en.wikipedia.org/wiki/Bayes%27_theorem

Los jugadores, los actuarios y los científicos han entendido desde hace mucho tiempo que las frecuencias relativas tienen una relación íntima con las probabilidades.

Las interpretaciones de frecuencia postulan la relación más íntima de todas: la identidad. Así, podríamos identificar la probabilidad de "cara" en una determinada moneda con la frecuencia de caras en una secuencia adecuada de lanzamientos de la moneda, dividida por el número total de lanzamientos.

Una versión simple de frecuentismo, que llamaremos frecuentismo finito, asigna probabilidades a eventos o atributos en una clase de referencia finita de una manera tan directa :

la probabilidad de un atributo A en una clase de referencia finita B es la frecuencia relativa de ocurrencias reales de A dentro de B.

Así, el frecuentismo finito guarda ciertas similitudes estructurales con la interpretación clásica, en la medida en que da el mismo peso a cada miembro de un conjunto de eventos, simplemente contando cuántos de ellos son 'favorables' como proporción del total.

La diferencia crucial, sin embargo, es que donde la interpretación clásica contaba todos los resultados posibles de un experimento dado, el frecuentismo finito cuenta los resultados reales.

Fue desarrollado por Venn (1876), quien en su discusión sobre la proporción de nacimientos de hombres y mujeres, concluye: “la probabilidad no es más que esa proporción” (p. 84, énfasis suyo) .

El frecuentismo finito sigue siendo la visión dominante de la probabilidad en estadística y en las ciencias en general. El frecuentismo finito da una definición operativa de probabilidad, y sus problemas comienzan ahí.

Por ejemplo, así como queremos permitir que nuestros termómetros puedan estar mal calibrados y, por lo tanto, podrían dar mediciones de temperatura engañosas, también queremos permitir que nuestras 'medidas' de probabilidades a través de frecuencias puedan ser engañosas, como cuando una moneda justa sale cara 9 de cada 10 veces.

Más que eso, parece estar integrado en la noción misma de probabilidad de que tales resultados engañosos puedan surgir. De hecho, en muchos casos, los resultados engañosos están garantizados. Comenzando con un caso degenerado:

según el frecuentista finito , una moneda que nunca se lanza al aire y que, por lo tanto, no produce ningún resultado real, carece por completo de probabilidad de cara; sin embargo, una moneda que nunca se mide no carece por ello de diámetro.

Quizás aún más preocupante, una moneda que se lanza exactamente una vez produce una frecuencia relativa de caras de 0 o 1, cualquiera que sea su sesgo. O podemos imaginar un átomo radiactivo único cuyas probabilidades de desintegrarse en varios momentos obedecen a una ley continua (por ejemplo, exponencial);

sin embargo, de acuerdo con el frecuentismo finito, con probabilidad 1 decae en el momento exacto en que realmente lo hace, porque su frecuencia relativa de hacerlo es 1/1. Lo suficientemente famosos como para merecer un nombre propio, estos son ejemplos del llamado "problema del caso único". De hecho, muchos eventos se consideran naturalmente no simplemente como irrepetibles, sino irrepetibles en un sentido fuerte:

la elección presidencial de 2000, el juego final de los playoffs de la NBA de 2001, la Guerra Civil, el asesinato de Kennedy, ciertos eventos en la historia muy temprana del universo. No obstante, parece natural pensar en probabilidades no extremas asociadas a algunos, y quizás a todos, de ellos. Peor aún, algunos cosmólogos consideran que el hecho de que nuestro universo esté abierto o cerrado es una cuestión genuinamente arriesgada (aparentemente, ciertas fluctuaciones cuánticas podrían, en principio, inclinarlo hacia un lado o hacia el otro), pero sea lo que sea, es un "caso único". en el sentido más fuerte posible.

El problema del caso único es particularmente llamativo, pero en realidad tenemos una secuencia de problemas relacionados:

'el problema del caso doble', 'el problema del caso triple'... Cada moneda que se lanza exactamente dos veces puede producir solo las frecuencias relativas 0, 1/2 y 1, cualquiera que sea su sesgo... Una clase de referencia finita de tamaño n , por grande que sea n, solo puede producir frecuencias relativas en un cierto nivel de 'grano', a saber, 1/n.

Entre otras cosas, esto descarta las probabilidades irracionales; sin embargo, nuestras mejores teorías físicas dicen lo contrario. Además, hay un sentido en el que cualquiera de estos problemas puede transformarse en el problema del caso único.

Supongamos que lanzamos una moneda mil veces. Podemos considerar esto como una sola prueba de un experimento de mil lanzamientos de la moneda. Sin embargo, no queremos comprometernos a decir que ese experimento produce su resultado real con probabilidad 1.

El problema del caso único es que el frecuentista finito no ve probabilidades intermedias en varios lugares donde otros sí lo hacen.

También existe el problema inverso: el frecuentista ve probabilidades intermedias en varios lugares donde otros no las ven. Nuestro mundo tiene una miríada de entidades diferentes, con una miríada de atributos diferentes.

Podemos agruparlos en aún más conjuntos de objetos y luego preguntarnos con qué frecuencias relativas aparecen varios atributos en estos conjuntos. Muchas de esas frecuencias relativas serán intermedias; el frecuentista finito los identifica automáticamente con probabilidades intermedias. Pero parecería que si son o no probabilidades genuinas, en lugar de meras cuentas, depende del caso en cuestión.

Las proporciones desnudas de atributos entre conjuntos de objetos dispares pueden carecer del tipo de fuerza modal que uno podría esperar de las probabilidades.

Pertenezco a la clase de referencia que consiste en mí mismo, la Torre Eiffel, el castillo de arena más al sur en la playa de Santa Mónica y el Monte Everest. Dos de estos cuatro objetos tienen menos de 7 pies de altura, una frecuencia relativa de 1/2; además, podríamos extender fácilmente esta clase, conservando esta frecuencia relativa (o, con la misma facilidad, no hacerlo).

Sin embargo, sería extraño decir que mi probabilidad de medir menos de 7 pies de altura, en relación con esta clase de referencia, es 1/2, aunque es perfectamente aceptable (aunque poco interesante) decir que 1/2 de los objetos en la clase de referencia mide menos de 7 pies de altura.

Algunos frecuentistas (notablemente Venn 1876, Reichenbach 1949 y von Mises 1957 entre otros), en parte en respuesta a algunos de los problemas anteriores, han pasado a considerar infinitas clases de referencia, identificando probabilidades con frecuencias relativas limitantes de eventos o atributos en ellas.

Por lo tanto, requerimos una secuencia infinita de intentos para definir tales probabilidades .

Pero, ¿y si el mundo real no proporciona una secuencia infinita de pruebas de un experimento dado? De hecho, esa parece ser la norma, y ​​quizás incluso la regla.

En ese caso, debemos identificar la probabilidad con una frecuencia relativa limitante hipotética o contrafáctica. Debemos imaginar extensiones infinitas hipotéticas de una secuencia real de pruebas;

las probabilidades son entonces cuáles serían las frecuencias relativas limitantes si la secuencia fuera tan extensa. Por lo tanto, podríamos llamar a esta interpretación frecuentismo hipotético.

Nótese que en este punto hemos dejado atrás el empirismo. Se ha inyectado un elemento modal en el frecuentismo con esta invocación de un contrafactual; además, el contrafactual puede implicar una desviación radical de la forma en que realmente son las cosas, que incluso puede requerir la ruptura de las leyes de la naturaleza. (¡Piense en lo que se necesitaría para que la moneda en mi bolsillo, que solo se ha lanzado una vez, se lance infinitamente muchas veces, sin gastarse nunca y sin quedarse sin personas dispuestas a lanzarla!) Uno puede preguntarse, además, si siempre, o nunca, hay un hecho de lo que son esas frecuencias relativas contrafácticas.

Hemos visto que limitar las frecuencias relativas debe relativizarse a una secuencia de ensayos. Aquí radica otra dificultad. Considere una secuencia infinita de los resultados de lanzar una moneda, como podría ser H, T, H, H, H, T, H, T, T, ... Suponga para mayor precisión que la secuencia de frecuencia relativa correspondiente para caras, que comienza 1 /1, 1/2, 2/3, 3/4, 4/5, 4/6, 5/7, 5/8, 5/9, …, converge a 1/2.

Al reordenar adecuadamente estos resultados, podemos hacer que la secuencia converja a cualquier valor en [0, 1] que queramos. (Si esto no es obvio, considere cómo la frecuencia relativa de los números pares entre los enteros positivos, que intuitivamente 'deberían' converger a 1/2, puede en cambio converger a 1/4 al reordenar los enteros con los números pares en cada cuarto lugar, de la siguiente manera: 1, 3, 5, 2, 7, 9, 11, 4, 13, 15, 17, 6, ...) Sin duda, puede haber algo natural en el orden de los lanzamientos como se indica: por ejemplo,

puede ser su ordenamiento temporal. Pero puede haber más de un ordenamiento natural. Imagine los lanzamientos que tienen lugar en un tren que se desvía hacia adelante y hacia atrás en las vías que están orientadas de oeste a este. Entonces, el ordenamiento espacial de los resultados de oeste a este podría verse muy diferente. ¿Por qué se debe privilegiar un orden sobre los demás?

Una objeción bien conocida a cualquier versión de frecuentismo es que las frecuencias relativas deben ser relativizadas a una clase de referencia. Considere una probabilidad que me concierne y que me importa, por ejemplo, mi probabilidad de vivir hasta los 80 años. Pertenezco a la clase de los hombres, a la clase de los no fumadores, a la clase de los profesores de filosofía que tienen dos vocales en su apellido... Presumiblemente , la frecuencia relativa de los que viven hasta los 80 años varía entre (la mayoría de) estas clases de referencia.

¿Cuál es, entonces, mi probabilidad de vivir hasta los 80 años? Parece que no hay una única respuesta frecuentista. En cambio, está mi probabilidad qua-masculino, mi probabilidad qua-no fumador, mi probabilidad qua-masculino-no fumador, y así sucesivamente.

Este es un ejemplo del llamado problema de la clase de referencia para el frecuentismo (aunque se puede argumentar que también surgen análogos del problema para las otras interpretaciones[9]). Y como hemos visto en el párrafo anterior, el problema solo se complica para limitar las frecuencias relativas : las probabilidades deben relativizarse no solo a una clase de referencia, sino a una secuencia dentro de la clase de referencia. Podríamos llamar a esto el problema de la secuencia de referencia.

El comienzo de una solución a este problema sería restringir nuestra atención a secuencias de cierto tipo, aquellas con ciertas propiedades deseables .

Por ejemplo, hay secuencias para las que no existe la frecuencia relativa límite de un atributo dado; Reichenbach excluye así tales secuencias. Von Mises (1957) nos brinda una restricción más completa a lo que él llama colectivos: hipotéticas secuencias infinitas de atributos (resultados posibles) de experimentos específicos que cumplen ciertos requisitos. Llame a una selección de lugar un método efectivamente especificable de seleccionar índices de miembros de la secuencia, tal que la selección o no del índice i depende como máximo de los primeros i − 1 atributos. Los axiomas son:

Un axioma de Convergencia : existe la frecuencia relativa limitante de un atributo.

Un axioma de aleatoriedad: la frecuencia relativa límite de cada atributo en un ω colectivo es la misma en cualquier subsecuencia infinita de ω que está determinada por una selección de lugar. La probabilidad de un atributo A, relativa a un ω colectivo, se define entonces como la frecuencia relativa límite de A en ω. Tenga en cuenta que una secuencia constante como H, H, H, ..., en la que la frecuencia relativa límite es la misma en cualquier subsecuencia infinita, satisface trivialmente el axioma de aleatoriedad. Esto pone un poco de tensión en la terminología: de entrada, tales secuencias parecen ser tan no aleatorias como vienen, aunque para estar seguros, es deseable que las probabilidades se asignen incluso en tales secuencias. Sea como fuere, existe un paralelismo entre el papel del axioma de aleatoriedad en la teoría de von Mises y el principio de máxima entropía en la teoría clásica:

Veamos cómo les va a las interpretaciones frecuentistas según nuestros criterios de adecuación. Las frecuencias relativas finitas, por supuesto, satisfacen la aditividad finita. En una clase de referencia finita, solo pueden ocurrir un número finito de eventos, por lo que solo un número finito de eventos puede tener una frecuencia relativa positiva. En ese caso, la aditividad contable se satisface de manera algo trivial: todos menos un número finito de términos en la suma infinita serán 0. Limitar las frecuencias relativas viola la aditividad contable (de Finetti 1972, §5.22). De hecho, el dominio de definición de la frecuencia relativa límite ni siquiera es un campo, y mucho menos un campo sigma (de Finetti 1972, §5.8). Entonces tales frecuencias relativas no proporcionan una interpretación admisible de los axiomas de Kolmogorov.

El frecuentismo finito no tiene problemas para cumplir con el criterio de determinabilidad, ya que, en principio, las frecuencias relativas finitas se determinan fácilmente. No se puede decir lo mismo de limitar las frecuencias relativas. Por el contrario, cualquier secuencia finita de ensayos (que, después de todo, es todo lo que vemos) literalmente no impone ninguna restricción al límite de una secuencia infinita; aún menos una sucesión finita real impone alguna restricción sobre el límite de una sucesión hipotética infinita, por muy rápido que juguemos con la noción de 'en principio' en el criterio de determinabilidad.

Podría parecer que las interpretaciones frecuentistas cumplen rotundamente con el criterio de aplicabilidad a las frecuencias. El frecuentismo finito lo cumple muy bien, mientras que el frecuentismo hipotético lo cumple de forma equivocada. En todo caso, el frecuentismo finito hace que la conexión entre probabilidades y frecuencias sea demasiado estrecha, como ya hemos observado.

Una moneda justa que se lanza un millón de veces es muy poco probable que caiga cara exactamente la mitad de las veces; ¡uno que se lanza un millón y una vez es incluso menos probable que lo haga! Los hechos sobre frecuencias relativas finitas deben servir como evidencia, pero no como evidencia concluyente, para las asignaciones de probabilidad relevantes. El frecuentismo hipotético no logra conectar probabilidades con frecuencias finitas.

Los conecta con frecuencias relativas limitantes, por supuesto, pero de nuevo con demasiada fuerza: incluso en secuencias infinitas, los dos pueden separarse. (Una moneda justa podría caer cara para siempre, incluso si es muy poco probable que lo haga). Sin duda, la ciencia tiene mucho interés en frecuencias infinitas y, de hecho, trabajar con ellas es gran parte del negocio de las estadísticas.

Si tiene algún interés en extensiones hipotéticas altamente idealizadas de secuencias reales y frecuencias relativas en ellas es otra cuestión. La aplicabilidad a la opinión racional es muy similar: está claro que tal opinión está guiada por información de frecuencia finita, no está claro que esté guiada por información sobre los límites de frecuencias hipotéticas.

Para críticas mucho más extensas del frecuentismo finito y el frecuentismo hipotético, véanse Hájek 1997 y Hájek 2009 respectivamente.

Ref.- https://plato.stanford.edu/entries/probability-interpret/#CriAdeForIntPro