¿Cómo saber si el error está en una ley o en la incertidumbre de la medida?

Leí estas palabras en una (gran) respuesta a esta pregunta:

Hay errores que provienen de medir las cantidades y errores que provienen de la inexactitud de las leyes mismas

Pero, ¿cómo sabemos que los errores están en la medición o en la ley sobre la que hacemos las mediciones?

¿Notaste que la palabra activa en ese enlace era "si"? Cualquiera podría dudar de los métodos o resultados experimentales y ¿y qué? Por extraños que parezcan, los resultados pueden replicarse o no. Próximo…
Los errores experimentales de @RobbieGoodwin también se pueden replicar. ¿No es por eso que las cantidades que se pensaba que existían una vez fueron rechazadas más tarde?
Por supuesto que pueden, ¿y no es la idea general que si después de que 37 equipos en 12 países intentan replicar un experimento, no es razonable suponer que todos cometerán el mismo error? De lo contrario, ¿por qué no aceptaríamos simplemente lo que se publicó por primera vez?
@RobbieGoodwin La gente puede ser terca... ya veces aceptan la primera publicación de una sola vez, sin réplicas.
¿Podemos descartarlos por incumplir protocolos básicos o hay que escucharlos?
@RobbieGoodwin 37 equipos en 12 países han dado los datos correctos, pero aún así, la ley que supuestamente respaldan los datos puede estar muy equivocada
Por supuesto que eso es cierto y ¿cómo ayuda? Vaya más allá y trabaje con 371 equipos en 200 países. Ve tan lejos como quieras... y para ti, Deschele, ¿hasta dónde es suficiente?
@RobbieGoodwin Bueno, ¡200 países servirán! Incluso si cada equipo consta de dos personas. Aunque podría ser... ;-)
¿Estás realmente aceptando que los equipos vacíos en 200 países serán suficientes para ti?
@RobbieGoodwin Bueno, depende de lo que quieran probar experimentalmente. Si lo que intentan probar es algo con lo que estoy de acuerdo (digamos una teoría), entonces ya lo hará 1 equipo.
¡Gracias al menos por ser honesto al fin!
@RobbieGoodwin ¡Eso suena como el título de una canción! :-)

Respuestas (4)

Los errores de medición o los errores experimentales pueden reducirse, por ejemplo, utilizando equipos más precisos y sensibles; hacer múltiples mediciones y sacar un promedio; pensando en las posibles fuentes de ruido y tratando de compensarlas o reducirlas. Si hace todas estas cosas y todavía hay una diferencia entre los resultados reales y los esperados, y si esta diferencia es mayor de lo que pueden explicar las fuentes restantes de ruido o error, entonces el problema está en la ley o el modelo teórico que produjo los resultados esperados.

Por lo general, la "hipótesis nula" es que la ley o el modelo teórico es correcto, por lo que las discrepancias en los resultados se deben a un error experimental. Por lo general, un científico solo considerará modificar una ley o modelo después de que se hayan descartado todas las explicaciones alternativas de las discrepancias.

En mi opinión, @gandalf61 ha proporcionado la respuesta correcta. Permítanme ampliarlo un poco.

Errores de medición
La discrepancia entre la ley y los resultados de la medición puede provenir de diferentes fuentes, en particular de los errores de medición (algunos de los cuales no se pueden controlar), pero también posiblemente de la preparación de la muestra, diferentes condiciones en el momento de los experimentos, etc. A menudo, estos errores no se pueden controlar o reducir a cero, incluso mejorando las técnicas de medición y todo lo demás. La discrepancia entre los resultados observados y la teoría puede sugerir que la teoría no es correcta.

Prueba de hipótesis
Si sospechamos que la teoría no es correcta, debemos realizar una prueba de hipótesis . Este es un procedimiento estadístico bastante bien definido, pero desafortunadamente no se le presta suficiente atención en la educación física moderna, ya que la alta precisión de las mediciones lo hace bastante innecesario (con la importante excepción de la física de partículas, vea esta revisión ) .

Se toma como hipótesis nula la suposición de que la teoría existente es correcta y se calcula el valor p , que es la probabilidad de que los datos anómalos observados se deban únicamente a un error estadístico. Si el valor p es menor que el umbral de confianza elegido, se rechaza la hipótesis nula, es decir, concluimos que la teoría es incorrecta.

Tenga en cuenta que todo el procedimiento es de naturaleza estadística: ¡nunca podemos estar 100% seguros de que nuestras conclusiones sean correctas!

La razón por la que tratamos de refutar la teoría existente, en lugar de tratar de probarla, es que hacer esto último también requiere calcular la potencia estadística , que suele ser un problema más difícil y requiere más suposiciones.

Existen multitud de pruebas estadísticas para varios tipos de situaciones, lo que nos permite adaptarnos a varias fuentes de errores estadísticos.

Actualización Tenga en cuenta que los intervalos de confianza
familiares para todos son en realidad un concepto bastante complicado, basado en la prueba de hipótesis: su interpretación cotidiana como la dispersión de los valores de medición alrededor del valor "verdadero" es en realidad la del intervalo creíble en las estadísticas bayesianas.The interval has an associated confidence level that gives the probability with which the estimated interval will contain the true value of the parameter.

Pero, ¿cómo sabemos que los errores están en la medición o en la ley sobre la que hacemos las mediciones?

Las leyes en las teorías de la física son axiomas adicionales para tomar de soluciones matemáticas aquellas soluciones que son descriptivas y predictivas de datos. Siempre que los datos no se ajustan a las predicciones, se encuentran las dimensiones de validez de la teoría, se necesita una nueva teoría fuera de esas dimensiones.

En las dimensiones necesarias para que el sistema GPS prediga con precisión las posiciones en la tierra, las leyes de Newton fallan y es necesario incorporar la relatividad especial y general.

Entonces, es el fracaso de las predicciones de los datos de una teoría lo que decide los errores de las leyes. Es evidente que los errores de medición deben ser lo suficientemente pequeños como para mostrar discrepancias con las predicciones teóricas usando la ley.

¿Qué tan pequeño es lo suficientemente pequeño? Un ejemplo que se me ocurre es el cambio de Lamb, que fue una pequeña desviación de la teoría conocida, ¿no?
@KarimChahine Depende de lo que uno esté buscando. Si uno quiere disparar a un blanco, la relatividad especial y general, aunque podrían calcularse, estarían dentro de los errores de medición. Lamb shift fue importante porque las personas estaban probando los límites y las reglas de la mecánica cuántica en ese momento, por lo que fueron con la mayor precisión posible.
Esto no responde a la pregunta (que supone que los errores son desconocidos).
@Peter-ReinstateMonica mybe mi inglés no es lo suficientemente bueno, pero no veo esta suposición que dices en las preguntas
Bueno, el OP pregunta "¿Pero cómo sabemos que los errores están en la medición o en la ley sobre la cual hacemos mediciones?" Esto implica que las medidas no se alinean con la supuesta ley. Eso, a su vez, puede tener dos causas: (1) Sólo las medidas son malas; o (2) solo la ley es mala o (3) ambas son malas. Ahora el OP pregunta "¿cómo puedo distinguir (1) de (2) o (3)?" Si sabía que las medidas son buenas, no necesitaba preguntar, ¿verdad? Sabíamos que la "ley" ( física newtoniana) estaba equivocada en el caso del GPS porque habíamos probado excelentes mediciones que no se alineaban con la teoría.

Cada valor medido tiene errores. Esta es la base principal de la Guía para la expresión de la incertidumbre en las medidas . Las magnitudes de los errores se pueden determinar (cuantificar). Consisten en errores de compensación (calibración), errores de medición (dispositivo) y errores aleatorios. Un término con un contexto menos negativo es incertidumbre en lugar de error.

Supongamos que hacemos una comparación de un valor medido con un valor predicho bajo cierta ley. Esta comparación requiere que incluyamos dos cosas. Primero, debemos incluir la incertidumbre total en el valor medido. Esto establece la confianza que tenemos de que nuestro valor medido es una representación precisa de la realidad (por ejemplo, que el dispositivo está bien calibrado). También establece la confianza que tenemos de que estamos utilizando las mejores precisiones en nuestros dispositivos y haciendo nuestros experimentos de la manera más reproducible posible.

Lo segundo que debemos hacer es asegurarnos de que las condiciones del experimento no estén a priori fuera de los límites requeridos para aplicar la ley. Esto valida de antemano por qué nos permitimos usar la ley para comparar.

Comparamos si un valor medido es diferente de la predicción dentro del nivel de confianza de la medición y dentro de la validez de los supuestos en la ley.

¿Qué sucede cuando descubrimos que un valor medido es diferente de la expectativa? Podemos tomar uno de dos pasos. 1) Podemos darnos cuenta de que nuestra medida tiene un error aún no realizado. Tal vez los dispositivos no estaban calibrados o no estaban calibrados correctamente. Tal vez no hemos realizado suficientes experimentos repetidos para abarcar un rango de confianza fuerte en las estadísticas de población. 2) Podemos darnos cuenta de que nuestro experimento no se realizó dentro de los límites completos de las suposiciones requeridas para aplicar la ley que elegimos usar. Tal vez nos olvidamos de seguir una suposición crítica que debe existir para aplicar la ley. Tal vez sobrepasamos un límite en una contingencia limitante para aplicar la ley.

En resumen, las leyes no tienen errores (incertidumbres); los valores medidos tienen errores y las leyes tienen suposiciones contra las cuales debemos verificar nuestro proceso de medición. Las leyes no son inexactas en sí mismas; los valores medidos pueden considerarse exactos o inexactos en referencia a la ley con la que se comparan.