¿Por qué los parámetros libres son malos para una teoría?

Suele decirse que uno de los inconvenientes del modelo estándar es que tiene muchos parámetros libres. Mi pregunta es doble:

  1. ¿Qué es exactamente un parámetro libre? Mi entendimiento es que los parámetros libres de un modelo/teoría son los que no pueden ser predichos por la teoría y necesitan ser medidos y puestos en la teoría 'a mano' por así decirlo. ¿Son entonces todas las constantes de la naturaleza parámetros libres? Además, ¿puede darme un ejemplo de un parámetro no libre en una teoría?

  2. ¿Por qué es malo que una teoría tenga parámetros libres? ¿No podría ser que algunas cantidades en la naturaleza, como la masa del electrón, simplemente 'sucede' que tienen un cierto valor que no puede ser predicho por una teoría?

Citando a Fermi: "Dame 3 parámetros y puedo encajar un elefante. Dame un cuarto y puedo hacer que el elefante mueva la cola".
Creo que esta cita se atribuye a John Von Neumann :)
@Floyd: No, von Neumann pidió un parámetro más: cómo encajar un elefante . =)
"Resulta que literalmente puedes ajustar un elefante con cuatro parámetros si permites que los parámetros sean números complejos". Jaja bueno.
Piense en el GPS, no necesita la teoría de la relatividad para que funcione, de lo contrario, podrían haber ajustado empíricamente los tiempos (análogo a encontrar un parámetro). Pero sin la teoría, los científicos se habrían quedado un poco desconcertados de por qué eran necesarios los ajustes.
@eps GPS sin relatividad no hubiera sido posible tan pronto como salió. La física newtoniana puso la deriva en aproximadamente 1000 pies por hora. Necesitaría actualizaciones casi constantes en lugar de las 2 por día que reciben actualmente.
Los elefantes son máquinas moleculares enormes y complejas. La broma de John Von Neumann de que podía ajustar un elefante con tres parámetros habla más de su ignorancia sobre los elefantes que de cualquier otra cosa. ;)

Respuestas (7)

Un parámetro es un número que no "sale" de la teoría, pero que debe ingresarse manualmente en la teoría. La masa del electrón es un buen ejemplo: nadie puede (actualmente) calcular la masa del electrón, es simplemente algo que medimos.

No existen reglas absolutas sobre cosas como "cuántos parámetros son demasiados parámetros", aunque, por supuesto, muchas personas tienen opiniones diferentes. Desde el punto de vista de la física fundamental, normalmente el progreso se realiza mediante síntesis o unificación , que es el desarrollo de una teoría más profunda que explica simultáneamente dos fenómenos que en un principio pensabas que eran diferentes. Por lo general, una síntesis de dos teorías físicas aparentemente diferentes lleva a darse cuenta de que lo que originalmente era un parámetro libre en una de las teorías, en realidad puede calcularse en la teoría unificada.

Hay algunos ejemplos muy famosos de esto en la física de pregrado. Aquí hay algunos ejemplos (es cierto que el último no es realmente un ejemplo de nivel de pregrado)

  1. La aceleración de la gravedad en la superficie de la Tierra , gramo , se puede calcular a partir de la masa METRO y radio R de la Tierra y la constante gravitacional de Newton, gramo = GRAMO METRO R 2 . En la época de Galileo, no se sabía que la gravedad en la Tierra estuviera relacionada con cantidades astronómicas como la masa y el radio de la Tierra, pero Newton demostró que la gravedad es una fuerza subyacente a las manzanas que caen de los árboles y las lunas que orbitan alrededor de los planetas.

  2. la velocidad de la luz C se puede calcular a partir de las constantes de acoplamiento de campo eléctrico y magnético, que en unidades SI son ϵ 0 y m 0 . En unidades del SI tenemos C 2 = ( m 0 ϵ 0 ) 1 . Esto se deriva de la comprensión de Maxwell de que la luz, la electricidad y el magnetismo, tres temas aparentemente diferentes, son en realidad una teoría unificada del electromagnetismo.

  3. la constante de los gases R está relacionado con el número de Avogadro norte A y la constante de Boltzmann k , R = k norte A . Darse cuenta de la estructura atómica de la materia explicó muchos fenómenos en termodinámica al reducirlos al movimiento estadístico de átomos individuales.

  4. La longitud de onda máxima de la luz emitida por un cuerpo negro a temperatura T , era conocido en la década de 1800 por la ley de desplazamiento de Wien , λ pag mi a k = b / T . El constante b se conoce como constante de desplazamiento de Wien. Con el desarrollo de la mecánica cuántica y la distribución de Planck, se demostró que b = h C / X k , dónde h es la constante de Planck, C es la velocidad de la luz, k es la constante de Boltzmann, y X es un factor de orden 1 calculable que sale de un álgebra molesta ( X = 4.965... resuelve ( X 5 ) mi X + 5 = 0 ).

  5. Si bien esto no es tan "básico" como los otros, la unificación de las fuerzas eléctricas y débiles mostró que la constante de Fermi GRAMO F controlar la vida útil del muón está estrechamente relacionado con el valor esperado del vacío de Higgs v , a través de v = ( 2 GRAMO F ) 1 / 2 (y por tanto también a la masa y acoplamiento del bosón W).

Tenga en cuenta que estos ejemplos de unificación que conducen a una comprensión más profunda de un parámetro de entrada están correlacionados con los principales avances en física: gravedad, electromagnetismo, mecánica estadística, mecánica cuántica y la teoría electrodébil.

Existe la creencia en la física teórica de que el modelo estándar no es una teoría fundamental (de hecho, sabemos que no puede serlo porque no contiene gravedad ni materia oscura). Al extrapolar la lógica de unificación que siempre se ha asociado con el progreso en la física, uno espera que al menos algunos de los números que actualmente son parámetros de entrada para el modelo estándar, en realidad se demuestre que son salidas calculables usando una teoría más profunda.

Para el ejemplo 2, ¿cómo se relaciona eso con la velocidad de la luz que se elige como convención ?
@Galen ¡Ese video me vuelve loco! La velocidad de la luz no es una convención: la luz viaja a una velocidad finita y medible. Ese video saca de proporción un pequeño tecnicismo sobre cómo sincronizas los relojes en la relatividad especial. Hay una elección libre sobre cómo acepta sincronizar los relojes, pero ningún resultado físico depende de esta elección, y hay una elección clara que hace que las matemáticas sean mucho más simples y la física mucho más clara: nadie en mi vida profesional de física lo ha hecho nunca . Incluso consideró hacer una elección diferente.
Una analogía que he visto en este sitio es medir la duración de un viaje en avión desde el Reino Unido a los EE. UU. restando la hora de llegada en la zona horaria de los EE. UU. de la hora de salida en la zona horaria del Reino Unido. Puede obtener cero para la duración del viaje en avión si hace esto y concluye que el avión viajó instantáneamente desde el Reino Unido a los EE. UU. Pero eso es solo porque usaste una convención loca. Si utiliza el tiempo real medido por alguien en el avión como forma de medir la duración, siempre obtendrá una respuesta positiva. La "controversia" de la velocidad de la luz en un solo sentido tiene tanto contenido como este ejemplo.
Tengo dificultades para analizar sus comentarios. Parece que está diciendo que hay una elección libre y que los físicos siempre usan la matemáticamente conveniente. ¿Es este un resumen preciso de sus puntos?
@Galen Es difícil resumir esto en un cuadro de chat, pero hay muchas preguntas sobre este tema en este sitio. Tienes que decidir cómo sincronizar relojes entre observadores en relatividad especial. Esta es una convención, y la convención sensata es suponer que la luz viaja a la misma velocidad en el camino del observador A al observador B, como lo hace del observador B al observador A, para todos los pares A y B. Si decide usar una convención diferente, no hay consecuencias observables que sean diferentes. Pero ahora has incorporado que de alguna manera la luz viaja a diferentes velocidades en diferentes caminos...
...y en diferentes direcciones. Su convención ha introducido caminos especiales en los que asume que la luz va más rápido en un sentido que en el otro. El conjunto de trayectorias y "velocidades en un solo sentido" no puede justificarse por ninguna observación o principio físico, y no tiene consecuencias observables. Dado que, en última instancia, el problema era sincronizar sus relojes, es esencialmente lo mismo que definir la velocidad como Δ X / Δ T , dónde Δ T es la diferencia entre dos tiempos medidos en relojes que no están sincronizados; tu estas definiendo Δ T como la diferencia de tiempos medidos en diferentes zonas horarias.
Mi opinión muy fuerte es que esto es una pista falsa total (matemática, física, filosóficamente) y es realmente una pena que ese video haya llevado a la gente a pasar tanto tiempo pensando en él. Vale la pena entender el problema, pero personalmente creo firmemente que es muy fácil dedicar demasiado tiempo a esto sin obtener una percepción física real a cambio.
Bueno. Gracias por compartir y aclarar tu punto de vista.
@Galen, lo siento por insistir en esto, y me detendré después de este mensaje. Si bien estoy de acuerdo con la forma en que resumió mis pensamientos, en realidad iría un paso más allá. Creo que en realidad es un profundo malentendido de la física usar la "velocidad de la luz en un solo sentido" para afirmar que la luz no viaja a la velocidad de la luz. La libre elección que tiene no es realmente una libre elección en la velocidad , es una libre elección en cómo está comparando las medidas de los relojes en diferentes lugares.
El punto es que siempre puedes elegir sincronizar tus relojes para que la velocidad de la luz sea la misma. El único significado físicamente sensible de la oración "la velocidad de la luz es diferente en diferentes direcciones" es que es imposible elegir convenciones de medición donde la velocidad de la luz es la misma. En otras palabras, diferentes físicos con diferentes convenciones estarán todos de acuerdo en la afirmación invariable de que la velocidad de la luz varía. Claramente, ese no es el caso en la relatividad especial.
@Andrew: tal vez sería prudente mencionar la navaja de Occam en este contexto, ya que nos brinda un criterio claro para decidir cuál de esos supuestos es el "correcto", usando "correcto" no en el sentido de "correcto o incorrecto " , sino en el sentido de "la herramienta adecuada para el trabajo". Claramente, la suposición de que la luz viaja a la misma velocidad en todas las direcciones tiene menos "entidades" (en el sentido de la Navaja de Occam de entia non sunt multiplicanda praeter necessitatem ) y por lo tanto es la "correcta", y eso no es solo una opinión sino una hecho objetivamente medible.
@JörgWMittag Esa es ciertamente una forma de enmarcar el problema. Estoy de acuerdo con usted, pero también siento que apelar a la navaja de Occam es excesivo en esta situación y tal vez da la impresión de que hay espacio para un desacuerdo científico razonable. Para mí, no es que la velocidad unidireccional de la luz introduzca un conjunto de modelos empíricos plausibles pero más complicados de lo necesario. Más bien, es un enfoque confuso que conduce a un formalismo inútilmente confuso. Es como poner tierra en la lente de un telescopio intencionalmente y publicar imágenes con una nota al lector para que sustraiga las partículas de polvo.
Hay algo que me molesta en esta respuesta. No está mal, pero hay constantes y constantes. Diez parámetros libres para las secciones transversales de las partículas fundamentales no van a encajar en un elefante. Cuatro parámetros libres en las ecuaciones de fuerza se ajustarán a dicho elefante.
@Joshua Leí su comentario diciendo que deberíamos estar impresionados de que el modelo estándar tenga tan pocos parámetros dada la gran cantidad de fenómenos que describe, en lugar de quejarnos de que tiene demasiados. Si ese es un resumen justo, en realidad estoy bastante de acuerdo contigo (y también odio la cita del elefante). Pero, uno todavía puede esperar hacerlo mejor. Tiendo a ser pesimista de que la humanidad podrá hacerlo mejor que SM en los próximos 100 años, pero si resulta que alguien descubre alguna relación entre los acoplamientos de Yukawa (por ejemplo), estaría encantado.
  1. Sí, un parámetro libre es un parámetro que no está fijado por la teoría y tiene que medirse en un experimento. Ejemplos son la masa del electrón o su carga. No, no todas las constantes de la naturaleza son parámetros libres, en estos casos podemos encontrar expresiones para representar la cantidad por una serie de parámetros verdaderamente libres. Un ejemplo sería el gramo factor. QFT lo predice con mucha precisión únicamente en términos de los parámetros libres de SM.

  2. Tienes que entender que en el centro mismo de cada teoría estamos tratando de conectar algunas cantidades medidas a alguna predicción. Por ejemplo, queremos calcular la sección transversal de mi mi + m m + y lo hacemos usando mi , metro mi y metro m . Una teoría menos predictiva que la QED (como la QM clásica) no sería capaz de hacer esta predicción y necesitaría convertir la sección transversal en un nuevo parámetro libre. Entonces, cuanto más predictiva y, por lo tanto, útil es una teoría, más parámetros libres están conectados a los observables. Por lo tanto, sería genial no tener parámetros libres y tener una cantidad ilimitada de observables. Esta sería la teoría definitiva, pero si existe es un asunto completamente diferente (pero no lo creo).

¿Podría por favor elaborar un poco más en 2? Entiendo que cuantos más parámetros libres tiene una teoría, menos predictiva y, por lo tanto, menos útil se vuelve. Pero, ¿cómo es posible tener una teoría sin parámetros libres en absoluto? ¿No son los observables como la sección transversal necesariamente siempre dependientes de al menos algunos parámetros libres? Básicamente, si entiendo correctamente, todos los parámetros de la "teoría última" se determinarían exclusivamente a partir de la teoría, pero no puedo ver cómo se puede determinar el valor de un parámetro sin ninguna entrada de datos experimentales.
@Floyd En unidades de Planck, todas las cantidades son números adimensionales. En principio, una teoría podría dar fórmulas matemáticas para todos los parámetros relevantes y, por lo tanto, predecir sus valores en unidades de Planck.
Yo tampoco me lo imagino xD. Como dije, no creo que podamos encontrar o que exista tal teoría. Pero me imagino que en algún momento encontramos que la matriz CKM, por ejemplo, está parametrizada por solo uno o dos parámetros. ¿Pero quién sabe? Tal vez soy ingenuo y podemos predecir mucho más en el futuro o soy un soñador y no podemos reducir más el número.
@Floyd Tal teoría sería algunas suposiciones fundamentales, de las cuales obtienes sin ambigüedades una cierta ecuación y valores para ciertas cantidades, a partir de las cuales haces más suposiciones y ecuaciones, hasta que finalmente derivas el valor de constantes fundamentales como metro mi , C , h etcétera. También me parece poco probable, pero es plausible. Por ejemplo, podría suponer que ciertas variedades x-dimensionales corresponden a algo y usar sus números topológicos y constantes matemáticas como π para llegar a alguna constante específica a través de alguna ecuación topológica mágica.

Teoría: Es cierto que los parámetros libres son malos para una teoría. Para un cierto valor de verdadero.

Una teoría útil no codifica simplemente todas las observaciones existentes. Predice otros nuevos. Con suficientes variables libres, la teoría no está prediciendo. Se convierte en un registro de lo que hemos visto, presentado de una manera diferente.

Es difícil encontrar un significado más profundo si la teoría es solo un espejo de la casa de la risa infinitamente distorsionable sostenido por lo que ya sabemos.

Creo que "parámetro libre" y "parámetro ajustable" y "parámetro" son esencialmente sinónimos. llamaría al gramo factor (mencionado en la respuesta anterior) una predicción del modelo estándar, no un parámetro. Podría ser un parámetro libre/ajustable de otro modelo.

Los valores de los parámetros pueden ser aleatorios y sin sentido, pero no sabemos que lo son, y mientras no lo sepamos, existe una motivación para seguir buscando explicaciones. Si un físico dice que los parámetros libres son malos, quiere decir que es malo, en cierto sentido, que aún no sabemos todo. Pero en otro sentido es bueno, porque les da algo que hacer.

El parámetro ajustable y el parámetro libre no son lo mismo para el modelo matemático (la mayoría de las ciencias). El parámetro ajustable no tiene relación con los datos experimentales, lo que sea necesario para manipular las predicciones, mientras que el parámetro libre proviene de los datos.
@ user2617804 El lenguaje es descriptivo, no prescriptivo. Estoy de acuerdo en que la distinción filosófica que está tratando de hacer es útil, pero no creo que la mayoría de los hablantes de inglés con conocimientos científicos la infieran de las frases "parámetro ajustable" y "parámetro libre" sin que sus convenciones lingüísticas se expliquen en el documento en cuestión. Pero me interesaría ver algún tipo de diccionario científico que te hiciera pensar eso, si es que existe.
Creo que hay un contexto histórico. Es posible que en un momento anterior hayamos medido g . Luego desarrollamos una mayor comprensión y descubrimos que se puede predecir a partir de otros parámetros. Así pasa de ser un parámetro libre a una predicción. Pero aún podemos usarlo como parámetro en fórmulas que lo usan.

La teoría/modelo es esencialmente un marco matemático que predice los datos observados en un experimento en función de un conjunto de parámetros. Algunos parámetros son específicos del experimento, otros se consideran conocidos y otros pueden tener que ajustarse a los resultados del experimento (o para que coincidan mejor con los datos). Son estos últimos los que llamamos parámetros libres .

Tener muchos parámetros no es necesariamente malo: la cuestión es el sobreajuste (tener demasiados parámetros y "ruido" de ajuste) frente al ajuste insuficiente (tener muy pocos y perder física importante). Existen procedimientos estadísticos estándar para validar y comparar modelos, como se explica en esta respuesta .

En resumen: supongamos que para un fenómeno, hay norte cantidades que lo describen completamente. Tu modelo toma a número de parámetros libres como entradas (estos deben medirse y conectarse a la teoría) y salidas b número de cantidades como predicciones tales que

a + b = norte .

Como resultado, cuanto mayor sea a es, cuanto menos b se vuelve, por lo tanto, menos predictiva se vuelve la teoría.

Una teoría ideal puede explicar perfectamente todos los datos observados, y no podría explicar nada que no haya sido observado.

Por ejemplo la teoría

[Teoría] : "las cosas simplemente suceden, excepto cuando no es así"

se puede usar para explicar cualquier observación experimental (P: "¿Por qué se movió el electrón cuando marqué el voltaje?" R: "Las cosas simplemente suceden, excepto cuando no suceden", P: "¿Por qué..." R: " Lo mismo".) Pero esta es una mala teoría, porque igualmente podría explicar las cosas que no sucedieron . (P: "¿Por qué se materializó un dragón cuando marqué el voltaje?" A: "lo mismo", P: "... ¡Pero estaba bromeando sobre el dragón!")

Los parámetros libres son un problema, porque siempre te dan más poder para torcer la teoría para que coincida con las cosas, ya sea que esas cosas se hayan observado o no. Una teoría con demasiados parámetros de este tipo comienza a acercarse cada vez más a la teoría de que "las cosas simplemente suceden". Por supuesto, una teoría con muy pocos parámetros podría fallar al explicar algo de la física real. Si se agrega un nuevo parámetro, lo ideal sería sopesar cuánto gana la teoría en su capacidad para explicar lo real (que queremos maximizar) frente a qué tan capaz se vuelve para explicar lo ficticio (que queremos minimizar).