Supongamos que hacemos muchos relojes muy pequeños que están sujetos al movimiento térmico.
Para simplificar las cosas supongamos en algún momento todos sus tiempos están sincronizados (sí, están muy cerca). Luego los verificamos en algún momento posterior y graficamos la distribución de las diversas medidas de tiempo.
Parece evidente que un reloj que no se mueve en absoluto (en nuestro marco de referencia) registrará el mayor cambio de tiempo, y habrá una distribución de otros que registren varios intervalos de tiempo menores. Claramente, tal distribución dependerá de la masa y la temperatura de los relojes, pero tenía curiosidad sobre la forma general de tal distribución. ¿Alguna idea o lugar donde pueda buscar?
Este es un sistema clásico, entiendo que la teoría cuántica generalmente entraría en juego aquí.
EDITAR:
Esto debería poder resolverse utilizando la distribución de Maxwell-Boltzmann:
dónde (Siendo T y m la temperatura y la masa de nuestros relojes respectivamente). El tiempo medido por un reloj elegido al azar es entonces:
Donde dt es el tiempo propio de los observadores (relojes que no se mueven) y el factor gamma de Lorentz va a depender de la probabilidad de que la partícula tenga una velocidad particular en un momento particular. No estoy seguro de cómo proceder con esto, pero ya parece un problema interesante si se considera que nuestras partes constituyentes se “manchan” continuamente con el tiempo. Seguramente hay una consecuencia físicamente medible de esto. ¿O tal vez debería usar la caminata aleatoria?
EDITAR 1
Para abordar los comentarios de Rennie a continuación, se afirma que los relojes avanzarán hacia la misma hora. es decir. todas sus velocidades promedio de tiempo individuales convergerán. El problema con esto es que para cualquier caminata aleatoria arbitrariamente grande (pero no infinita) en el espacio de velocidad, el promedio no necesita caer en cero, y de hecho siempre hay una probabilidad finita de que caiga bastante lejos de cero (cuantos más pasos en la caminata más lejos puede ser, pero sí que la probabilidad también baja).
Además, si los relojes estuvieran en equilibrio antes de sincronizar sus tiempos (una proposición razonable), el origen de la caminata aleatoria de cada reloj (en el espacio de velocidades) variaría en una probabilidad dependiendo de la distribución de velocidad inicial (Maxwell-Boltzmann), tal que incluso después de una cantidad infinita de tiempo, los relojes estarían muy desincronizados.
Estoy preguntando sobre la forma de tal distribución para un sistema puramente térmico en lo que respecta al intervalo de tiempo experimentado por dicho cuerpo en relación con otro que ha mantenido un marco inercial de manera constante. ¿Cuál es la distribución de las medidas de los relojes en el tiempo? Tengo problemas para creer que todos estarían sincronizados como dice Rennie, tal comportamiento va en contra de un estado de entropía máxima
Haremos algunas suposiciones. Mi conocimiento de la teoría de la relatividad es básico, mientras que el de la mecánica cuántica es insignificante, por lo que alguien con más conocimientos sobre estos temas puede comentar qué tan realistas son las siguientes suposiciones.
Primero, tomaremos moléculas de un gas ideal como nuestros relojes. Se supone que algún proceso interno periódico dentro de la molécula actúa como un reloj. Supondremos que cada vez que ocurre un intercambio de energía entre moléculas debido a una colisión, se manifiesta completamente como energía cinética de las moléculas involucradas. En lo que sigue, siempre que hablemos de tiempo, nos referiremos al tiempo de un observador cuyo movimiento medio de las moléculas es cero.
Dejar Sea la función de densidad de probabilidad tal que da la probabilidad de que cualquier molécula dada viaje una distancia que se encuentra en el intervalo entre colisiones consecutivas. Dejar sea la función de densidad de probabilidad para la velocidad molecular . Asumiremos que y son estadísticamente independientes. Esto significa que saber que una molécula tiene velocidad no altera los valores de probabilidad para la distancia de vuelo entre colisiones y viceversa. Entonces la probabilidad de que una molécula tenga velocidad y distancia de vuelo (entre colisiones consecutivas) es simplemente .
Para una velocidad dada , una molécula en vuelo por una distancia mide un tiempo adecuado , en unidades. Para una dada , probabilidad de que el tiempo propio medido de la molécula sea es igual a la probabilidad de que es decir . Contabilización de todos los valores posibles de , la CDF para es obtenido:
Usando podemos calcular la media y la varianza del tiempo propio si existiera: . Esto es para una colisión. Para colisiones el tiempo propio total medido de una molécula es . Si la varianza es finito, entonces suponiendo que son variables independientes, en virtud del teorema del límite central tenemos (para grandes , que ocurre durante un tiempo de observación lo suficientemente grande):
Esto demuestra que es prácticamente seguro (para grandes ) que todas las moléculas habrán medido el mismo tiempo propio, igual a .
PD: no pude encontrar una expresión para en los enlaces de teoría cinética de los gases. ¿Cualquiera sabe?
Si está pensando en términos de una distribución relativista, probablemente debería usar la distribución de Maxwell-Jüttner .
Sin embargo, con respecto a los comentarios de @ John-Rennie sobre el promedio de la dilatación del tiempo, creo que su confusión radica en la forma en que piensa en la distribución de velocidades.
La distribución simplemente describe la probabilidad para todo el conjunto y en una escala de tiempo lo suficientemente grande como para que se promedie que se encontrará una velocidad determinada.
No dice que una partícula tendrá una velocidad específica o permanecerá en ella durante un período medible .
Todo el principio de un tratamiento estadístico de este tipo es que el movimiento de las partículas individuales no es solo aleatorio, sino que las interacciones son pequeñas y las mediciones se realizan en una escala de tiempo que promedia el efecto de las interacciones.
En efecto, está tratando de rastrear partículas individuales, lo cual no tiene sentido en el contexto de una distribución estadística como esta.
Cada partícula es "empujada" por el resto y tendrá muchas direcciones y velocidades en el período de tiempo necesario para que la distribución sea válida.
Si intenta medir una distribución de partículas en una escala de tiempo más pequeña que evitaría promediar, entonces el resultado podría ser cualquier forma de distribución que conserve cantidades conservadas. Por ejemplo, podría haber una distribución sin partículas a velocidades en el rango medio. La próxima instantánea que tomes podría ser completamente diferente.
Es el promedio de tiempo de las interacciones y sus efectos lo que permite que dicha distribución tenga sentido.
Su idea solo sería válida si las partículas no interactuaran en absoluto y no estuvieran restringidas y simplemente volaran al espacio sin obstáculos.
wah
R. Rankin
Juan Rennie
R. Rankin
R. Rankin
Juan Rennie
R. Rankin
Juan Rennie
R. Rankin
Pedro Shor
Juan Rennie
Pedro Shor