¿Por qué es sorprendente la asimetría entre materia y antimateria, si la asimetría puede ser generada por una caminata aleatoria en la que las partículas entran en los agujeros negros?

Según tengo entendido, el universo primitivo era un entorno muy "caliente" (es decir, denso en energía). Incluso estaba lo suficientemente caliente como para que se formaran agujeros negros a partir de fotones .

Mi segundo punto de comprensión es que los agujeros negros pueden perder masa debido a la radiación de halcón, lo que equivale a :

Se puede obtener una visión física del proceso imaginando que la radiación partícula-antipartícula se emite justo más allá del horizonte de sucesos. Esta radiación no proviene directamente del agujero negro en sí, sino que es el resultado de partículas virtuales "impulsadas" por la gravitación del agujero negro para convertirse en partículas reales. [cita requerida] Como el par partícula-antipartícula fue producido por el agujero negro energía gravitacional, el escape de una de las partículas reduce la masa del agujero negro. 3

Una visión alternativa del proceso es que las fluctuaciones del vacío hacen que aparezca un par de partículas y antipartículas cerca del horizonte de eventos de un agujero negro. Uno de los dos cae en el agujero negro mientras que el otro escapa. Para conservar la energía total, la partícula que cayó en el agujero negro debe haber tenido una energía negativa (con respecto a un observador alejado del agujero negro). Esto hace que el agujero negro pierda masa y, para un observador externo, parecería que el agujero negro acaba de emitir una partícula. En otro modelo, el proceso es un efecto de tunelización cuántica, mediante el cual se formarán pares de partículas y antipartículas a partir del vacío, y una formará un túnel fuera del horizonte de sucesos.

Así que simulé un escenario con dos tipos de partículas que se crean en una proporción de 50/50 a partir de la radiación de halcón y siempre se aniquilan entre sí si es posible.

Editar:

En esta simulación se crean ambas partículas, pero una es absorbida por el agujero negro. El otro se queda afuera. Por lo tanto, la carga debe conservarse.

La simulación (escrita en R) está aquí:

# Run the simulation for 1 million steps and initialize output matrix
n_steps = 1e6
res     = matrix(ncol = 2, nrow = n_steps)

# Initiate number of particles to zero
n0 = n1 = 0
for(i in 1:n_steps){
  # Generate a new particle with 50/50 chance of matter/antimatter
  x = sample(0:1, 1)

  # If "x" is a matter particle then...
  if(x == 0){
    # If an antimatter particle exists, then annihilate it with the new matter particle. 
    #Otherwise increase the number of matter particles by one
    if(n1 > 0){
      n1 = n1 - 1
    }else{
      n0 = n0 + 1
    }
  }

  # If "x" is an antimatter particle then...
  if(x == 1){
    # If a matter particle exists, then annihilate it with the new antimatter particle. 
    # Otherwise increase the number of antimatter particles by one
    if(n0 > 0){
      n0 = n0 - 1
    }else{
      n1 = n1 + 1
    }
  }

  # Save the results and plot them if "i" is a multiple of 1000
  res[i, ] = c(n0, n1)
  if(i %% 1000 == 0){
    plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
    lines(res[1:i, 2], col = "Red", lwd = 3)
  }
}

Aquí hay una instantánea de los resultados, donde la línea negra es el número de partículas "tipo 0" y la línea roja es el número de partículas "tipo 1":ingrese la descripción de la imagen aquí

Obviamente, este es un modelo 1d simplificado donde cualquier antimateria generada es inmediatamente aniquilada por una partícula de materia correspondiente, etc. Sin embargo, no veo por qué no se esperaría que el resultado cualitativo de una "especie" de partículas dominantes se mantuviera en general. . Entonces, ¿cuál es la base para esperar cantidades iguales de materia y antimateria? ¿Cómo está en conflicto con esta simple simulación?

EDITAR:

Como se solicitó en los comentarios, modifiqué la simulación para permitir un número inicial diferente de partículas y la probabilidad de generar cada partícula.

# Run the simulation for 1 million steps and initialize output matrix
n_steps = 250e3
res     = matrix(ncol = 2, nrow = n_steps)

# Initial number of each type of particle and probability of generating type 0
n0 = 0
n1 = 0
p0 = 0.51
for(i in 1:n_steps){
  # Generate a new particle with 50/50 chance of matter/antimatter
  x = sample(0:1, 1, prob = c(p0, 1 - p0))

  # If "x" is a matter particle then...
  if(x == 0){
    # If an antimatter particle exists, then annihilate it with the new matter particle. 
    # Otherwise increase the number of matter particles by one
    if(n1 > 0){
      n1 = n1 - 1
    }else{
      n0 = n0 + 1
    }
  }

  # If "x" is an antimatter particle then...
  if(x == 1){
    # If a matter particle exists, then annihilate it with the new antimatter particle. 
    # Otherwise increase the number of antimatter particles by one
    if(n0 > 0){
      n0 = n0 - 1
    }else{
      n1 = n1 + 1
    }
  }

  # Save the results and plot them if "i" is a multiple of 1000
  res[i, ] = c(n0, n1)
  if(i %% 1e4 == 0){
    plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
    lines(res[1:i, 2], col = "Red", lwd = 3)
  }
}

Algunos ejemplos:

n0 = 1000, n1 = 0, p = 0,5ingrese la descripción de la imagen aquí

n0 = 0, n1 = 0, p = 0,51ingrese la descripción de la imagen aquí

n0 = 1000, n1 = 1000, p = 0,5ingrese la descripción de la imagen aquí

EDITAR 2:

Gracias a todos por sus respuestas y comentarios. Aprendí que el nombre del proceso de generación de materia a partir de agujeros negros es "bariogénesis de agujeros negros". Sin embargo, en los artículos que revisé sobre este tema (p. ej., Nagatani 1998 , Majumdar et al 1994 ) no parecen estar hablando de lo mismo que yo.

Estoy diciendo que a través de la dinámica de la generación simétrica y la aniquilación de materia-antimateria junto con la bariogénesis simétrica a través de la radiación hawking, siempre obtendrás un desequilibrio con el tiempo que tenderá a crecer debido a una retroalimentación positiva. Es decir, las condiciones de Sajarov , como la violación de CP, en realidad no son necesarias para obtener una asimetría.

Si acepta que existe la producción de pares, la aniquilación y la radiación hawking, entonces debería esperar por defecto que una especie dominante de partículas domine a la otra en todo momento. Ese es el único estado estable (además de un universo de solo energía). Materia/antimateria aproximadamente igual es obviamente muy inestable porque se aniquilan entre sí, por lo que no tiene sentido esperar eso.

Es posible que en algún modelo más complicado (que incluya más de un tipo de par de partículas, distancia entre partículas, fuerzas, etc.) de alguna manera esta tendencia hacia la asimetría se anule de alguna manera. Pero no puedo pensar en ninguna razón por la que eso sería, debería depender de las personas que esperan que la simetría materia-antimateria proponga un mecanismo para explicar eso (lo que sería algo extraño en lo que dedicar su tiempo ya que es decididamente no lo que observamos en nuestro universo).

Con respecto a algunos problemas específicos que la gente tenía:

1) Preocupaciones sobre la acumulación de carga negativa en los agujeros negros y la acumulación de carga positiva en el espacio regular

  • Si bien en la simulación solo hay una partícula, en la práctica esto sucedería en paralelo para pares de electrones-positrones y protones-antiprotones a velocidades iguales (afaik). Así que no esperaría ningún tipo de desequilibrio de carga. Puede imaginar que los pares de partículas en la simulación son la mitad de electrones-positrones y la mitad de protones-antiprotones.

2) No había suficientes agujeros negros en el universo primitivo para explicar la asimetría.

  • Intenté y no pude obtener una cotización exacta para esto para poder averiguar qué suposiciones se hicieron, pero dudo que incluyeran los comentarios positivos mostrados por la simulación en su análisis. Además, me preguntaba si considerarían la posibilidad de que se formaran agujeros negros kugelblitz en un universo de solo energía. Finalmente, la tendencia hacia una especie dominante está en curso todo el tiempo, de todos modos no es necesario que haya sucedido en el universo primitivo.

3) Si este proceso está en curso en un universo que se parece al nuestro hoy (donde una partícula puede tardar mucho tiempo en viajar de un agujero negro al otro), esperaríamos que algunos agujeros negros generaran localmente dominado por la antimateria. regiones y otras para generar regiones dominadas por materia. Eventualmente, algunas de estas regiones deberían entrar en contacto entre sí, lo que conduciría a una aniquilación masiva observable de partículas.

  • Estoy de acuerdo en que esta sería la expectativa predeterminada, pero si comienza desde un estado altamente dominado por la materia, sería muy poco probable que se genere suficiente antimateria para aniquilar localmente toda la materia e incluso entonces solo hay un 50% de probabilidad de la siguiente fase es antimateria. Poner números en cosas como esta requeriría un modelo más complejo que no deseo intentar aquí.

4) La asimetría en realidad no es considerada sorprendente por los físicos.

  • Bueno, dice esto en wikipedia :

    Ni el modelo estándar de física de partículas ni la teoría de la relatividad general proporcionan una explicación conocida de por qué esto debería ser así, y es una suposición natural que el universo sea neutral con todas las cargas conservadas. [...] Como se señaló en un artículo de investigación de 2012, "El origen de la materia sigue siendo uno de los grandes misterios de la física".

5) Este proceso es de alguna manera una exótica teoría "alternativa" al estándar.

  • Este proceso se dedujo aceptando que la física/cosmología estándar es correcta. Es una consecuencia directa de la interacción entre la producción/aniquilación de pares y la radiación hawking. Puede parecer contradictorio para las personas acostumbradas a pensar en lo que esperaríamos en promedio de un modelo, cuando en realidad queremos pensar en cómo se comportan las instancias individuales. Si la simulación se ejecuta varias veces y se suman todas las "partículas", el resultado será ~50/50 materia/antimateria. Sin embargo, observamos un universo en particular, no un promedio de todos los universos posibles. En cada caso particular siempre hay una especie dominante de partícula, que terminamos llamando "materia".

Entonces, después de leer las respuestas/comentarios, creo que la respuesta a mi pregunta es probablemente que los físicos estaban pensando en lo que esperarían en promedio cuando deberían haber estado pensando en lo que sucedería en casos específicos. Pero no estoy lo suficientemente familiarizado con la literatura para decir.

Edición 3:

Después de hablar con Chris en el chat, decidí hacer que la tasa de aniquilación dependiera de la cantidad de partículas en el universo. Hice esto estableciendo la probabilidad de aniquilación en exp(-100/n_part), donde n_part es el número de partículas. Esto fue bastante arbitrario, lo elegí para tener una cobertura decente en todo el rango típico de 250k pasos. Se parece a esto:ingrese la descripción de la imagen aquí

Aquí está el código (también agregué algo de paralelización, perdón por la mayor complejidad):

require(doParallel)

# Number of simulations to run and threads to use in parallel
n_sim   = 100
n_cores = 30

# Initial number of each type of particle and probability
n0 = 0
n1 = 0
p0 = 0.5

registerDoParallel(cores = n_cores)
out = foreach(sim = 1:n_sim) %dopar% {
  # Run the simulation for 250k steps and initialize output matrix
  n_steps = 250e3
  res     = matrix(ncol = 2, nrow = n_steps)

  for(i in 1:n_steps){
    # Generate a new particle with 50/50 chance of matter/antimatter
    x = sample(0:1, 1, prob = c(p0, 1 - p0))

    n_part = sum(res[i -1, ]) + 1
    p_ann  = exp(-100/n_part)
    flag   = sample(0:1, 1, prob = c(1 - p_ann, p_ann))


    # If "x" is a matter particle then...
    if(x == 0){
      # If an antimatter particle exists, then annihilate it with the new matter particle. 
      # Otherwise increase the number of matter particles by one
      if(n1 > 0 & flag){
        n1 = n1 - 1
      }else{
        n0 = n0 + 1
      }
    }

    # If "x" is an antimatter particle then...
    if(x == 1){
      # If a matter particle exists, then annihilate it with the new antimatter particle. 
      # Otherwise increase the number of antimatter particles by one
      if(n0 > 0 & flag){
        n0 = n0 - 1
      }else{
        n1 = n1 + 1
      }
    }

    # Save the results and plot them if "i" is a multiple of 1000
    res[i, ] = c(n0, n1)
    if(i %% 1e4 == 0 && sim %in% seq(1, n_sim, by = n_cores)){
      # plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
      # lines(res[1:i, 2], col = "Red", lwd = 3)
      print(paste0(sim, ": ", i))
    }
  }
  return(res)
}

Aquí hay un ejemplo de 25 resultados:ingrese la descripción de la imagen aquí

Y un histograma del porcentaje de partículas que estaban en la clase menor al final de cada simulación:ingrese la descripción de la imagen aquí

Entonces, los resultados aún concuerdan con el modelo más simple en que tales sistemas tenderán a tener una especie de partícula dominante.

Edición 4:

Después de una conversación más útil con Chris, sugirió que la aniquilación de más de un par de partículas por paso era el factor adicional crucial. Específicamente, que el número de partículas eliminadas debe ser una muestra de la distribución de Poisson con una media proporcional al número total de partículas, es decir, rpois(1, m*n0*n1) donde m es lo suficientemente pequeño como para que la aniquilación sea muy rara hasta que un Existe un gran número de partículas de materia y antimateria.

Aquí está el código (que es bastante diferente al anterior):

require(doParallel)

# Number of simulations to run and threads to use in parallel
n_sim   = 100
n_cores = 30

# Initial number of each type of particle and probability
n0 = 0
n1 = 0
p0 = 0.5
m  = 10^-4

# Run the simulation for 250k steps and 
n_steps = 250e3

registerDoParallel(cores = n_cores)
out = foreach(sim = 1:n_sim) %dopar% {
  # Initialize output matrix
  res = matrix(ncol = 3, nrow = n_steps)

  for(i in 1:n_steps){
    # Generate a new particle with 50/50 chance of matter/antimatter
    x = sample(0:1, 1, prob = c(p0, 1 - p0))

    # If "x" is a matter particle then...
    if(x == 0){
      n0 = n0 + 1
    }

    # If "x" is an antimatter particle then...
    if(x == 1){
      n1 = n1 + 1
    }

    # Delete number of particles proportional to the product of n0*n1
    n_del = rpois(1, m*n0*n1)
    n0 = max(0, n0 - n_del)
    n1 = max(0, n1 - n_del)

    # Save the results and plot them if "i" is a multiple of 1000
    res[i, 1:2] = c(n0, n1)
    res[i, 3]   = min(res[i, 1:2])/sum(res[i, 1:2])
    if(i %% 1e4 == 0 && sim %in% seq(1, n_sim, by = n_cores)){
      # plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
      # lines(res[1:i, 2], col = "Red", lwd = 3)
      print(paste0(sim, ": ", i))
    }
  }
  return(res)
}

Y aquí están los resultados para varios valores de "m" (que controla la frecuencia con la que ocurre la aniquilación). Esta gráfica muestra la proporción promedio de partículas menores para cada paso (usando 100 simulaciones por valor de m) como la línea azul, la línea verde es la mediana y las bandas están a +/- 1 sd de la media:

ingrese la descripción de la imagen aquí

El primer gráfico tiene el mismo comportamiento que mis simulaciones, y puede ver que a medida que m se hace más pequeño (la tasa de aniquilación en función del número de partículas se vuelve más rara) el sistema tiende a permanecer en un estado más simétrico (50/50 materia/antimateria ), al menos para más pasos.

Entonces, una suposición clave hecha por los físicos parece ser que la tasa de aniquilación en el universo primitivo fue muy baja, por lo que se pudieron acumular suficientes partículas hasta que se volvieron lo suficientemente comunes como para que ninguna de las dos sea "aniquilada" por completo.

EDITAR 5:

Ejecuté una de esas simulaciones de Poisson para 8 millones de pasos con m = 10 ^ -6 y puede ver que la dominancia tarda más en desarrollarse (se ve ligeramente diferente porque el relleno de 1 sigma no se trazaría con tantos puntos de datos):ingrese la descripción de la imagen aquí

Entonces, a partir de eso, concluyo que las tasas de aniquilación muy bajas solo retrasan el tiempo que lleva, en lugar de dar como resultado un resultado fundamentalmente diferente.

Edición 6:

Lo mismo sucede con m = 10^-7 y 28 millones de pasos. El gráfico agregado tiene el mismo aspecto que el anterior m = 10^-6 con 8 millones de pasos. Así que aquí hay algunos ejemplos individuales. Puede ver una clara tendencia hacia una especie dominante al igual que en el modelo original:ingrese la descripción de la imagen aquí

Edición 7:

Para terminar... creo que la respuesta a la pregunta ("¿por qué los físicos piensan esto?") está clara en mi conversación con Chris aquí . Chris no parece interesado en convertir eso en una respuesta, pero lo aceptaré si alguien escribe algo similar.

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Este ejemplo utiliza un tipo de partícula/antipartícula. Si está cargado, protón / antiprotón (que es su argumento), entonces la conservación de la carga y la conservación del número bariónico son las mismas, lo que hace que no sea físico. Si observa la literatura de "bariogénesis de agujeros negros", se necesitan suposiciones adicionales, dependiente del modelo (GUTS o algo más) para que los modelos sean predictivos, no solo caminatas aleatorias.
Lo anterior es cierto para un solo agujero negro. No existe ningún mecanismo que asegure que para una distribución estadística de agujeros negros será la misma partícula la que dominará el agujero negro. Las estadísticas para dos partículas dirían que sería 50/50, a menos que se use un modelo, y por eso los modelos son necesarios.
@annav Básicamente, estoy tratando de mantenerlo simple porque creo que deberías encontrar un mecanismo que evite el dominio entre la materia y la antimateria. No sería difícil agregar otro conjunto de pares de partículas a este modelo, pero no quiero hacerlo en este momento. Hay muchos otros detalles del cálculo que ya son inconsistentes con nuestro universo. Los resultados son sólo cualitativamente significativos.
Estoy tratando de decir que la caminata aleatoria alrededor de un agujero negro no es suficiente, ya que con muchos agujeros negros, tanto los protones como los antiprotones pueden absorberse con una probabilidad del 50/50, y que se necesita un modelo físico que introduzca bariones y conduzca a bariones. violación de número
@annav Esto está en los comentarios que se han enviado al chat, pero imaginé que esto sucedió en el universo primitivo cuando la distancia entre los agujeros negros podría aproximarse como insignificante (la materia generada por uno podría ser rápidamente aniquilada por la antimateria generada por otro a la punto podría considerarse instantáneo). Sin embargo, ese no es el único escenario.
@Livid El problema es que tenemos una idea decente de cuándo sucedió esto, aunque no tenemos todos los detalles: cuando la materia llegó a dominar (y tanto la energía no oscura como la antimateria desaparecieron esencialmente), el universo ya estaba gigantesco De hecho, nuestros mejores modelos actuales esperan que esto no haya sido un accidente: el universo estuvo esencialmente vacío durante la inflación (sin energía ni materia), y fue el colapso (especulativo) del campo inflatón lo que liberó toda la energía no oscura que ves. a tu alrededor hoy. Esto es especulativo, pero con buenas matemáticas y correspondiente a cómo funciona QFT.
@Luaan Quiero enfatizar que esta conjetura sobre el universo primitivo no es crucial para mi punto. Como se señaló en mi "edición 2", la retroalimentación positiva que fuerza una asimetría en la simulación es una consecuencia directa de aceptar la producción de pares y la radiación de hawking. Quiero decir, está bien, el universo era enorme y luego había regiones localizadas de materia y antimateria (pero un poco más de materia) y hubo un período de aniquilación en el pasado que hace que las regiones dominadas por la antimateria sean muy raras en la actualidad. Sin embargo, tiene más sentido para mí que esto suceda de inmediato.
La radiación de @Livid Hawking y la producción de pares no están relacionadas. Todavía estás asumiendo que un agujero negro simplemente crea un positrón o un electrón al azar, con un 50% de probabilidad. No hay razón para creer eso. La radiación de Hawking depende de la carga del agujero negro, por lo que si el agujero negro emite 100 electrones seguidos, hay muchas más posibilidades de que la próxima vez sea un positrón. No es un proceso aleatorio , es probabilístico . Modifique su simulación para tener esto en cuenta y su asimetría desaparecerá. Todavía necesitas algo que prefiera específicamente la materia.
@Luaan No creo que "ajustar" el modelo para obtener exactamente la cantidad correcta de relación materia-antimateria para no permitir que uno domine tenga mucho sentido. Básicamente, lo está ajustando para que no coincida con la realidad. Si el agujero negro necesita "emitir" partículas en función de la carga, ¿por qué no hacer que emita un antiprotón en lugar de un electrón? Pero vea mi conversación con Chris a continuación.
@Luaan Consulte las últimas ediciones. La clave parece ser una baja tasa de aniquilación.
@Livid Debido a que un antiprotón tiene mucha más masa que un positrón, ya lo mencioné antes. Esto significa que necesita que se produzcan agujeros negros mucho más pequeños, y es mucho más raro incluso entonces.
@Luaan Ok, como mencioné anteriormente. Mi punto es que espero el mismo resultado cualitativo en un modelo detallado más complejo. La gente sigue pensando en cosas para agregar y cada vez hasta ahora hemos visto el mismo resultado cualitativo. ¿Por qué crees que los agujeros negros de diferentes tamaños cancelarán este efecto? ¿Por qué mecanismo?

Respuestas (5)

¡Felicitaciones por encontrar un método para la bariogénesis que funcione! De hecho, es cierto que si tienes un montón de agujeros negros, por casualidad obtendrás un desequilibrio. Y este desequilibrio permanecerá incluso después de que los agujeros negros se evaporen, porque el resultado de la evaporación no depende del número total de bariones que entraron en el agujero negro.

Los agujeros negros pueden romper leyes de conservación como esa. Las únicas leyes de conservación que no pueden romper son aquellas en las que se puede medir la cantidad conservada desde el exterior. Por ejemplo, la carga aún se conserva porque puede realizar un seguimiento de la carga del agujero negro midiendo su campo eléctrico. En el modelo estándar, el número bariónico no tiene dicho campo asociado.

Además, debe asumir que se forman suficientes agujeros negros para que su mecanismo funcione. En los modelos estándar esto no sucede, a pesar de las altas temperaturas. Si comienza con un Big Bang estándar, el universo se expande demasiado rápido para que se formen agujeros negros.


Sin embargo, en física, encontrar un mecanismo que resuelva un problema no es el final, es el comienzo. No todos estamos sentados rascándonos la cabeza en busca de algún mecanismo para lograr la bariogénesis. En realidad, hay al menos diez formas conocidas y conceptualmente distintas de hacerlo (incluida la suya), desarrolladas en cientos de modelos concretos. El problema es que todos ellos requieren nueva física especulativa, adiciones a los modelos centrales que ya hemos verificado experimentalmente. Nadie puede declarar que uno específico de estos modelos es verdadero, en ausencia de cualquier evidencia independiente.

Es como si todos estuviéramos sentados tratando de encontrar la contraseña de seis dígitos para una caja fuerte. Si pasa y dice "bueno, obviamente podría ser 927583", sin más evidencia, eso es técnicamente cierto. Pero no has roto la caja fuerte. El problema de la bariogénesis no es análogo a encontrar un número de seis dígitos, eso es fácil. El problema es que no sabemos cuál es relevante, qué mecanismo existe realmente en nuestro universo.

Lo que los físicos que investigan estas preguntas en realidad hacen es tratar de vincular estos modelos con cosas que podemos medir, o crear modelos simples que expliquen múltiples acertijos a la vez. Por ejemplo, una forma de probar un modelo con agujeros negros primordiales es calcular la cantidad lo suficientemente pesada como para vivir hasta el día de hoy, en cuyo caso puede ir a buscarlos. O, si fueron creados por alguna nueva física, podrías buscar esa nueva física. Otro hilo más es señalar que si todavía hay suficientes agujeros negros primordiales hoy en día, podrían ser la materia oscura, por lo que podría intentar obtener tanto la bariogénesis como la materia oscura simultáneamente. Todo esto implica mucha lectura, matemáticas y simulación.

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Parece que el OP preguntó "¿Por qué X es sorprendente, cuando puedo construir una explicación perfectamente razonable para ello?". Y tu respuesta es "Hay un montón de posibles explicaciones para ello". Eso no responde directamente a la pregunta del OP. Parece que la respuesta directa es "La existencia de un desequilibrio en sí no es sorprendente... es solo que no sabemos específicamente por qué existe"... En su analogía, no nos sorprende la afirmación de que el ES algo debajo del sombrero del mago, ... simplemente no sabemos qué es esa cosa.
Se eliminó una nueva ronda de discusión extendida en los comentarios. Si alguien quiere tener una conversación aquí, que se la lleve al chat.
Entonces, la verdadera pregunta es: ¿ por qué ha sido tan difícil encontrar evidencia de cuál es el mecanismo real y 'correcto'?
@The_Sympathizer La respuesta es simplemente que la historia del universo es un excelente borrador. Aproximadamente, todo termina en equilibrio térmico durante mucho tiempo, por lo que las únicas características que sobreviven son "reliquias", como el propio número bariónico. Esta es también la razón por la que enfaticé "explicar varios acertijos a la vez"... es bastante fácil, incluso típico, terminar con una hipótesis que es completamente imposible de probar si no lo hace.
@knzhou: Sí. Al igual que muchos otros tipos de estudio histórico en otros campos (como biología, historia humana). La información se ha ido, disipado, entropizado, irrecuperable.

Localidad

Se esperaría que la caminata aleatoria creara diferentes asimetrías (opuestas) en diferentes regiones, incluidas regiones que están lo suficientemente distantes como para no afectarse entre sí. Si esta fuera la causa principal de la asimetría, esperaríamos que causara un predominio de materia en algunas áreas del universo observable y un predominio de antimateria en otras áreas del universo observable.

Sin embargo, observamos un predominio global y universal de la materia que parece uniforme en todo el universo observable; ya que cualquier límite entre las regiones de materia y antimateria crearía efectos observables que no parecen existir.

Si la "bariogénesis de agujeros negros" fuera más común poco después del Big Bang, esperaría que los resultados fueran uniformes hoy. Básicamente me imagino que la tasa de bariogénesis es mucho más baja hoy que en el pasado porque hay menos agujeros negros (porque el universo se ha vuelto menos denso).
@Livid "la tasa de bariogénesis es mucho más baja hoy que en el pasado" es una suposición clave aquí que en mi humilde opinión no se puede inferir directamente del hecho de que el universo era más caliente/más denso, pero parece que debería tener un sólido verdadero/falso respuesta aunque no soy competente para decir cuál es.
Como crees que podemos observar esto, quiero saber cómo podemos observar la materia/antimateria de una galaxia fuera del grupo local.
@Joshua, la esencia es que, si bien el espacio interestelar es muy, muy escaso, si en dos galaxias vecinas (y las regiones circundantes del espacio) una era predominantemente materia y la otra era antimateria, entonces en el límite entre la "región de materia" y " región de antimateria", incluso si ese límite (el espacio "vacío" que no es una galaxia) es tan escaso como parece, esa región límite es inevitablemente lo suficientemente grande como para que los eventos de aniquilación y su firma de energía sean lo suficientemente frecuentes como para ser claramente identificados. lo suficientemente observables e inusuales para que no se confundan con otra cosa.
¿Estás dispuesto a decir lo mismo de las interacciones entre grupos de galaxias? La interacción entre los grupos cae bastante rápido.
@Livid Los agujeros negros no tienen nada que ver con la densidad absoluta ; se trata de gradientes de densidad . Cuando terminó la inflación, la densidad de energía era enorme, sí, pero también era esencialmente la misma en todas partes. No hay razón para esperar que haya más agujeros negros que hoy, especialmente del tipo que no se evapora en muy poco tiempo. Tenga en cuenta que la carga se conserva: el -1 que escapa de un solo electrón se equilibra con un +1 adicional en el agujero negro, lo que, por supuesto, hace que el agujero negro rechace más positrones y atraiga electrones, y cuando se emite radiación de Hawking, no es neutral.
@Luaan Vea mi primera oración sobre kugelblitz en el universo temprano. Tal como lo imaginé, primero había un universo de solo energía, luego se formaron algunos agujeros negros a partir de eso, luego los agujeros negros produjeron materia y antimateria y uno "al azar" se volvió dominante como se muestra en la simulación.
@Livid Todavía necesitas gradientes de densidad para formar agujeros negros. El universo es extremadamente uniforme. Pero incluso si los agujeros negros de alguna manera se formaran en grandes cantidades y, sin embargo, en pequeñas masas (para "evaporarse" fácilmente), e incluso si toda la materia y la antimateria se formaran como radiación de Hawking (tampoco hay razón para creer eso), necesitarías conservar cargar. Ese es un gran problema, porque los protones son mucho más masivos que los electrones. No obtendrías un mundo de X protones y X electrones, obtendrías un mundo de X positrones y X electrones. Para obtener un universo de materia, necesitas algo que prefiera la materia.
@Livid De hecho, escribí una respuesta que explora todo eso (e intenta mostrar por analogía cómo funciona realmente la radiación de Hawking , suponiendo que exista en primer lugar), pero resultó demasiado larga, así que la dejé. Pero el punto importante es que 1) el universo parece dominado masivamente por la materia, a pesar de las grandes distancias; no hay gotas de materia y gotas de antimateria, incluso en las escalas observables más grandes, 2) la carga debe conservarse, 3) la radiación de Hawking no es de ninguna manera como "la mitad de un par de partículas virtuales cae en un agujero negro", 4) los agujeros negros necesitan gradientes de densidad
@Luaan Como se menciona en las otras respuestas, la "bariogénesis de agujeros negros" es un proceso aceptado consistente con la física estándar. ¿Estás en desacuerdo con eso?
@Livid No. Si el universo primitivo estaba lleno de agujeros negros primordiales microscópicos, su evaporación podría ser la fuente de toda la materia que nos rodea (¡pero eso es un gran si! Necesitas una forma para que se formen esos agujeros negros). Pero eso no es lo que preguntaste en tu pregunta, al menos originalmente.
@Luaan En la pregunta original, asumí que los agujeros negros eran kugelblitz.
@Livid ¿De qué manera eso cambia algo?
@Luaan Dijiste "Necesitas una forma para que se formen esos agujeros negros". Sin embargo, el mecanismo es en forma de kugelblitz.

Su simulación crea aleatoriamente una sola partícula que es del tipo 1 o del tipo 2. Si estos dos tipos están cargados, entonces cualquiera de estos dos procesos de creación viola la conservación de la carga. La conservación de carga es una ley absoluta de la física hasta donde sabemos, y esto incluye procesos como la formación y evaporación de agujeros negros.

El OP aclaró en un comentario:

Se crean ambas partículas, pero una es absorbida por el agujero negro. El otro se queda afuera. Por lo tanto, la carga debe conservarse.

Succionar una partícula en un agujero negro no significa que sea como si la partícula nunca hubiera existido. Su masa-energía, carga y momento angular todavía están presentes en el agujero negro. Este es un ejemplo de la universalidad de la conservación de la carga como ley de la física.

En su simulación, digamos que las partículas representadas por la curva negra en su gráfico son electrones. Entonces, el universo en su simulación ha acumulado un gran excedente de agujeros negros cargados positivamente. Estos agujeros negros cargados positivamente no emiten (en promedio) radiación de Hawking eléctricamente neutra. Para cuando se evaporen por completo, habrán emitido partículas con carga positiva, como positrones, en una cantidad exactamente igual al número de cargas positivas que consumieron. (Hago estas afirmaciones como si supiéramos con certeza que la radiación de Hawking operaba de cierta manera. En realidad, no tenemos evidencia directa, y los métodos de la gravedad semiclásica nunca se han comparado con la observación de ninguna manera, por lo que no podemos realmente asegúrese de que funcionen.)

Es posible que desee ver las condiciones de Sakharov: https://en.wikipedia.org/wiki/Baryogenesis#GUT_Baryogenesis_under_Sakharov_conditions

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .

La materia y la antimateria no se crean una a la vez al azar. Para arreglar su simulación, siempre necesitaría crear un electrón al mismo tiempo que crea un positrón.

¿Agregar un agujero negro rompe esa simetría? Definitivamente no. La carga aún se conserva: el positrón que "cae" en el agujero negro no desaparece simplemente, sino que altera la carga, el momento angular, etc. de todo el agujero negro. Entonces, si el agujero negro absorbe un electrón, se carga un poco más negativamente. No es tan probable que el agujero negro absorba un electrón como lo es para absorber un positrón: cada desequilibrio de la carga significa que las partículas con carga diferente se atraen de manera diferente. Si el agujero negro de alguna manera logró consumir mil millones de electrones a la vez, repelerá los electrones y atraerá los positrones. El desequilibrio desaparecería rápidamente.

Pero no es así como funciona la radiación de Hawking de todos modos (suponiendo que realmente exista). No hay un par partícula-antipartícula que se cree cerca del horizonte uniforme del agujero negro, de los cuales uno se crea aleatoriamente de una manera que lo hace caer en el agujero, mientras que el otro escapa. Si esta fuera la imagen correcta, la radiación de Hawking se emitiría en todo tipo de tiempos espaciales deformados, incluido el de la Tierra. Las llamadas partículas virtuales son perturbaciones en los campos cuánticos subyacentes que no sonpartículas Una partícula real es un paquete de ondas estable en el campo que se autopropaga, y si ignoras las interacciones con otros campos, nunca desaparece; tiene una masa definida, carga eléctrica, etc. Las partículas virtuales son más como las ondas de agua que obtienes cuando arrojas una piedra en un estanque. Un electrón virtual no tiene la masa del electrón, ni su carga, ni nada más. No es un electrón que se aniquila con un positrón demasiado rápido para ser observable, no es una partícula en absoluto. A veces, la gente confunde cosas como "2 fotones -> 1 electrón + 1 positrón -> 2 fotones" con partículas virtuales. No hay ninguna similitud útil entre los dos. Un agujero negro es como un agujero en la piel de un tambor. Su presencia significa que algunos modos de vibración no están permitidos, mientras que otros no lo estarían.

Por supuesto, los positrones no son las únicas partículas cargadas positivamente en el universo. ¿Podría la radiación estar en forma de protones? No precisamente. Los protones son realmente muy masivos en comparación con los electrones y los positrones. Incluso si tuviera un agujero negro lo suficientemente pequeño como para tener la radiación de Hawking lo suficientemente energética como para producir protones, esperaría mil positrones por cada protón producido, incluso suponiendo que los positrones y los protones funcionaran exactamente de la misma manera (que no es así). Y, por supuesto, aún se esperaría que se produjeran antiprotones en las mismas cantidades: el resultado final sigue siendo un universo sin materia ni antimateria.

¡Esto también significa que en realidad es bastante difícil convertir la radiación de Hawking en materia! Si cree en la descripción popular de la radiación de Hawking y las partículas virtuales, debe esperar que un agujero negro más grande produzca mucha más radiación que un agujero negro pequeño. La "formación espontánea de pares" debería ser la misma en todo el espacio-tiempo, por lo que, en igualdad de condiciones, un agujero negro más grande debería "capturar" más pares que un agujero negro más pequeño; si ignoramos todos los efectos como la carga y la gravedad, debe esperar que la producción del par corresponda al área de superficie del agujero negro (el horizonte de eventos).

Pero este no es el caso en absoluto: se espera que los agujeros negros más pequeños emitan mucha más radiación que los agujeros negros más grandes. No solo eso, sino que los agujeros negros más grandes emiten longitudes de onda mucho más largas (y, por lo tanto, partículas menos energéticas, casi exclusivamente fotones y quizás neutrinos) que los agujeros negros pequeños. Los agujeros negros de masa estelar son demasiado masivos para producir algo como un electrón, incluso los agujeros negros de masa terrestre son demasiado grandes.demasiado (alrededor de siete órdenes de magnitud demasiado). No hace falta decir que debe esperar protones de agujeros negros aún más pequeños, y en cantidades mucho más bajas que cualquier electrón; y para un agujero negro sin carga, obtendrá aproximadamente tantos electrones como positrones. La simetría sigue ahí, porque al final, no estás consumiendo aleatoriamente una de un par de partículas formadas espontáneamente: estás distorsionando las oscilaciones en el campo cuántico eléctrico, y el resultado depende del valor del campo. en primer lugar.

Para explicar el dominio de la materia en el universo, necesitas algo que prefiera la materia. Incluso si la mera casualidad estadística fuera suficiente para explicar el dominio de la materia, no esperaría que el universo estuviera uniformemente hecho de materia. Debería esperar bolsas de materia, junto a bolsas de antimateria. Pero eso sería muy obvio en nuestras encuestas, incluso desde muy lejos: la interfaz entre el bolsillo de materia y el bolsillo de antimateria brillaría como un loco. No vemos eso.

Pero en realidad hemos logrado encontrar una cosa en el universo que trata la materia y la antimateria de manera diferente: la simetría no es perfecta. Esta es la fuerza nuclear débil, y los físicos están muy entusiasmados por aprender más sobre esta fuerza fundamental que hasta ahora se ha descuidado un poco; y especialmente sobre su conexión con el campo de Higgs confirmado relativamente recientemente. No voy a dar más detalles, ya que esto ya es demasiado largo :)

Todavía nos queda una cosa importante. Asumes que si había mucha densidad de energía en el universo primitivo, esto debe haber causado la formación de agujeros negros. Este es un malentendido común: los agujeros negros no se forman como resultado de una alta densidad de materia o energía. Requieren un gradiente de densidad. La distinción no importa mucho cuando hablas de los agujeros negros que observamos: esencialmente estás comparando la densidad de energía del vacío cercano con masas estelares de materia masivamente compactadas. Pero mientras que el universo primitivo, antes de la bariogénesis, tenía una densidad de energía muy alta, también era increíblemente uniforme: era (y sigue siendo) muy, muy plano. No hubo "inclinación" del espacio-tiempo, ni agujeros negros. Primero necesitaría desviaciones significativas, bolsas localizadas de baja densidad de energía, pero vemos en la radiación cósmica de fondo que el universo era extremadamente uniforme (en el punto en que se volvió en gran parte transparente a la radiación).

"La materia y la antimateria no se crean una a la vez al azar. Para arreglar su simulación, siempre necesitaría crear un electrón al mismo tiempo que crea un positrón". Eso es lo que sucede en la radiación hawking, que mi simulación modela.
"Para explicar el dominio de la materia en el universo, se necesita algo que prefiera la materia". Creo que te perdiste una parte esencial de la pregunta. Lo que queda se llama "materia". Esa es la nomenclatura antropocéntrica. Si por casualidad el otro tipo de materia hubiera sobrevivido, en su lugar se habría llamado materia. No hay necesidad de preferencia, solo ruptura de simetría.
@MSalters Necesita una preferencia para explicar por qué la simetría se rompe de la misma manera en todas partes del universo, en lugar de en parches aleatorios de materia y antimateria.
@chris Es por eso que supuse que la materia se "bloqueó" como la especie dominante en el entorno muy denso de alta energía poco después del Big Bang. La tasa de bariogénesis debería ser mucho más baja ahora. Si bien es posible lograr que las regiones locales estén dominadas por la antimateria a través de este método, debería ser muy raro porque primero se debe aniquilar toda la materia local.
@Livid Hay partes del universo que generalmente están desconectadas entre sí, es decir, no han tenido ninguna posibilidad de mezclarse entre sí desde el Big Bang (o el final de la inflación, en modelos inflacionarios). De todos modos, si está postulando que la casualidad aleatoria causó el desequilibrio de bariones que vemos hoy, no tiene sentido mencionar agujeros negros en absoluto; es al menos tan probable que suceda por casualidad sin agujeros negros.
@Chris No, no estoy proponiendo que "la casualidad aleatoria haya causado el desequilibrio de bariones que vemos hoy". Estoy diciendo que un desequilibrio de bariones está garantizado si acepta la producción/aniquilación de pares de materia-antimateria y la radiación de halcones . Qué especie termina siendo dominante (y llamada "materia") es arbitraria dado nuestro conocimiento del sistema. Llama a ese aspecto "aleatorio" si quieres.
@Livid Un desequilibrio local de bariones en alguna escala está garantizado solo por casualidad: es decir, la densidad del número de bariones no es uniformemente cero. Realice la misma caminata aleatoria solo con partículas que salen y entran en un volumen de espacio y obtendrá resultados similares.
@Chris "Haga la misma caminata aleatoria solo con partículas que salen y entran en un volumen de espacio y obtendrá resultados similares". Tendrá que codificarlo para demostrarlo porque esto no tiene sentido para mí. Sé con certeza que obtendré ~50% de materia y 50% de antimateria en el volumen. No es una especie dominante.
@Chris Por "desequilibrio de bariones" estoy hablando de que casi todos los bariones son de una especie (es decir, materia), no 51-49% o algo así. Una cantidad casi igual de materia y antimateria es inestable y nunca esperaría observarla. Mi pregunta es ¿por qué los físicos aparentemente esperan ver eso?
@MSalters No realmente. Si la materia y la antimateria cambiaran de lugar, llamaríamos simplemente materia a la antimateria. No cambia el argumento: aún necesita algo que prefiera uno u otro. La ruptura de la simetría sería suficiente si asumiera lo que Livid asumió: que cada electrón individual se aniquila inmediatamente con un positrón, si lo hay, y viceversa. Pero sabemos que ese no es el caso, porque el límite de velocidad universal existe, y debe esperar volúmenes donde la materia sea dominante y volúmenes donde la antimateria sea dominante, lo cual no observamos.
@Luaan La aniquilación inmediata no es necesaria para que surja la dominación. Vea mi última actualización donde hago que la probabilidad de aniquilación sea una función de la cantidad de partículas (lo mismo se ve si uso solo la cantidad de partículas "anti" a la que se acaba de generar). Y también me pregunto si el universo primitivo era tan pequeño que la aniquilación podría ser prácticamente instantánea.
@Livid No se trata del tiempo, se trata de la distancia: las partículas se acercan lo suficiente como para aniquilarse. El punto es que a medida que aumentan las separaciones, se esperaría que se formaran gotas de materia y antimateria, en lugar de una materia o antimateria uniforme. Todavía estás asumiendo que hay un grupo global de materia y antimateria.
@Luaan Si quieres, dime qué quieres simular que tenga sentido para ti como lo hizo Chris. Sin embargo, debemos encontrar una manera que no termine conmigo calculando trayectorias y haciendo una integración de salto, etc. Tiene que ser una simple prueba de concepto.
@Livid Al final, es muy simple. Ejecute 100 simulaciones. En lugar de promediarlos, cuente cuántos terminan dominados por la materia y cuántos dominados por la antimateria. Esa es su expectativa de cómo las partes del universo causalmente desconectadas deberían verse en promedio. Descubrirá que el universo termina en una mezcla de manchas de materia y antimateria, algo que no observamos en la realidad.
@Luaan Puede encontrar eso y más en mi discusión con Chris aquí . Como he dicho un par de veces: no vivimos en el promedio de muchos universos, observamos una instancia de un universo. Por lo tanto, es incorrecto comparar lo que se predice en promedio con nuestras observaciones. No me sorprende que el resultado promedio no se observe en la realidad. Creo que es confuso porque los cálculos para el promedio no tienen fallas lógicas y tienen las mismas unidades que las instancias individuales, pero significan cosas diferentes.
@Livid Exactamente, no vivimos en el promedio de muchos universos. Pero eso es lo que estás simulando. Lo que propongo es que simule muchos parches individuales causalmente desconectados de nuestro universo. Todavía estás asumiendo que cada electrón tuvo tiempo suficiente para aniquilarse con cada positrón existente. Pero, ¿cómo, si la velocidad de la luz es finita? ¿Qué tan grande supones que es el universo en el punto donde se detuvo la bariogénesis? ¿Qué tan rápido se estaba expandiendo? Está asumiendo que lo que sucedió en un lugar debe haber sucedido exactamente igual en todos los lugares del universo primitivo.
@Luaan Específicamente, no estoy tratando de simular un universo promedio y compararlo con nuestro universo, pero eso es lo que literalmente me pediste que hiciera "cómo deberían verse las partes del universo causalmente desconectadas en promedio". Y no veo dónde estoy asumiendo que "cada electrón tuvo tiempo suficiente para aniquilar cada positrón" en el modelo de Chris. Asume que interactúan a una tasa proporcional al producto del número de cada uno en existencia: m*n1*n2. Ahora está afirmando que hay algún otro efecto debido a que no estoy seguro de qué cancelará el desequilibrio. ¿Cómo puedo agregar esto?
@Livid No estoy seguro de qué es tan difícil de entender aquí. El espacio es grande. Estás asumiendo que solo porque hay un positrón y un electrón, se aniquilarán. Ese no es el caso, primero deben acercarse entre sí. La mayoría de las cosas en el universo nunca tuvieron la oportunidad de interactuar de ninguna manera. Entonces, en su modelo, debe asumir que obtiene volúmenes de espacio donde domina la materia y volúmenes de espacio donde domina la antimateria. No pueden alcanzarse para aniquilarse mutuamente. El desequilibrio llegó para quedarse.
@Luaan "Estás asumiendo que solo porque hay un positrón y un electrón, se aniquilarán". No estoy de acuerdo, sin embargo, el modelo (estoy hablando del modelo poissoin (m * n0 * n1)) asume que cualquier positrón y electrón pueden eventualmente aniquilarse entre sí. " en su modelo, debe suponer que obtiene volúmenes de espacio donde domina la materia y volúmenes de espacio donde domina la antimateria. ¿realidad? Eso es algo que debe deducirse de algunos principios, no asumirse en sí mismo.

Mirando las respuestas a esta vieja pregunta, no veo el argumento estadístico básico: la asimetría entre materia y antimateria es demasiado grande para ser explicada por una caminata aleatoria.

Considere que un paseo aleatorio de norte los pasos tienden a terminar sobre norte a pasos de su punto de partida. De manera similar, un proceso de Poisson (en el que todos los eventos son independientes) que produce en promedio norte los éxitos tendrán una incertidumbre en torno a ese promedio de alrededor norte .

El universo observable contiene aproximadamente 10 80 bariones. Si imaginamos que esta es una fluctuación estadística en un proceso que tiene una preferencia intrínseca cero por la materia sobre la antimateria, ese proceso tendría que haber ocurrido aproximadamente 10 160 veces. Supongamos que cada aniquilación produce finalmente dos fotones: esos fotones ahora contribuirían al fondo cósmico de microondas. Pero conocemos la densidad del CMB. La proporción de bariones a fotones de nuestro universo es de aproximadamente 10 9 , no 10 80 .

Ya existe una violación de CP (es decir, asimetría entre materia y antimateria) en el modelo estándar. El problema es que lo conocido C PAG la violación es demasiado pequeña para explicar la materia de la que estamos hechos. Pero la violación de CP que falta es una cuestión de un factor de 10 4 más o menos, no un factor de mil millones.