¿Existen límites fundamentales conocidos del escalado de la computadora cuántica?

Las computadoras cuánticas proporcionan una aceleración exponencial en relación con las computadoras clásicas. Sin embargo, es un hecho empírico que el aumento del número de qubits hace que la computadora sea cada vez más difícil de seguir trabajando (decoherencia, disminución de la separación del nivel de energía, tiempos de relajación más largos ...). Para hacer eso, debe ir a temperaturas más bajas y una mejor protección contra la perturbación ambiental y una mayor precisión de fabricación.

Me gustaría saber si hay algunas reglas fundamentales de la naturaleza que conectan estos parámetros con el número de qubits, al menos para las computadoras cuánticas adiabáticas y el recocido cuántico , que parece ser lo más práctico.

  1. P.ej. si se requiere temperatura (reps. β = 1 / T ) también escalaría exponencialmente con el número de qubits (porque la diferencia de energía entre los niveles también escalaría exponencialmente), haría que el rendimiento de la computadora escalara de manera lineal con los avances en la tecnología de enfriamiento y protección.
  2. tal vez, puede haber un límite fundamental que al final conecta el tiempo de relajación con el número de qubits, de tal manera que aumentar el número de qubits requeriría un aumento exponencial del tiempo de relajación (es decir, si la separación del nivel de energía disminuye exponencialmente que el período de latido cuántico entre les lleva proporcionalmente más tiempo). Esto significaría que el rendimiento del procesamiento medido en la cantidad de configuraciones de qubit examinadas por vez estaría limitado por alguna constante.

hay una película interesante sobre computación cuántica adiabática práctica que puede ser una buena introducción a problemas prácticos.

Cada relación en física eventualmente se rompe en algún límite del rango de parámetros físicos relevantes y la computación cuántica no es una excepción. Que los efectos cuánticos como la decoherencia requieran temperaturas cada vez más profundas para suprimirlos no es necesariamente correcto, como lo demuestra el ejemplo de la superconductividad, que es perfectamente estable incluso a temperatura finita. Sin embargo, el control de calidad adiabático parece sufrir el defecto que usted describe, lo que hace que esta implementación en particular sea un callejón sin salida. Estoy de acuerdo con usted en que el principal problema de física en el control de calidad es por qué al final no funcionará.

Respuestas (1)

Solo una respuesta parcial aquí, ya que no soy un verdadero experto en el campo (especialmente no en computación cuántica adiabática):

Si se conocieran tales limitaciones, estas líneas particulares de investigación estarían prácticamente muertas. Como no lo son, concluyo que tales límites no se conocen.

Si tomamos en cuenta todas las implementaciones posibles, no conozco un solo resultado aceptado que proporcione límites fundamentales sobre qué tan grande puede ser una computadora cuántica o si puede existir, aunque hay personas que esperan tal resultado.

Sin embargo, se conocen muchas limitaciones fundamentales. Aquí hay una descripción general ( ArXiv ), que se enfoca más en las computadoras clásicas, pero parece que los límites fundamentales para las computadoras analógicas también podrían aplicarse a la computación cuántica adiabática y podrían poner límites superiores a su escalabilidad.

Otro problema experimental se discute en este artículo de PRL ( ArXiv ): parece que el tiempo de coherencia tiene un límite superior en ciertos sistemas. Esto podría plantear un problema para la corrección de errores, ya que la velocidad de, por ejemplo, las puertas cuánticas podría tener un límite inferior debido a algún otro fenómeno. Sin embargo, no sé qué pensaba la gente acerca de las ideas.

Se conocen muchas de estas limitaciones, como que una verdadera computadora cuántica de más de 400 bits rompería la conformidad AdS/CFT. Es solo que las personas que trabajan en computadoras cuánticas tienden a ser científicos informáticos, y las limitaciones tienden a estar basadas en la física, por lo que la gente hacer el trabajo y desperdiciar el dinero rara vez saben por qué es un callejón sin salida Para recordarles, la homeopatía y la teoría de la tierra plana tampoco están "prácticamente muertas"
@JohnHaugeland ¿Podría señalar la literatura relevante y escribir una respuesta? Definitivamente no es cierto que las personas que trabajan en computadoras cuánticas tiendan a ser informáticos. Los experimentos casi solo los realizan físicos y hay bastantes físicos teóricos que trabajan en computación cuántica, incluso con una formación relevante en gravedad cuántica (estoy pensando en los grupos de Preskill y Kitaev, así como en Patrick Hayden), así que estoy no convencido.
No lo sabía, pero debería haberlo visto, ya que leí scottaaronson.com/democritus/lec14.html hace años (como puede ver allí: ES bien conocido por uno de los defensores más vocales de la computación cuántica, y la mayoría que conozco han leído el libro). En realidad, tampoco encuentro el argumento demasiado convincente: solo puede acceder a n bits de información en un estado determinado, por lo que no puede empaquetar 2 ^ n bits de información en n qubits. Entonces, al final, todo se reduce a esto: ¿a qué tipo de "información" se refiere?