Umbral de despolarización para códigos CSS

Hace muchos años, cuando se inventaron los códigos CSS por primera vez, se encontró el umbral de error de p=0,11 cuando los cambios de bit y de fase son independientes. ¿Se ha encontrado ya un umbral para el caso del ruido despolarizante?

Respuestas (3)

No creo que se conozca el umbral máximo sobre todos los códigos, pero se han mostrado umbrales superiores al 15 % para códigos específicos. Ver, por ejemplo, arXiv:0905.0531 (p=0.155), Phys Rev Lett 104 050504 (p=0.164), arXiv:1006.1362 (p=0.152) y arXiv:quant-ph/0606126 (p=0.188).

@AshleyStephens: ¡Gran edición! Tal vez debería haber sido una respuesta por derecho propio.

¿Está preguntando por el umbral de distancia mínima o por la capacidad del canal? La distinción es si desea corregir todos los errores en pag norte o menos qubits, o simplemente errores aleatorios en pag norte o menos qubits. Por la forma en que redactó su pregunta, asumo que desea corregir un error aleatorio en pag norte qubits

Si elige un código CSS aleatorio y lo corrige encontrando la menor cantidad de errores totales que concuerden con el síndrome, creo que asintóticamente debería funcionar hasta el punto en que

H 2 ( pag ) + pag registro 2 3 = 1 ,
dónde H 2 ( pag ) es la función de entropía binaria. Esto da una tasa de error de pag = 0.189 . Esta es la misma tasa que obtiene por un código estabilizador aleatorio.

La forma de ver esto es contar la cantidad de errores probables con la tasa de error pag norte , y luego tome el registro de esto para averiguar cuántos bits deben estar en el síndrome para corregirlos. A menos que exista alguna dependencia entre los bits del síndrome cuando se restringe a errores probables, se obtiene el resultado anterior. Y con códigos CSS aleatorios, puede demostrar que no existe tal dependencia.

Esto podría parecer incompatible con el pag = 0.11 resultado de errores independientes, pero no lo es. En el caso de que los errores de bit y los errores de fase sean independientes, los códigos estabilizadores pueden funcionar a una tasa de pag = 0.11 errores de bits y pag = 0.11 errores de fase, que funciona a una tasa de pag = 0.208 errores totales.

El umbral para el ruido despolarizante no se conoce. Se sabe que la forma natural de elegir un CSS aleatorio o un código estabilizador aleatorio no alcanza el umbral. La última referencia que conozco es quant-ph/0604107 de Smith y Smolin, que amplía el trabajo previo sobre códigos degenerados de Shor y otros. Mediante el uso de un código CSS aleatorio concatenado sobre varias capas de códigos de repetición, aparentemente muestran un umbral de 19,086 % en comparación con el 18,93 % del límite de hashing (explicado en la respuesta de Peter).

(Esta respuesta se basa en hojear rápidamente el documento de Smith-Smolin, por lo que es posible que me haya perdido alguna sutileza).

No creo que te hayas perdido nada, y tampoco conozco ninguna referencia posterior que mejore este umbral.
Gracias por tus respuestas. Entonces, ¿qué es exactamente este límite de hashing de 0.189 y por qué los códigos descritos anteriormente pueden vencerlo? Para el caso de cambios de fase y bits independientes, supongo que el límite correspondiente es H(p_x) + H(p_z) = 1 para p_x, la probabilidad de un cambio de bit en cada qubit y p_z para un cambio de fase. Esto da el valor de 0,11 cuando p_x=p_z. ¿Podría haber un código como el anterior que pudiera superar este límite, o es realmente lo mejor que puede hacer cualquier código?