Los investigadores de IBM, en colaboración con la Universidad RWTH Aachen y Quantum Elements, han batido el récord anterior de computación cuántica sostenida de alta fidelidad en qubits superconductores. El avance, publicado en Nature Communications el 27 de febrero, aborda un desafío central en la computación cuántica: mantener cálculos estables el tiempo suficiente para ejecutar algoritmos complejos.
El problema de la inestabilidad cuántica
Las computadoras cuánticas se basan en qubits, el equivalente cuántico de los bits, para procesar información. A diferencia de los bits clásicos, los qubits son inherentemente frágiles, susceptibles al ruido incluso de vibraciones mínimas o perturbaciones ambientales. Esta fragilidad obliga a los científicos a agrupar múltiples qubits físicos en “qubits lógicos” como una forma de redundancia, pero incluso este enfoque es vulnerable a “errores lógicos”, donde múltiples qubits físicos fallan simultáneamente, corrompiendo el cálculo.
El problema es especialmente grave en los procesadores “Kyiv” y “Marrakesh” de 127 qubits de IBM, que sufren de un tipo específico de ruido llamado “diafonía ZZ”. Los métodos tradicionales de corrección de errores tienen dificultades para escalar de manera efectiva sin introducir errores adicionales.
La solución: desacoplamiento dinámico del normalizador (NDD)
El equipo de investigación desarrolló un novedoso protocolo híbrido de supresión de errores llamado Normalizer Dynamical Decoupling (NDD). En lugar de aplicar pulsos de reducción de ruido solo a nivel de hardware, NDD ajusta la sincronización de estos pulsos para sincronizarlos con el código cuántico que se ejecuta. Esto requiere un “normalizador” matemático que sintonice dinámicamente los pulsos, permitiéndoles contrarrestar el ruido de manera más eficiente.
Los resultados son significativos:
* La fidelidad máxima de codificación alcanzó el 98,05%, más alta que cualquier otra registrada anteriormente.
* Esta fidelidad se mantuvo en 84,87% durante 55 microsegundos, más del doble del récord anterior de 27 microsegundos.
Por qué esto es importante
Cuanto más tiempo pueda mantener una computadora cuántica una alta fidelidad, más cálculos complejos podrá realizar. 55 microsegundos sostenidos permiten aproximadamente entre 4500 y 5500 operaciones cuánticas consecutivas antes de la degradación de los datos. Si bien esto puede parecer incremental, es una mejora sustancial.
El objetivo final de la computación cuántica es abordar problemas imposibles para las computadoras clásicas, como romper el cifrado moderno. Tareas como ejecutar el algoritmo de Shor podrían llevar semanas o meses en un sistema cuántico capaz, en comparación con billones de años en una máquina clásica.
Este hito acerca ese futuro y demuestra que es posible lograr una computación cuántica sostenida de alta fidelidad. El éxito del equipo subraya la importancia de las técnicas híbridas de supresión de errores y la optimización dinámica en el avance de la tecnología cuántica.
