Les chercheurs d’IBM, en collaboration avec l’Université RWTH Aachen et Quantum Elements, ont battu le précédent record de calcul quantique haute fidélité soutenu sur des qubits supraconducteurs. Cette avancée, publiée dans Nature Communications le 27 février, s’attaque à un défi majeur de l’informatique quantique : maintenir des calculs stables suffisamment longtemps pour exécuter des algorithmes complexes.
Le problème de l’instabilité quantique
Les ordinateurs quantiques s’appuient sur des qubits, l’équivalent quantique des bits, pour traiter les informations. Contrairement aux bits classiques, les qubits sont intrinsèquement fragiles, sensibles au bruit provenant de vibrations même infimes ou de perturbations environnementales. Cette fragilité oblige les scientifiques à regrouper plusieurs qubits physiques en « qubits logiques » comme forme de redondance, mais même cette approche est vulnérable aux « erreurs logiques » — où plusieurs qubits physiques échouent simultanément, corrompant le calcul.
Le problème est particulièrement aigu dans les processeurs IBM « Kiev » et « Marrakech » de 127 qubits, qui souffrent d’un type spécifique de bruit appelé « diaphonie ZZ ». Les méthodes traditionnelles de correction d’erreurs ont du mal à évoluer efficacement sans introduire d’erreurs supplémentaires.
La solution : le découplage dynamique du normalisateur (NDD)
L’équipe de recherche a développé un nouveau protocole hybride de suppression d’erreurs appelé Normalizer Dynamical Decoupling (NDD). Au lieu d’appliquer des impulsions de réduction du bruit uniquement au niveau matériel, NDD ajuste le timing de ces impulsions pour les synchroniser avec le code quantique en cours d’exécution. Cela nécessite un « normalisateur » mathématique qui ajuste dynamiquement les impulsions, leur permettant de contrecarrer le bruit plus efficacement.
Les résultats sont significatifs :
* La fidélité d’encodage maximale a atteint 98,05 %, soit un niveau supérieur à tous ceux enregistrés précédemment.
* Cette fidélité a été maintenue à 84,87 % pendant 55 microsecondes, soit plus du double du précédent record de 27 microsecondes.
Pourquoi c’est important
Plus un ordinateur quantique peut maintenir une haute fidélité longtemps, plus il peut effectuer des calculs complexes. Un temps soutenu de 55 microsecondes permet d’effectuer environ 4 500 à 5 500 opérations quantiques consécutives avant la dégradation des données. Même si cela peut sembler progressif, il s’agit d’une amélioration substantielle.
Le but ultime de l’informatique quantique est de résoudre des problèmes impossibles pour les ordinateurs classiques, comme briser le cryptage moderne. Des tâches telles que l’exécution de l’algorithme de Shor pourraient prendre des semaines ou des mois sur un système quantique performant, contre des milliards d’années sur une machine classique.
Cette étape importante rapproche cet avenir, démontrant qu’un calcul quantique haute fidélité durable est réalisable. Le succès de l’équipe souligne l’importance des techniques hybrides de suppression d’erreurs et de l’optimisation dynamique dans l’avancement de la technologie quantique.




















