Ce qu’on ne voyait jamais sur un ordinateur quantique vient d’être filmé en direct : un qubit “parfait” peut s’effondrer en quelques millisecondes, et ça change toute la course à la fiabilité

Ce qu’on ne voyait jamais sur un ordinateur quantique vient d’être filmé en direct : un qubit “parfait” peut s’effondrer en quelques millisecondes, et ça change toute la course à la fiabilité

Des chercheurs viennent de réussir ce qu’on croyait trop rapide pour être vu : suivre en direct les sautes d’humeur d’un qubit, et découvrir qu’un composant “excellent” peut se dégrader en quelques millisecondes.

Pendant longtemps, on a évalué les qubits comme on jugerait un épisode en regardant seulement la moyenne des notes. Sauf que dans les coulisses, ça peut s’effondrer d’un coup : l’énergie fuit, l’information quantique s’évapore, et le “héros” devient figurant. Une équipe a mis au point une mesure adaptative capable de coller au rythme réel de ces bascules, milliseconde par milliseconde. Résultat : on voit enfin les fluctuations au moment où elles arrivent… et ça force à repenser la manière de tester et régler les processeurs quantiques.

A lire aussi :

Les qubits ne “tombent pas en panne”, ils glissent sur des peaux de banane invisibles

Un qubit, c’est l’unité de base d’un ordinateur quantique : la petite pièce maîtresse qui promet, un jour, de dépasser les machines classiques sur certains calculs. Le problème, c’est que cette pièce est ultra sensible. Les matériaux qui la composent peuvent contenir des défauts minuscules, des imperfections si petites qu’elles ressemblent à des détails de décor… sauf qu’elles bougent. Et quand elles bougent, elles changent la vitesse à laquelle le qubit perd son énergie, donc la vitesse à laquelle il perd la précieuse information quantique. Jusqu’ici, la plupart des tests mettaient trop de temps. Si votre méthode prend une minute pour mesurer la performance, vous ratez tout ce qui se passe à l’échelle où le qubit, lui, vit vraiment : celle des millisecondes. C’est comme noter un sprinteur sur une course, mais ne regarder que la moyenne de vitesse entre le départ et l’arrivée : vous ne verrez jamais le moment où il trébuche. Cette nouvelle lecture du réel met un projecteur sur un fait dérangeant : même un qubit réputé stable peut se dégrader très vite, sans prévenir, puis parfois redevenir “bon” plus tard. Deux ou trois défauts qui se déplacent, et l’épisode change de ton. Qubit, défauts, instabilité.

L’informatique quantique pourrait franchir un cap : lire un qubit ajoute du bruit, mais ce nouveau composant promet de réduire ce parasite au plus près de la limite physique

Le vrai scandale, c’était la lenteur : mesurer trop tard, c’est ne rien comprendre

Les approches classiques donnaient souvent une valeur moyenne du taux de relaxation (en gros : à quelle vitesse le qubit perd son énergie). Mais une moyenne, c’est confortable… et parfois mensonger. Si un qubit alterne entre des phases “propres” et des phases “sales”, une mesure lente va lisser le tout et raconter une histoire tiède : “ça va, c’est correct”. Or, en pratique, un processeur quantique se joue rarement sur la moyenne. Il se joue sur les moments où tout se casse la figure et sur les qubits qui tirent l’ensemble vers le bas. L’image la plus parlante, c’est celle d’un cheval de trait très fort, mais entouré d’obstacles qui surgissent trop vite : il peut être excellent, mais la perturbation permanente ruine son travail. Pour un ordinateur quantique, ces perturbations se traduisent par une perte d’information, donc par des erreurs. Et si vous ne voyez pas ces erreurs au moment où elles naissent, vous ne pouvez ni les diagnostiquer, ni les corriger, ni même comprendre ce qui les déclenche. Ce n’était pas un “petit détail de labo” : c’était un angle mort. mesure, millisecondes, erreurs.

Le tour de force : une mesure adaptative qui suit la cadence du qubit, pas l’inverse

La nouveauté annoncée est une méthode de mesure adaptative en temps réel, développée par une équipe du Niels Bohr Institute (Center for Quantum Devices) avec le Novo Nordisk Foundation Quantum Computing Programme, menée par le chercheur Fabrizio Berritta, en collaboration avec d’autres institutions (notamment en Norvège, aux Pays-Bas et en Suède). Leur idée : arrêter de courir après le qubit avec un chronomètre trop lent, et fabriquer un système capable d’actualiser son estimation en quelques millisecondes. Concrètement, le contrôleur met à jour en continu une estimation du taux de relaxation du qubit. Il ne se contente pas de “mesurer puis réfléchir” : il mesure, met à jour, mesure, met à jour… comme un coach au bord du ring qui ajuste la stratégie après chaque échange. Le cœur de cette approche, c’est l’adaptation : on utilise quelques mesures pour produire une meilleure estimation, immédiatement, sans attendre un long transfert de données vers un ordinateur classique. L’objectif n’est pas de faire joli sur une courbe : c’est de coller au tempo réel des fluctuations observées, et de les attraper “sur le fait”. temps réel, adaptatif, calibration.

La star discrète : le FPGA, ce cerveau classique taillé pour la vitesse

Pour atteindre cette cadence, l’équipe s’appuie sur un FPGA (Field Programmable Gate Array). Dit simplement : un processeur classique reconfigurable, conçu pour enchaîner des opérations à grande vitesse avec une latence minimale. Ce n’est pas une coquetterie technique : c’est l’outil qui rend possible la boucle “mesure → mise à jour → décision” sans perdre du temps en allers-retours. Le défi, c’est que programmer un FPGA pour des tâches aussi spécialisées n’a rien d’un jeu de construction. Pourtant, ils y sont arrivés en mettant à jour un modèle bayésien interne après chaque mesure du qubit. Le modèle bayésien, c’est la partie “cerveau probabiliste” : il ajuste sa croyance sur l’état du qubit en fonction des nouvelles données, un peu comme un enquêteur qui affine sa thèse à chaque indice. Et parce que tout est exécuté directement sur le FPGA, la chaîne est courte, rapide, presque nerveuse. Résultat annoncé : un rythme environ cent fois plus rapide que ce qui avait été démontré auparavant, et surtout une capacité à suivre les fluctuations à l’échelle où elles se produisent réellement. FPGA, Bayésien, latence.

Un contrôleur du commerce, mais une intégration “au millimètre” avec le hardware quantique

Autre détail qui compte : l’équipe ne s’est pas contentée d’un bricolage ésotérique réservé à trois laboratoires dans le monde. Ils ont utilisé un contrôleur FPGA commercial, l’OPX1000 de Quantum Machines, programmable via un langage proche de Python. Pour beaucoup d’équipes, c’est la différence entre “j’admire la démo” et “je peux tenter de reproduire”. Mais attention : “commercial” ne veut pas dire “plug-and-play magique”. L’exploit vient de l’intégration serrée entre la logique (le contrôle), la mesure, et le feedforward (l’action immédiate en fonction de la mesure). Autrement dit : on n’observe pas seulement, on se donne les moyens de réagir vite, et de le faire de manière cohérente avec la physique du processeur supraconducteur. Cette intégration s’appuie aussi sur une collaboration étroite avec l’équipe qui a conçu et fabriqué l’unité de calcul quantique (quantum processing unit). On sent ici un motif récurrent dans la techno : l’avancée naît au moment où l’outil, le langage et le matériel cessent de se gêner, et commencent à parler la même langue. contrôleur, hardware, intégration.

La découverte qui pique : un “bon” qubit peut devenir le maillon faible en une fraction de seconde

Le résultat le plus frappant n’est peut-être pas la vitesse, mais ce qu’elle révèle. Avant, on ne savait pas vraiment à quelle vitesse ces fluctuations se produisaient dans les qubits supraconducteurs, parce qu’on ne pouvait tout simplement pas les suivre. Maintenant, on voit que les bascules peuvent être extrêmement rapides : un qubit “propre” peut devenir “sale” en une fraction de seconde, pas en minutes ou en heures. Et ça change la philosophie de la mise au point. Dans un processeur, la performance globale est souvent limitée par les pires qubits, pas par les meilleurs. Si un qubit correct peut se dégrader soudainement, alors l’idée même de “calibrer une fois puis lancer le calcul” devient fragile. On se rapproche d’une logique de surveillance et d’ajustement continu : non pas parce que c’est élégant, mais parce que c’est nécessaire. Le système proposé permet aussi de collecter des statistiques utiles sur ces phases “mauvaises” en quelques secondes, là où il fallait auparavant des heures ou des jours. On ne guérit pas une maladie qu’on ne sait pas observer, et là, enfin, on a un thermomètre qui ne s’endort pas. fluctuations, fiabilité, maillon faible.

Le Japon a forcé Samsung à changer ses règles : en mettant “Galaxy” en avant et Samsung en retrait, le groupe a réduit les frictions et grignoté un marché longtemps dominé par l’iPhone

Vers des processeurs quantiques plus fiables : la route passe par le “monitoring” permanent

La promesse quantique reste immense, mais les machines réellement capables de tourner à grande échelle sont encore en construction. Dans ce contexte, cette percée ressemble à un changement de règle du jeu côté coulisses : on ne peut plus se contenter d’indicateurs lents et moyens. Si les défauts matériels et leurs mouvements font varier la qualité d’un qubit à la milliseconde, alors la fiabilité passera par des approches de calibration en temps réel, ou au minimum quasi temps réel, capables de détecter quand un qubit bascule du bon côté au mauvais. Reste un point important : les chercheurs admettent qu’une grande part des fluctuations observées n’est pas encore expliquée. Autrement dit, on a une caméra ultra rapide… mais l’intrigue n’est pas totalement comprise. La prochaine étape sera de relier ces variations à des mécanismes physiques précis, puis d’apprendre à les contrôler, voire à les éviter. C’est souvent comme ça : d’abord on voit enfin le monstre, ensuite on lui donne un nom, et seulement après on commence à lui couper les griffes. Entre-temps, cette capacité à repérer les qubits “bons” et “mauvais” presque instantanément pourrait devenir un outil central pour rendre les processeurs plus robustes avec les techniques de fabrication actuelles. monitoring, calibration, physique.

Ce qui changeAvant (méthodes classiques)Maintenant (mesure adaptative)Pourquoi ça compte
Temps pour estimer la performanceJusqu’à ~60 sQuelques millisecondesOn observe enfin les variations rapides
Type d’information obtenueValeur moyenneÉvolution instantanéeLa moyenne masquait les bascules
RéactivitéFaibleTrès élevéeOn peut ajuster au rythme du qubit
Diagnostic des “mauvais” qubitsLong (heures/jours)Rapide (secondes)On cible plus vite les points faibles

 

Source : Université de Copenhague

Laisser un commentaire