Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Informatique quantique - Quand les chercheurs trichent...

Par : Korben
20 août 2025 à 18:32

Ce que j’apprécie le plus dans tout ce qui est recherches en physique quantique, ce n’est pas la physique complexe ou les qubits intriqués. Non, c’est parfois la créativité déployée par certains chercheurs pour présenter leurs résultats de factorisation sous le meilleur jour possible, alors qu’en réalité, les machines quantiques actuelles peinent encore à traiter des nombres complexes de manière pratique.

Les chercheurs Peter Gutmann et Stephan Neuhaus viennent en effet de balancer un pavé dans la mare avec leur papier qui démontre méthodiquement comment une partie significative des benchmarks de factorisation quantique “cuisine les chiffres” depuis des années. Et leur conclusion est inquiétante : Une grande partie des benchmarks de factorisation quantique publiés utilisent des méthodes discutables qui surestiment les capacités réelles.

La technique la plus répandue dans ces cas problématiques consiste à sélectionner des “nombres pièges” délibérément conçus pour être factorisés facilement. C’est la même chose qu’un magicien qui prétend deviner votre carte alors qu’il a truqué tout le jeu.

Ces chercheurs choisissent des nombres dont la structure mathématique garantit une factorisation triviale. Au lieu d’utiliser des nombres aléatoirement générés comme dans la vraie cryptographie, ils fabriquent des valeurs où les facteurs premiers ne diffèrent que de quelques bits. Du coup, il suffit d’une recherche basique pour trouver la solution, sans avoir besoin d’un ordinateur quantique. Un VIC-20, un abaque (c’est un boulier) ou même un chien bien dressé y arriveraient selon les auteurs.

Et quand leurs nombres ne sont pas suffisamment faciles, ils utilisent du préprocessing massif sur ordinateur classique pour faire la majeure partie du boulot avant même que la machine quantique entre en jeu. On dirait certains d’entre vous qui postent sur Instagram leur dernier marathon alors qu’ils l’ont juste rejoint au kilomètre 41…

Il faut toutefois reconnaître que des travaux plus rigoureux existent. Certains chercheurs ont réussi à factoriser des nombres sans préparation particulière, notamment via des approches comme le quantum annealing avec des embeddings modulaires. Mais ces cas restent minoritaires et les nombres traités demeurent modestes.

Bruce Schneier, qui a relayé cette recherche, enfonce également le clou avec sa métaphore habituelle du “Les défis techniques pour construire un ordinateur quantique utile, c’est dur. Mais est-ce que c’est dur comme “poser un homme sur la Lune” ou dur comme “poser un homme sur le Soleil” ? Les deux sont difficiles, mais pas du tout dans la même catégorie de faisabilité”.

Cette manipulation dans certains benchmarks révèle un problème plus profond à savoir que quand la pression pour publier rencontre des milliards d’investissements en jeu, la tentation devient énorme de présenter des résultats flatteurs plutôt que honnêtes. Le problème, c’est que certains reviewers ne vérifient pas systématiquement la vraie complexité des nombres utilisés, même si d’autres le font consciencieusement (comme le montre d’ailleurs la page Wikipedia sur le sujet qui documente ces vérifications).

Il est important de comprendre que l’algorithme de Shor lui-même n’est pas en cause. Il démontre théoriquement qu’on peut factoriser en temps polynomial (O(log N)) au lieu d’une complexité exponentielle, ce qui est révolutionnaire sur le papier. Le problème, c’est l’écart entre cette promesse théorique et les réalisations expérimentales actuelles, écart que certains chercheurs tentent de masquer avec ces benchmarks discutables.

L’ironie, c’est que ce sont souvent les médias et les départements marketing, plus que les chercheurs sérieux eux-mêmes, qui promettent de “casser RSA demain”. Aucun chercheur raisonnable ne prétend aujourd’hui pouvoir briser les chiffrements actuels avec les machines quantiques existantes. Mais ces nuances se perdent dans la course au sensationnalisme et aux financements.

Donc peut-être qu’avant que les médias ne promettent une destruction de la cryptographie, il serait bon de communiquer plus honnêtement sur l’état réel de la recherche : prometteuse sur le long terme, mais encore très expérimentale et limitée aujourd’hui. Et surtout, cesser ces pratiques de benchmarking douteux qui ne font que nuire à la crédibilité du domaine.

Un grand merci à David pour l’info, et à Kim pour ses précisions constructives qui m’ont permis d’affiner cet article.

❌
❌