- Explication de l’impression d’absence de progrès depuis la factorisation de 15 par un ordinateur quantique en 2001
- Un circuit pour factoriser 21 nécessite 100 fois plus de portes d’intrication que pour factoriser 15
- Cet écart s’explique par la complexité de la multiplication modulaire conditionnelle et par des optimisations particulières qui ne s’appliquent qu’à 15
- La correction d’erreurs quantiques et les limites matérielles relèvent encore davantage la barrière vers la factorisation de 21
- La plupart des factorisations de 21 rapportées jusqu’ici reposent surtout sur des astuces, sans effectuer de véritable multiplication au sens strict
Pourquoi les ordinateurs quantiques n’ont-ils toujours pas réussi à factoriser 21 ?
Pourquoi la factorisation de 21 n’est pas apparue après celle de 15
- En 2001, une expérience de factorisation de 15 avec un ordinateur quantique a eu lieu
- En 2025, il n’existe toujours pas de cas réussi de factorisation de 21
- Ce point alimente l’idée selon laquelle l’informatique quantique n’aurait connu aucun progrès
- Pourtant, lorsqu’on compare les circuits de factorisation de 15 et de 21, il existe une raison bien plus surprenante
Différences structurelles entre les circuits de factorisation de 15 et de 21
- Le circuit de factorisation de 15 se réalise avec seulement 21 portes quantiques (21 portes d’intrication)
- 6 portes d’intrication qubit-à-qubit (portes CNOT et CPHASE) et
- 2 portes Toffoli (chacune décomposée en 6 portes d’intrication), soit un total de 21 portes d’intrication
- Le circuit de factorisation de 21 requiert 191 CNOT, 369 Toffoli, soit 2405 portes d’intrication au total
- Cela représente une charge de portes d’intrication 115 fois supérieure à celle de la factorisation de 15
- La taille du circuit n’augmente pas simplement de 25 % ou d’un facteur 2, elle devient plus de 100 fois plus coûteuse
- Même en tenant compte du niveau d’optimisation des circuits, un écart allant jusqu’à 500 fois paraît réaliste
Pourquoi un tel écart apparaît-il ?
- Dans les circuits quantiques de factorisation (algorithme de Shor), le coût dominant provient de la multiplication modulaire conditionnelle
- Pour un nombre N sur n bits, il faut effectuer à plusieurs reprises des multiplications modulaires conditionnelles sur un accumulateur
- Dans le cas de 15, parmi 8 multiplications conditionnelles, 6 peuvent être traitées comme des multiplications par 1 (donc sans véritable opération)
- La première multiplication peut être implémentée de façon quasi gratuite car l’entrée vaut 1
- La deuxième (la seule autre restante) peut aussi être traitée à faible coût avec deux CSWAP
- Au final, il ne faut réellement payer le coût que de 2 opérations
- Cette structure est une propriété particulière de 15 : beaucoup de multiplications sont proches de 1, ce qui réduit fortement la charge
- En revanche, pour 21, les multiplications ne valent pas 1 et prennent diverses valeurs, donc chacune a un coût
- Les 8 multiplications ont toutes un coût : l’augmentation n’est pas seulement de 4 à 5 fois, mais de 20 à 100 fois
- Des multiplications par 4 ou 16, par exemple, ne peuvent pas être implémentées avec une structure de type CSWAP (swap conditionnel)
- La complexité varie selon chaque multiplication et l’optimisation n’est pas simple
Limites concrètes du matériel et de la correction d’erreurs
- La factorisation de 15 réalisée autrefois (en 2001) l’a été sur un ordinateur quantique NMR, avec de fortes limites de passage à l’échelle
- Plus encore, la nécessité de la correction d’erreurs quantiques devient plus pressante
- Si le nombre de portes augmente d’un facteur 100, le taux d’erreur doit être 100 fois plus faible
- En pratique, il peut aussi être nécessaire d’augmenter le nombre de qubits d’un facteur 100, ce qui fait grimper le coût total jusqu’à 10 000 fois
Polémiques autour des tentatives de factorisation et résultats erronés
- Quelques articles récents affirment avoir réussi à factoriser 21 avec un ordinateur quantique, mais
- dans les faits, ils omettent souvent l’étape de multiplication de l’algorithme ou simplifient le circuit en connaissant le résultat à l’avance
- sans véritable opération de multiplication, on ne peut pas considérer cela comme une factorisation
- ce sont des résultats superficiels qui ignorent la différence fondamentale entre une simple « recherche de période » et la factorisation elle-même
- Certains articles utilisent même des astuces de façon flagrante, au point que des papiers satiriques ont été publiés en réponse
- il existe notamment divers papiers satiriques, comme des expériences reproduisant des records de champion de factorisation
- on voit aussi continuer à apparaître des benchmarks comme le variational factoring, sans justification sérieuse quant au passage à l’échelle
Quel est alors le bon indicateur des progrès en informatique quantique ?
- À ce stade, la factorisation n’est pas le principal benchmark des progrès en informatique quantique
- au-delà de 15, l’explosion des coûts rend la validation pratique difficile
- Des éléments comme l’introduction de la correction d’erreurs quantiques (par exemple l’amélioration des surface codes), ou
- des changements d’architecture matérielle permettant de résoudre les problèmes de passage à l’échelle (par exemple le remplacement continu d’atomes neutres),
- constituent plutôt des points d’observation bien plus importants pour mesurer des progrès réels
1 commentaires
Avis Hacker News
Cela vient du fait qu’on n’avait encore jamais factorisé en pratique un nombre plus petit. Si l’exécution du programme suppose que le compilateur connaît déjà la réponse, alors ce n’est pas une vraie factorisation, mais simplement « afficher 3 »
Je me demande combien de quantum gates sont réellement nécessaires pour factoriser un nombre ayant un intérêt cryptographique. J’aimerais aussi savoir s’il existe une trajectoire concrète vers des ordinateurs quantiques utilisables au cours de ce siècle
L’article « Replication of Quantum Factorisation Records with an 8-bit Home Computer, an Abacus, and a Dog » est intéressant (lire l’article)
Je m’intéresse à la taille des circuits et à la faisabilité de la factorisation de nombres cryptographiquement significatifs comme RSA1024
Je me demande si un jour un ordinateur quantique pourrait s’attaquer au RSA post-quantum (article lié). Certains estiment qu’il suffit d’utiliser des clés suffisamment grandes, car les opérations RSA classiques (génération de clé, chiffrement, déchiffrement) sont asymétriquement favorables face à l’algorithme de Shor. Cela produit un effet proche des puzzles de Merkle, avec la condition supplémentaire que l’attaquant doit nécessairement recourir à un ordinateur quantique. J’ai déjà généré une clé publique RSA de taille gigabit (fichier de clé). Le format est : 4 octets little-endian pour la taille de la clé en octets, puis la clé, puis son inverse (modulo 256^bytes). L’exposant public est 3
La faute de frappe « error corection » m’a bien fait rire
J’ai du mal à comprendre le passage sur un « coût de circuit 500 fois supérieur à factorisation-15 ». L’auteur a déjà présenté un cas à 115×, donc je me demande comment des optimisations supplémentaires peuvent aboutir à un résultat pire
Je me demande si l’idée principale de ce billet suggère que les besoins en circuits, en Big-O, pour la factorisation de Schorr sont superpolynomiaux
La raison de l’adoption des technologies cryptographiques PQ (post-quantiques) n’est pas forcément la certitude qu’un QC arrivera bientôt. On ne sait pas quand un QC apparaîtra, car cela dépend du rythme du progrès technique. Le but de la cryptographie est de trouver des méthodes qui soient, en théorie aussi, quasiment incassables. Si une attaque est théoriquement possible, alors elle peut aussi l’être physiquement, donc il faut s’y préparer. Pour ECC et RSA, une voie théorique d’attaque a déjà été identifiée ; même sans machine réelle, on considère donc qu’une attaque est possible. Il est donc tout à fait raisonnable de se préparer à l’avance, avant l’arrivée des QC. En revanche, pour SHA2, AES, ChaCha, etc., on ne voit pas de voie d’attaque réaliste, donc il n’y a pas de plan de remplacement immédiat. Le chiffrement n’est pas la seule application, ni forcément la plus importante, des QC. On espère encore des avancées inconnues dans des domaines variés comme les systèmes physiques, le repliement des protéines ou le machine learning