Google Quantum AI a dévoilé Willow, une puce quantique révolutionnaire qui représente une avancée majeure dans la course à l’informatique quantique. Ce processeur de 105 qubits a accompli l’impossible : résoudre en moins de cinq minutes un calcul qui nécessiterait 10 septillions d’années aux superordinateurs les plus puissants du monde. Qu’est-ce qui rend Willow si exceptionnelle ? Comment fonctionne la correction d’erreurs quantiques ? Quelles applications concrètes peut-on envisager ? Décryptage d’une percée technologique historique.
- Qu’est-ce que Willow et pourquoi cette annonce est-elle historique ?
- La correction d’erreurs quantiques : le Saint Graal enfin atteint
- Le défi historique de la stabilité des qubits
- Willow franchit le seuil critique
- Correction en temps réel : une première
- Les spécifications techniques de la puce Willow
- Le benchmark RCS : mesurer la suprématie quantique
- Les applications futures de l’informatique quantique
- Découverte de médicaments et chimie moléculaire
- Conception de batteries et matériaux
- Énergie de fusion et défis climatiques
- Intelligence artificielle et apprentissage automatique
- Les limites actuelles et perspectives
- Un prototype de recherche, pas encore commercial
- La question cryptographique
- Feuille de route vers l’ordinateur quantique utile
- Google face à la concurrence quantique
- Ce qu’il faut retenir de Willow
La puce quantique Willow de Google Quantum AI – Source : Google
Qu’est-ce que Willow et pourquoi cette annonce est-elle historique ?
Willow est le nouveau processeur quantique développé par Google Quantum AI, l’équipe fondée par Hartmut Neven en 2012 avec l’ambition de construire un ordinateur quantique utile à grande échelle. Cette puce supraconductrice embarque 105 qubits et succède au processeur Sycamore qui avait fait sensation en 2019.
L’annonce de Willow marque deux accomplissements majeurs simultanés. Premièrement, le processeur a démontré une capacité à réduire exponentiellement les erreurs à mesure que le nombre de qubits augmente, un défi que les chercheurs tentaient de relever depuis près de 30 ans. Deuxièmement, Willow a exécuté un benchmark de référence en moins de cinq minutes alors que le superordinateur Frontier, l’un des plus rapides au monde, nécessiterait 10^25 années pour accomplir la même tâche.
Pour mettre ce chiffre en perspective : 10 septillions d’années (soit un 1 suivi de 25 zéros) dépasse considérablement l’âge de l’univers, estimé à environ 13,8 milliards d’années. Cette démonstration spectaculaire témoigne du potentiel des systèmes quantiques à accomplir des opérations fondamentalement inaccessibles à l’informatique classique.
La correction d’erreurs quantiques : le Saint Graal enfin atteint
Le défi historique de la stabilité des qubits
Les qubits, unités fondamentales de l’informatique quantique, présentent une caractéristique problématique : ils échangent rapidement des informations avec leur environnement, compromettant les calculs en cours. Traditionnellement, augmenter le nombre de qubits amplifiait proportionnellement les erreurs, rendant le système inutilisable.
La correction d’erreurs quantiques (QEC) vise à protéger l’information quantique de ces perturbations. Le concept, introduit par Peter Shor en 1995, repose sur le regroupement de plusieurs qubits physiques pour former un « qubit logique » plus robuste. Cependant, démontrer que cette approche fonctionne effectivement en pratique restait un défi majeur.
Willow franchit le seuil critique
L’équipe de Google a testé des configurations croissantes de qubits : des grilles de 3×3, puis 5×5, et enfin 7×7 qubits encodés. À chaque augmentation d’échelle, le taux d’erreur a été réduit de moitié. Cette réduction exponentielle des erreurs avec l’augmentation du nombre de qubits constitue la démonstration du passage « sous le seuil », un accomplissement historique dans le domaine.
Michael Newman, chercheur chez Google, explique l’importance de cette avancée : les regroupements de qubits en codes de surface permettent désormais de supprimer les erreurs de manière exponentiellement rapide à mesure que le système s’agrandit. Les équipes ont atteint un taux d’erreur d’environ 0,14% par cycle, une amélioration majeure par rapport aux générations précédentes.
Correction en temps réel : une première
Willow représente également l’un des premiers exemples convaincants de correction d’erreurs en temps réel sur un système quantique supraconducteur. Cette capacité s’avère cruciale pour toute application pratique : si les erreurs ne peuvent être corrigées assez rapidement, elles ruinent le calcul avant son achèvement.
La démonstration « au-delà du seuil de rentabilité » prouve que les groupements de qubits possèdent une durée de vie supérieure aux qubits physiques individuels, signe indiscutable que la correction d’erreurs améliore globalement le système.
Les spécifications techniques de la puce Willow
Architecture et performances
Willow embarque 105 qubits supraconducteurs de type transmon, arrangés en grille carrée. La puce a été fabriquée dans les installations ultramodernes de Google à Santa Barbara, l’une des rares usines au monde construites spécifiquement pour la production de processeurs quantiques.
Le temps de cohérence T1 des qubits, mesurant la durée pendant laquelle un qubit peut retenir une excitation, approche désormais 100 microsecondes. Cette performance représente une amélioration d’un facteur 5 par rapport à la génération précédente Sycamore.
Améliorations par rapport à Sycamore
| Caractéristique | Sycamore (2019) | Willow (2024) |
|---|---|---|
| Nombre de qubits | 72 | 105 |
| Temps de cohérence | ~20 µs | ~100 µs |
| Correction d’erreurs | Non démontré sous seuil | Sous seuil atteint |
| Benchmark RCS | 10 000 ans classiques | 10^25 années classiques |
L’équipe de Julian Kelly, directeur du matériel quantique chez Google, souligne que toutes les composantes du système doivent fonctionner simultanément de manière optimale. Les améliorations concernent autant la fabrication que l’optimisation des paramètres de circuit et l’ingénierie du ratio de participation.
Le benchmark RCS : mesurer la suprématie quantique
Qu’est-ce que l’échantillonnage de circuits aléatoires ?
Le Random Circuit Sampling (RCS) constitue le benchmark de référence pour évaluer les performances quantiques. Pionnier par l’équipe Google et désormais standard dans le domaine, ce test représente la tâche la plus difficile à simuler classiquement qu’un ordinateur quantique puisse exécuter.
Ce benchmark vérifie si un ordinateur quantique accomplit véritablement quelque chose d’impossible pour un ordinateur classique. Toute équipe développant un processeur quantique devrait d’abord valider sa capacité à surpasser les machines classiques sur ce test avant de prétendre pouvoir résoudre des problèmes quantiques plus complexes.
Les résultats de Willow en contexte
La performance de Willow sur ce benchmark dépasse toutes les attentes. Le calcul exécuté en moins de cinq minutes nécessiterait au superordinateur Frontier environ 10^25 années, même en lui accordant des conditions idéales impossibles en pratique, comme un accès illimité à la mémoire sans aucune latence de bande passante.
Google avait utilisé ce même benchmark pour annoncer ses résultats avec Sycamore en octobre 2019, puis à nouveau en octobre 2024. L’écart croissant entre les capacités quantiques et classiques suit une progression doublement exponentielle, laissant présager que les processeurs quantiques continueront à distancer leurs homologues classiques.
Les applications futures de l’informatique quantique
Découverte de médicaments et chimie moléculaire
Les simulations moléculaires représentent l’une des applications les plus prometteuses de l’informatique quantique. Les systèmes quantiques peuvent simuler les interactions atomiques avec une fidélité impossible à atteindre par les ordinateurs classiques, accélérant la découverte de nouveaux médicaments et la compréhension des réactions chimiques complexes.
Conception de batteries et matériaux
L’optimisation des batteries pour véhicules électriques et la découverte de nouveaux matériaux bénéficieraient considérablement des capacités de simulation quantique. Les chercheurs pourraient explorer des configurations atomiques impossibles à tester expérimentalement, identifiant plus rapidement les solutions optimales.
Énergie de fusion et défis climatiques
Hartmut Neven évoque la résolution de problèmes actuellement insolubles comme l’optimisation de la fusion nucléaire ou la lutte contre le changement climatique. Ces applications nécessiteront des ordinateurs quantiques bien plus puissants que Willow, mais les avancées actuelles tracent le chemin vers ces objectifs.
Intelligence artificielle et apprentissage automatique
L’intelligence artificielle pourrait significativement bénéficier de l’informatique quantique pour l’entraînement de certaines architectures d’apprentissage, la collecte de données d’entraînement inaccessibles aux machines classiques et la modélisation de systèmes où les effets quantiques jouent un rôle important.
Les limites actuelles et perspectives
Un prototype de recherche, pas encore commercial
Malgré ces avancées impressionnantes, Willow reste un prototype de recherche dans l’ère NISQ (Noisy Intermediate-Scale Quantum). Les taux d’erreur logique rapportés, bien qu’impressionnants, demeurent plusieurs ordres de grandeur au-dessus des niveaux 10^-6 jugés nécessaires pour exécuter des algorithmes quantiques utiles à grande échelle.
Les démonstrations se sont jusqu’ici limitées à la mémoire quantique et à la préservation des qubits logiques, sans encore montrer de performances sous le seuil pour les opérations de portes logiques requises pour le calcul tolérant aux fautes.
La question cryptographique
L’annonce de Willow a ravivé les inquiétudes concernant la sécurité des cryptomonnaies et des systèmes de chiffrement actuels. Cependant, Google précise que Willow reste incapable de casser la cryptographie moderne. Les experts estiment qu’un ordinateur quantique possédant cette capacité reste à 5, 10, voire 15 ans de concrétisation.
Le NIST (National Institute of Standards and Technology) a déjà publié plusieurs algorithmes « quantum-safe » résistants aux attaques des futurs ordinateurs quantiques, et un calendrier de déploiement est en cours d’élaboration pour les gouvernements et les entreprises.
Feuille de route vers l’ordinateur quantique utile
Google a publié une feuille de route détaillée en 2020, et l’entreprise affirme respecter le calendrier établi. Le prochain jalon majeur, baptisé « Milestone 6 », prévoit l’arrivée de machines quantiques à grande échelle vers la fin de la décennie.
L’objectif intermédiaire consiste à démontrer un premier calcul « utile et au-delà du classique » : une tâche simultanément hors de portée des ordinateurs classiques ET présentant une utilité pour des applications concrètes et commercialement pertinentes.
Google face à la concurrence quantique
Google n’est pas seul dans la course à l’informatique quantique. IBM développe également des systèmes supraconducteurs, bien que ses qubits présentent des temps de vie inférieurs à ceux de Willow. Microsoft et Quantinuum ont annoncé en septembre 2024 des résultats prometteurs utilisant des qubits piégés par laser, avec 12 qubits logiques affichant un taux d’erreur de deux pour mille.
La compétition stimule l’innovation dans l’ensemble du secteur. Les investissements privés et publics dans le domaine quantique ont totalisé environ 20 milliards de dollars dans le monde au cours des cinq dernières années, témoignant de l’importance stratégique accordée à cette technologie.
Ce qu’il faut retenir de Willow
La puce quantique Willow de Google représente une avancée significative vers l’informatique quantique pratique. La démonstration de la correction d’erreurs sous le seuil critique prouve que les systèmes quantiques peuvent effectivement s’améliorer en s’agrandissant, un prérequis fondamental pour construire des machines utiles.
Cependant, les applications commerciales concrètes restent à plusieurs années de distance. Willow constitue une preuve de concept majeure, mais des améliorations substantielles du matériel et des architectures de qubits beaucoup plus grandes seront nécessaires avant de pouvoir résoudre des problèmes industriellement pertinents.
Pour Hartmut Neven, le choix de quitter le domaine naissant de l’IA pour se consacrer à l’informatique quantique reste justifié : les deux technologies seront les plus transformatrices de notre époque, et l’IA avancée bénéficiera significativement de l’accès au calcul quantique. C’est pourquoi le laboratoire porte le nom de « Quantum AI ».
Sources : Google Blog – Meet Willow | Scientific American | HPCwire

