« L’intelligence artificielle est essentielle pour rendre l’informatique quantique viable », a affirmé Jensen Huang, fondateur et PDG de Nvidia, lors de l’annonce de la nouvelle famille de modèles d’IA Ising. Ces outils, conçus pour optimiser la calibration et la correction d’erreurs quantiques, pourraient lever l’un des principaux freins au développement des ordinateurs quantiques.

Ce qu'il faut retenir

  • Ising Calibration et Ising Decoding : deux modèles open source développés par Nvidia pour améliorer le fonctionnement des ordinateurs quantiques.
  • Ising Calibration accélère la calibration des qubits, passant de plusieurs jours à quelques heures grâce à une automatisation pilotée par IA.
  • Ising Decoding propose deux variantes de correction d’erreurs quantiques, 2,5 fois plus rapides et trois fois plus précises que la meilleure solution actuelle, pyMatching.
  • Ces modèles sont déjà adoptés par des institutions comme Harvard, Oxford ou le Fermilab, ainsi que par des entreprises comme IQM et IonQ.
  • Nvidia mise sur l’open source pour favoriser l’adoption et l’adaptation de ses outils à différentes architectures quantiques.

Des outils open source pour répondre aux défis de l’informatique quantique

D’après Futura Sciences, Nvidia franchit une étape majeure en proposant deux modèles d’IA conçus spécifiquement pour l’informatique quantique. Ising Calibration et Ising Decoding s’attaquent à deux verrous technologiques majeurs : la calibration des qubits et la correction en temps réel des erreurs quantiques. Ces outils, disponibles en open source, pourraient accélérer significativement la viabilité des ordinateurs quantiques, encore limités par des contraintes techniques et des temps de calibration excessifs.

Le premier modèle, Ising Calibration, repose sur une approche de type vision-language model (VLM). Il permet d’interpréter les mesures des processeurs quantiques et d’automatiser leur calibration, réduisant un processus qui prend actuellement plusieurs jours à seulement quelques heures. Une avancée majeure pour les chercheurs, qui pourront ainsi consacrer plus de temps à l’innovation plutôt qu’à des réglages fastidieux.

Corriger les erreurs quantiques en temps réel, un enjeu crucial

Le second modèle, Ising Decoding, se concentre sur la correction des erreurs, un défi persistant dans l’informatique quantique. Les qubits, extrêmement sensibles aux perturbations extérieures, génèrent des erreurs lors de toute interaction. Pour y remédier, Nvidia propose deux variantes de réseaux de neurones convolutifs 3D : l’une optimisée pour la vitesse, l’autre pour la précision.

Selon les tests menés, ces modèles atteignent une performance 2,5 fois supérieure en rapidité et trois fois supérieure en précision par rapport à l’outil de référence actuel, pyMatching. Une amélioration significative qui pourrait propulser les ordinateurs quantiques vers une nouvelle ère de fiabilité. Plusieurs acteurs du secteur, dont des universités prestigieuses et des entreprises spécialisées, ont déjà adopté ces outils, signe de leur potentiel.

Une stratégie open source pour s’imposer comme un acteur clé

Nvidia mise sur la licence open source pour maximiser l’adoption de ses modèles. Dans un domaine où il n’existe pas encore de standard universel pour la construction des processeurs quantiques, la flexibilité est un atout. Nic Harrigan, chercheur chez Nvidia, souligne que ces outils permettent aux développeurs d’adapter les modèles à leurs architectures spécifiques. « L’IA et les ordinateurs quantiques sont complémentaires », a-t-il déclaré. « L’IA peut aider les chercheurs à trouver de nouvelles applications pour cette technologie, tandis que les ordinateurs quantiques pourraient générer des données utiles pour entraîner des IA. »

Les modèles sont accessibles en téléchargement depuis le site de Nvidia, ainsi que sur les plateformes GitHub et Hugging Face. Une démarche qui s’inscrit dans la volonté de Nvidia de démocratiser l’accès à l’informatique quantique, tout en renforçant son influence dans ce secteur en pleine expansion.

Un contexte concurrentiel marqué par l’évolution rapide de Nvidia

Initialement connu pour ses cartes graphiques dédiées aux jeux vidéo et à la 3D, Nvidia a su se diversifier vers des marchés scientifiques et industriels. Ses puces, capables de calcul parallèle, ont conquis le secteur des serveurs et des supercalculateurs, avant d’être adaptées à l’intelligence artificielle. En 2025, la firme a lancé Isaac GR00T N1, un modèle d’IA dédié à la robotique, démontrant sa capacité à innover dans des domaines variés.

Avec l’annonce d’Ising, Nvidia confirme sa volonté de jouer un rôle central dans l’informatique quantique. Jensen Huang insiste sur l’importance de l’IA pour rendre cette technologie « viable », un argument qui s’appuie sur les progrès constants de l’entreprise en matière de calcul haute performance et d’apprentissage automatique. Cette stratégie s’inscrit dans un contexte où la course aux ordinateurs quantiques s’intensifie, avec des acteurs comme IBM, Google ou encore les start-up spécialisées qui investissent massivement dans la recherche.

Et maintenant ?

L’adoption d’Ising par des institutions et entreprises pourrait accélérer les avancées dans le domaine quantique d’ici 12 à 18 mois. Plusieurs projets pilotes, notamment dans la chimie quantique et l’optimisation industrielle, pourraient bénéficier de ces outils. Reste à voir si Nvidia parviendra à imposer ses standards dans un écosystème encore fragmenté, où chaque acteur développe ses propres solutions.

Quant aux prochaines étapes, Nvidia devrait étoffer sa gamme d’outils dédiés à l’informatique quantique, tout en continuant à promouvoir l’open source comme levier d’innovation. Jensen Huang a d’ores et déjà évoqué la possibilité d’étendre ces modèles à d’autres domaines scientifiques, confirmant l’ambition de l’entreprise de rester à la pointe de la révolution technologique.

La calibration des qubits est un processus complexe car elle nécessite de compenser les perturbations externes et les imperfections des processeurs quantiques. Chaque qubit doit être réglé avec une extrême précision pour fonctionner correctement, ce qui prend actuellement plusieurs jours pour des prototypes contenant moins d’un millier de qubits.

Ising Decoding propose deux variantes de réseaux de neurones convolutifs 3D : l’une optimisée pour la vitesse, l’autre pour la précision. Ensemble, elles offrent une performance 2,5 fois supérieure en rapidité et trois fois supérieure en précision par rapport à l’outil de référence actuel, pyMatching.