Decode Quantum avec Valentin Savin du CEA-Leti

Publié le 2 mai 2024 - Commenter -
PDF Afficher une version imprimable de cet article
  

Dans le 70e épisode des entretiens Decode Quantum, Fanny Bouton et moi-même sommes avec Valentin Savin du CEA-Leti, pour parler du sujet de la correction d’erreurs. Cet entretien est aussi diffusé par Frenchweb.

Valentin Savin a un master en mathématiques de l’ENS Lyon et de l’Université Joseph Fourier de Grenoble, puis a réalisé une thèse de doctorat dans cette même université en 2001. Entre 2002 et 2004, il était post-doc à l’Institut de Mathématiques de l’académie roumaine. Depuis 2005, il est au CEA-LETI à Grenoble, d’abord comme post-doc puis comme chercheur. Ses recherches portent sur les codes de correction d’erreurs classiques et quantiques, à la fois pour les communications, pour le stockage de données et pour le calcul. Il copilote de nombreux projets de recherche collaborative européens dans le domaine, notamment pour créer des systèmes quantiques à tolérance de pannes.

Ses débuts dans le quantique ont démarré assez tardivement. Il a commencé à travailler dans le domaine des codes de correction d’erreur classiques en 2005, notamment dans les télécoms et s’est intéressé aux codes quantiques en 2017 suite à une rencontre avec Maud Vinet, à l’époque également au CEA-LETI. Il fallait comprendre comment faire de la correction d’erreurs quantique. Il a tout de suite apprécié le formalisme mathématique associé. Il avait lancé une thèse sur le sujet sur des codes polaires quantiques puis s’est intéressé à d’autres aspects, en lien avec la tolérance aux fautes.

Sa thèse Propriétés de bidualité des espaces de modules en terme de cohomologie de groupes, 2001, a été soutenue à Université Joseph Fourier à Grenoble. Elle portait sur la géométrie complexe et algébrique. Il s’intéressait à des espaces classifiables par des invariants continus, liée à la notion d’espaces de modules. Cela n’avait pas de liens évidents avec les codes de correction d’erreurs classiques. Dans les années 1990, des constructions de correction d’erreur classiques à base de géométrie algébrique qui avaient un bon rendement pouvaient être envisagées. Cela faisait principalement suite aux travaux de Tsfasman, Vlăduţ et Zink qui ont permis de construire pour la première fois des familles de codes dépassant la borne de Gilbert-Varshamov. Il avait envie de regarder les choses de manière plus appliquée.

Les codes de correction d’erreur sont partout dans le numérique classique, notamment pour corriger les transmissions à faible rapport signal à bruit, qui nécessitent de la redondance dans la communication. Grâce aux travaux de Claude Shannon, on sait caractériser le niveau de redondance minimal permettant de communiquer de manière fiable sur un canal bruité. C’est ce qu’on appelle la capacité du canal, ou encore la limite de Shannon. Au début des années 2000, il restait beaucoup à faire, concernant entre autres la construction de familles de codes capables d’atteindre ou approcher cette limite théorique. Si les constructions dites « algébriques » (codes BCH, codes de Reed-Solomon, code de Goppa), cherchaient avant tout à optimiser la distance minimale du code, cherchant ensuite une algorithme de décodage efficace, les années 1990 voient apparaitre une nouvelle famille de codes, dont le mérite consistait particulièrement dans la façon de les décoder, plutôt que dans leurs propriétés en termes de distance minimale. Il s’agit des turbo codes inventés en France par Claude Berrou et Alain Glavieux, qui pouvaient faire bien mieux que l’existant, en utilisant un système de décodage ingénieux, avec un décodage itératif qui fonctionnait bien. Cela a aussi permis à la communauté de se rappeler les travaux plus anciens de Robert G. Gallager, qui avait proposé dès 1962 des codes LDPC classiques, également décodables par du décodage itératif.

Au début des année 2000, des travaux de Richardson, Shokrollahi et Urbanke ont permis de montrer que la construction de ces codes pouvait être optimisée, de façon à approcher de très près la limite théorique de Shannon pour une large gamme de canaux.  Ils ont intégré depuis un bon nombre de standards de télécommunication et ont remplacé petit à petit les turbo codes qui dominaient.

Pour la fiabilisation des mémoires ou systèmes de stockage, le principe de la correction d’erreur est similaire à celui de la transmission des données, avec toutefois des modèles de canaux et des contraintes spécifiques. On pourra retrouver des mécanismes de correction d’erreurs à base de codes LDPC, notamment dans les mémoires non-volatiles. Pour la partie de calcul classique, c’est différent. Si la fiabilisation du calcul à travers des mécanismes de correction d’erreur était effectivement envisagée au début du calcul classique, la très grande fiabilité de la technologie CMOS, qui s’est imposée à partir des années 1980, a rendu inutile leur utilisation. La question s’est néanmoins reposée au début des années 2010 avec l’augmentation très forte de la densité d’intégration, et la fin pressentie de la loi de Moore (projet i-RISC, 2013-2016). Le niveau de redondance acceptable est relativement faible, à la différence du calcul quantique, car dans le cas classique on dispose déjà d’une technologie fiable. Ainsi, réduire la taille des transistors à une échelle où ils perdraient de leur fiabilité, pour ensuite ajouter la redondance nécessaire à la correction d’erreur, doit être mis en balance contre un nÅ“ud technologique moins réduit, mais fiable. Une question intéressante est celle de la tolérance aux fautes des décodeurs eux-mêmes.

Valentin explique la différence entre la correction d’erreurs en informatique classique et en informatique quantique. Le problème du décodage quantique est souvent ramené à du décodage classique. La formalisation par les codes stabilisateurs qui permet d’établir des liens avec les codes classiques non binaires. Les codes CSS avec deux codes classiques binaires utilisés pour le décodage des erreurs X (bit flip) et Z (phase flip). Ce qui est intrinsèquement quantique est l’extraction du syndrome d’erreur, que l’on décode ensuite pour identifier l’erreur qui s’est produite. Ce décodage est toujours classique, puis une correction quantique est appliquée aux qubits via une boucle de rétroaction.

On évoque l’historique des codes de correction d’erreur avec le papier fondateur de Peter Shor en 1996, le Steane code avec 5 qubits, l’introduction des codes stabilisateur par Gottesman, puis le code torique de de Kitaev et sa version code de surface. La plupart des développements ont été réalisés par des physiciens, alors que les codes classiques sont venus des mathématiques.

Les chercheurs se sont alors intéressés aux codes LDPC quantiques, ou qLDPC, mais pour des raisons différentes du classique. Dans le classique, l’intérêt principal des codes LDPC vient de la manière dont ils sont décodés. La “sparsité” de la matrice de parité (creuse) permet de mettre en place des algorithmes de décodage itératifs par passage de message, qui sont non seulement capables de fournir une excellente capacité de correction, mais sont aussi très bien adaptés aux implémentations matérielles, d’où leur succès. Dans le quantique, l’intérêt principal des codes LDPC réside dans le fait que l’extraction du syndrome d’erreur nécessite de faire parler entre eux qu’un faible nombre de qubits. Cela génère une faible propagation d’erreurs et implique que l’extraction du syndrome peut être faite de manière tolérante aux fautes. Par contre le décodage des codes qLDPC, c’est-à-dire, l’algorithme de décodage classique qui consiste à déterminer l’erreur qui s’est produite à partir du syndrome extrait, est plus difficile qu’en classique. Cela est dû au problème de dégénérescence des codes qLDPC, qui rend les algorithmes par passage de message inefficaces, nécessitant l’ajout de techniques de post-traitement (e.g., stabilizer inactivation). Ce problème n’est pas anodin, car au-delà d’être précis (identifier correctement l’erreur qui s’est produite), le décodeur doit répondre à des contraintes spécifiques du système quantique, comme la latence ou la consommation de puissance, et peu de techniques utilisées actuellement pour le post-traitement sont compatibles avec ces contraintes (e.g., check-agnosia). La classe des qLDPC est très large, elle comprend en particulier les constructions topologiques (e.g., codes de surface, codes couleurs) et dans une certaine mesure d’autres familles de codes, comme les Bacon-Shor.

Une autre famille de codes très intéressants sont les codes polaires. Ils atteignent la capacité « one-shot » de tout canal quantique (purely quantum polar codes) et, à la différence des codes qLDPC, sont équipés d’un algorithme de décodage efficace, hérité de leurs homologues classiques. Par contre la préparation tolérante aux fautes de ces codes est plus difficile, avec néanmoins des avancées récentes pour les codes polaires encodant un qubit logique (e.g., Q1-codes, factory-based preparation).

Le code de surface s’est imposé par la connectivité requise, dite du « plus proche voisin ». Les codes qLDPC (ou polaires) ont besoin d’interactions longue distance entre les qubits, mais ils deviennent intéressants grâce au fait qu’ils sont capable d’encoder plus de qubits logiques ou qu’ils possèdent une capacité de correction supérieure à celle du code de surface. IBM prévoit d’utiliser une version de codes LDPC définis via des graphes bi-planaires dans les qubits supraconducteur, afin de contourner le problème de connectivité à distance. Dans les atomes neutres, on peut envisager le déplacement des qubits, comme l’a montré récemment Mikhail Lukin à Harvard.

Du côté des performances, on recherche des codes avec une profondeur constante du circuit quantique d’extraction du syndrome d’erreur. C’est le cas des codes de surface et qLDPC. Le décodage se fait sur une fenêtre temporelle de syndromes, afin de garantir la tolérance aux fautes pendant l’extraction du syndrome. La distance minimale du code est de l’ordre de grandeur de la racine carrée du nombre de qubits pour le code de surface, mais elle peut atteindre le même ordre de grandeur que le nombre de qubits pour les qLDPC (e.g., quantum Tanner codes). Nous évoquons la notion de longueur du code, liée au nombre de qubits physiques pour encoder un qubit logique. N qubits physiques peuvent encoder plusieurs qubits logiques K. N/K est un indicateur de la redondance.

Le décodage des syndromes d’erreurs demande un algorithme classique qui est complexe. Le temps est limité pour le faire, qui correspond au temps nécessaire pour faire l’extraction du syndrome, soit quelques centaines de ns en général. On a besoin de parallélisme et d’algorithmes en complexité linéaire et pas polynomiale.

Comment corrige-t-on les erreurs corrélées ? Il y a relativement peu de choses qui sont faites au niveau de la correction d’erreur (des modèles de corrélation sont sortis récemment), moins que ce qui est fait pour les modèles de bruit biaisé. Les erreurs corrélées avec des qubits voisins sont liées au contrôle et au crosstalk et pas seulement aux rayons cosmiques.

L’objet de ses recherches au CEA-Leti et leur lien avec l’écosystème du calcul quantique français. Au Leti, les qubits de spin de silicium y sont développés depuis plusieurs années. Il a un lien avec la startup Quobly via des projets collaboratifs et avec le CNRS et UGA. Et aussi au niveau national via le PEPR quantique, avec les projets NISQ2LSQ (coordonné par Anthony Leverrier d’Inria) et PRESQUILE (en lien avec la technologie des qubits silicium CMOS). Au niveau européen, le projet Quantera EQUIP coordonné par Valentin regarde ces problématiques en s’intéressant au décodage temps-réel ainsi qu’à la mitigation d’erreurs. L’écosystème français de la correction d’erreurs comprend aussi des équipes à Bordeaux ainsi que Christophe Vuillot d’Inria Nancy, ou encore Omar Fawzi d’Inria Lyon.

Voilà pour cet épisode. Dans le suivant, nous accueillons Jan Goetz, le CEO d’IQM !

RRR

 
S
S
S
S
S
S
S
img
img
img

Publié le 2 mai 2024 Post de | Quantique | 1555 lectures

PDF Afficher une version imprimable de cet article     

Reçevez par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img


Ajouter un commentaire

Vous pouvez utiliser ces tags dans vos commentaires :<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> , sachant qu'une prévisualisation de votre commentaire est disponible en bas de page après le captcha.

Last posts / derniers articles

Free downloads

Understanding Quantum Technologies 2024, a free 1,542 pages ebook about all quantum technologies (computing, telecommunications, cryptography, sensing):

image

Free downloads

Understanding Quantum Technologies 2024 Short version, a 26 pages with key takeaways from the eponymous book.

image

Voir aussi la liste complète des publications de ce blog.

Derniers commentaires

“Bravo Olivier! Quel boulot tu m’épates totalement et je t’adresse mes plus sincères félicitations! Je ne suis pas sûr de tout lire car je suis maintenant 100% dans l’art et la poésie et mon seul rapport à la...”
“[…] to Olivier Ezratty, author of Understanding quantum technologies 2023, the challenge for Europe is to position itself outside of where the US and China are likely end up...”
“Désolé, je suis passé à l'anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d'une langue à l'autre est un travail herculéen, même avec des outils de traduction automatique. Sachant...”
“Je suis un artiste conceptuel, certes je garde la grande majorité de mon travail dans ma tête par défaut d'un grand mécène. Mon travail de base se situe sur le "mimétisme" qui mène aux itérations et de nombreux...”
“Better than a Harry Potter! Thanks Olivier...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
QFDN
Expo
791 photos
albth
Remise Légion d'Honneur Philippe Herbert Jul2021
2021
15 photos
albth
Vivatech Jun2021
2021
120 photos
albth
Visite C2N Palaiseau Mar2021
2021
17 photos
albth
Annonce Stratégie Quantique C2N Jan2021
2021
137 photos
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Elle circule dans différentes manifestations. J'ai réalisé entre 2011 et mi 2023 plus de 800 portraits photographiques de femmes du numérique avec une représentation de tous les métiers du numérique.

Les photos et les bios de ces femmes du numérique sont présentées au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Gaëlle Rannou
Gaëlle est étudiante à 42 Paris et tutrice de l’équipe pédagogique (en 2021).
flow
Jehanne Dussert
Jehanne est étudiante à l'école 42, membre d'AI For Tomorrow et d'Open Law, le Droit ouvert. Elle est aussi fondatrice de "Comprendre l'endométriose", un chatbot informant sur cette maladie qui touche une personne menstruée sur 10, disponible sur Messenger. #entrepreneuse #juridique #santé
flow
Chloé Hermary
Chloé est fondatrice d'Ada Tech School, une école d'informatique alternative et inclusive dont la mission est de former une nouvelle génération de talents diversifié à avoir un impact sur le monde. #entrepreneuse #formation
flow
Anna Minguzzi
Anna est Directrice de Recherche au CNRS au Laboratoire de Physique et Modélisation des Milieux Condensés (LPMMC) à Grenoble. #quantique
flow
Maeliza Seymour
Maeliza est CEO et co-fondatrice de CodistAI, qui permet de créer une documentation du code informatique par une IA.
flow
Candice Thomas
Candice est ingénieure-chercheuse au CEA-Leti, travaillant sur l’intégration 3D de bits quantiques au sein du projet Quantum Silicon Grenoble. #recherche #quantique
flow
Stéphanie Robinet
Stéphanie dirige un laboratoire de conception intégrée de circuits électroniques du CEA-Leti qui travaille sur des systèmes sur puces intégrés, des interfaces de capteurs, des interfaces de contrôle de qubits et de la gestion intégrée de l'énergie. #recherche #quantique
flow
Sabine Keravel
Sabine est responsable du business development pour l’informatique quantique chez Atos. #quantique #IT
flow
Céline Castadot
Céline est HPC, AI and Quantum strategic project manager chez Atos.
flow
Léa Bresque
Léa est doctorante, en thèse à l'institut Néel du CNRS en thermodynamique quantique, sous la direction d'Alexia Auffèves (en 2021). #quantique #recherche
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture. #création
flow
Elvira Shishenina
Elvira est Quantum Computing lead chez BMW ainsi que présidente de QuantX, l'association des polytechniciens du quantique. #quantique
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble. #recherche
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo. #création #jeuvidéo
flow
Alexandra Ferreol
Alexandra est étudiante d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020) #création #jeuvidéo
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020. #création #jeuvidéo