{"id":22165,"date":"2024-05-02T16:11:52","date_gmt":"2024-05-02T15:11:52","guid":{"rendered":"https:\/\/www.oezratty.net\/wordpress\/?p=22165"},"modified":"2024-05-02T16:17:05","modified_gmt":"2024-05-02T15:17:05","slug":"decode-quantum-avec-valentin-savin-du-cea-leti","status":"publish","type":"post","link":"https:\/\/www.oezratty.net\/wordpress\/2024\/decode-quantum-avec-valentin-savin-du-cea-leti\/","title":{"rendered":"Decode Quantum avec Valentin Savin du CEA-Leti"},"content":{"rendered":"<p>Dans le 70e \u00e9pisode des entretiens Decode Quantum, Fanny Bouton et moi-m\u00eame sommes avec <strong>Valentin Savin<\/strong> du CEA-Leti, pour parler du sujet de la correction d\u2019erreurs. Cet entretien est aussi diffus\u00e9 par <a href=\"https:\/\/www.frenchweb.fr\/decode-quantum-a-la-rencontre-de-valentin-savin-du-cea-leti\/447968\">Frenchweb<\/a>.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/Valentin-Savin-1.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-22193\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/Valentin-Savin-1.jpg\" alt=\"\" width=\"314\" height=\"222\" srcset=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/Valentin-Savin-1.jpg 706w, https:\/\/www.oezratty.net\/wordpress\/wp-content\/Valentin-Savin-1-300x213.jpg 300w\" sizes=\"auto, (max-width: 314px) 100vw, 314px\" \/><\/a><\/p>\n<p>Valentin Savin a un master en math\u00e9matiques de l\u2019ENS Lyon et de l\u2019Universit\u00e9 Joseph Fourier de Grenoble, puis a r\u00e9alis\u00e9 une th\u00e8se de doctorat dans cette m\u00eame universit\u00e9 en 2001. Entre 2002 et 2004, il \u00e9tait post-doc \u00e0 l\u2019Institut de Math\u00e9matiques de l\u2019acad\u00e9mie roumaine. Depuis 2005, il est au CEA-LETI \u00e0 Grenoble, d\u2019abord comme post-doc puis comme chercheur. Ses recherches portent sur les codes de correction d\u2019erreurs classiques et quantiques, \u00e0 la fois pour les communications, pour le stockage de donn\u00e9es et pour le calcul. Il copilote de nombreux projets de recherche collaborative europ\u00e9ens dans le domaine, notamment pour cr\u00e9er des syst\u00e8mes quantiques \u00e0 tol\u00e9rance de pannes.<\/p>\n<p><iframe loading=\"lazy\" src=\"https:\/\/widget.spreaker.com\/player?episode_id=59771295&amp;theme=light&amp;playlist=false\" width=\"100%\" height=\"200px\" frameborder=\"0\"><span data-mce-type=\"bookmark\" style=\"display: inline-block; width: 0px; overflow: hidden; line-height: 0;\" class=\"mce_SELRES_start\">\ufeff<\/span><\/iframe><\/p>\n<p>Ses d\u00e9buts dans le quantique ont d\u00e9marr\u00e9 assez tardivement. Il a commenc\u00e9 \u00e0 travailler dans le domaine des codes de correction d\u2019erreur classiques en 2005, notamment dans les t\u00e9l\u00e9coms et s\u2019est int\u00e9ress\u00e9 aux codes quantiques en 2017 suite \u00e0 une rencontre avec Maud Vinet, \u00e0 l\u2019\u00e9poque \u00e9galement au CEA-LETI. Il fallait comprendre comment faire de la correction d\u2019erreurs quantique. Il a tout de suite appr\u00e9ci\u00e9 le formalisme math\u00e9matique associ\u00e9. Il avait lanc\u00e9 une th\u00e8se sur le sujet sur des <a href=\"https:\/\/theses.fr\/2021GRALM042\">codes polaires quantiques<\/a> puis s\u2019est int\u00e9ress\u00e9 \u00e0 d\u2019autres aspects, en lien avec la tol\u00e9rance aux fautes.<\/p>\n<p>Sa th\u00e8se <a href=\"https:\/\/theses.fr\/2001GRE10132\">Propri\u00e9t\u00e9s de bidualit\u00e9 des espaces de modules en terme de cohomologie de groupes<\/a>, 2001, a \u00e9t\u00e9 soutenue \u00e0 Universit\u00e9 Joseph Fourier \u00e0 Grenoble. Elle portait sur la g\u00e9om\u00e9trie complexe et alg\u00e9brique. Il s\u2019int\u00e9ressait \u00e0 des espaces classifiables par des invariants continus, li\u00e9e \u00e0 la notion d\u2019espaces de modules. Cela n\u2019avait pas de liens \u00e9vidents avec les codes de correction d\u2019erreurs classiques. Dans les ann\u00e9es 1990, des constructions de correction d\u2019erreur classiques \u00e0 base de g\u00e9om\u00e9trie alg\u00e9brique qui avaient un bon rendement pouvaient \u00eatre envisag\u00e9es. Cela faisait principalement suite aux travaux de <a href=\"https:\/\/link.springer.com\/book\/10.1007\/978-94-011-3810-9\">Tsfasman, Vl\u0103du\u0163 et Zink<\/a> qui ont permis de construire pour la premi\u00e8re fois des familles de codes d\u00e9passant la borne de Gilbert-Varshamov. Il avait envie de regarder les choses de mani\u00e8re plus appliqu\u00e9e.<\/p>\n<p>Les codes de correction d\u2019erreur sont partout dans le num\u00e9rique classique, notamment pour corriger les transmissions \u00e0 faible rapport signal \u00e0 bruit, qui n\u00e9cessitent de la redondance dans la communication. Gr\u00e2ce aux <a href=\"https:\/\/people.math.harvard.edu\/~ctm\/home\/text\/others\/shannon\/entropy\/entropy.pdf\">travaux de Claude Shannon<\/a>, on sait caract\u00e9riser le niveau de redondance minimal permettant de communiquer de mani\u00e8re fiable sur un canal bruit\u00e9. C\u2019est ce qu\u2019on appelle la capacit\u00e9 du canal, ou encore la limite de Shannon. Au d\u00e9but des ann\u00e9es 2000, il restait beaucoup \u00e0 faire, concernant entre autres la construction de familles de codes capables d\u2019atteindre ou approcher cette limite th\u00e9orique. Si les constructions dites \u00ab alg\u00e9briques \u00bb (codes BCH, codes de Reed-Solomon, code de Goppa), cherchaient avant tout \u00e0 optimiser la distance minimale du code, cherchant ensuite une algorithme de d\u00e9codage efficace, les ann\u00e9es 1990 voient apparaitre une nouvelle famille de codes, dont le m\u00e9rite consistait particuli\u00e8rement dans la fa\u00e7on de les d\u00e9coder, plut\u00f4t que dans leurs propri\u00e9t\u00e9s en termes de distance minimale. Il s\u2019agit des <a href=\"https:\/\/ieeexplore.ieee.org\/document\/539767\">turbo codes<\/a> invent\u00e9s en France par <strong>Claude Berrou<\/strong> et <strong>Alain Glavieux<\/strong>, qui pouvaient faire bien mieux que l\u2019existant, en utilisant un syst\u00e8me de d\u00e9codage ing\u00e9nieux, avec un d\u00e9codage it\u00e9ratif qui fonctionnait bien. Cela a aussi permis \u00e0 la communaut\u00e9 de se rappeler les travaux plus anciens de <a href=\"https:\/\/en.wikipedia.org\/wiki\/Robert_G._Gallager\">Robert G. Gallager<\/a>, qui avait propos\u00e9 d\u00e8s 1962 des codes LDPC classiques, \u00e9galement d\u00e9codables par du d\u00e9codage it\u00e9ratif.<\/p>\n<p>Au d\u00e9but des ann\u00e9e 2000, des <a href=\"https:\/\/ieeexplore.ieee.org\/document\/910578\">travaux de Richardson, Shokrollahi et Urbanke<\/a> ont permis de montrer que la construction de ces codes pouvait \u00eatre optimis\u00e9e, de fa\u00e7on \u00e0 approcher de tr\u00e8s pr\u00e8s la limite th\u00e9orique de Shannon pour une large gamme de canaux.\u00a0 Ils ont int\u00e9gr\u00e9 depuis un bon nombre de standards de t\u00e9l\u00e9communication et ont remplac\u00e9 petit \u00e0 petit les turbo codes qui dominaient.<\/p>\n<p>Pour la fiabilisation des m\u00e9moires ou syst\u00e8mes de stockage, le principe de la correction d\u2019erreur est similaire \u00e0 celui de la transmission des donn\u00e9es, avec toutefois des mod\u00e8les de canaux et des contraintes sp\u00e9cifiques. On pourra retrouver des m\u00e9canismes de correction d\u2019erreurs \u00e0 base de codes LDPC, notamment dans les m\u00e9moires non-volatiles. Pour la partie de calcul classique, c\u2019est diff\u00e9rent. Si la fiabilisation du calcul \u00e0 travers des m\u00e9canismes de correction d\u2019erreur \u00e9tait effectivement envisag\u00e9e au d\u00e9but du calcul classique, la tr\u00e8s grande fiabilit\u00e9 de la technologie CMOS, qui s\u2019est impos\u00e9e \u00e0 partir des ann\u00e9es 1980, a rendu inutile leur utilisation. La question s\u2019est n\u00e9anmoins repos\u00e9e au d\u00e9but des ann\u00e9es 2010 avec l&#8217;augmentation tr\u00e8s forte de la densit\u00e9 d&#8217;int\u00e9gration, et la fin pressentie de la loi de Moore (<a href=\"https:\/\/www.i-risc.eu\/\">projet i-RISC<\/a>, 2013-2016). Le niveau de redondance acceptable est relativement faible, \u00e0 la diff\u00e9rence du calcul quantique, car dans le cas classique on dispose d\u00e9j\u00e0 d\u2019une technologie fiable. Ainsi, r\u00e9duire la taille des transistors \u00e0 une \u00e9chelle o\u00f9 ils perdraient de leur fiabilit\u00e9, pour ensuite ajouter la redondance n\u00e9cessaire \u00e0 la correction d\u2019erreur, doit \u00eatre mis en balance contre un n\u0153ud technologique moins r\u00e9duit, mais fiable. Une question int\u00e9ressante est celle de la <a href=\"https:\/\/arxiv.org\/abs\/1405.6594\">tol\u00e9rance aux fautes des d\u00e9codeurs<\/a> eux-m\u00eames.<\/p>\n<p>Valentin explique la diff\u00e9rence entre la correction d\u2019erreurs en informatique classique et en informatique quantique.\u00a0Le probl\u00e8me du d\u00e9codage quantique est souvent ramen\u00e9 \u00e0 du d\u00e9codage classique. La formalisation par les codes stabilisateurs qui permet d\u2019\u00e9tablir des liens avec les codes classiques non binaires. Les codes CSS avec deux codes classiques binaires utilis\u00e9s pour le d\u00e9codage des erreurs X (bit flip) et Z (phase flip). Ce qui est intrins\u00e8quement quantique est l\u2019extraction du syndrome d\u2019erreur, que l\u2019on d\u00e9code ensuite pour identifier l\u2019erreur qui s\u2019est produite. Ce d\u00e9codage est toujours classique, puis une correction quantique est appliqu\u00e9e aux qubits via une boucle de r\u00e9troaction.<\/p>\n<p>On \u00e9voque l&#8217;historique des codes de correction d&#8217;erreur avec le papier fondateur de <strong>Peter Shor<\/strong> en 1996, le Steane code avec 5 qubits, l\u2019introduction des codes stabilisateur par Gottesman, puis le code torique de de Kitaev et sa version code de surface.\u00a0La plupart des d\u00e9veloppements ont \u00e9t\u00e9 r\u00e9alis\u00e9s par des physiciens, alors que les codes classiques sont venus des math\u00e9matiques.<\/p>\n<p>Les chercheurs se sont alors int\u00e9ress\u00e9s aux codes LDPC quantiques, ou qLDPC, mais pour des raisons diff\u00e9rentes du classique. Dans le classique, l\u2019int\u00e9r\u00eat principal des codes LDPC vient de la mani\u00e8re dont ils sont d\u00e9cod\u00e9s. La &#8220;sparsit\u00e9&#8221; de la matrice de parit\u00e9 (creuse) permet de mettre en place des algorithmes de d\u00e9codage it\u00e9ratifs par passage de message, qui sont non seulement capables de fournir une excellente capacit\u00e9 de correction, mais sont aussi tr\u00e8s bien adapt\u00e9s aux impl\u00e9mentations mat\u00e9rielles, d\u2019o\u00f9 leur succ\u00e8s. Dans le quantique, l\u2019int\u00e9r\u00eat principal des codes LDPC r\u00e9side dans le fait que l\u2019extraction du syndrome d\u2019erreur n\u00e9cessite de faire parler entre eux qu\u2019un faible nombre de qubits. Cela g\u00e9n\u00e8re une faible propagation d\u2019erreurs et implique que l\u2019extraction du syndrome peut \u00eatre faite de mani\u00e8re tol\u00e9rante aux fautes. Par contre le d\u00e9codage des codes qLDPC, c&#8217;est-\u00e0-dire, l\u2019algorithme de d\u00e9codage classique qui consiste \u00e0 d\u00e9terminer l\u2019erreur qui s\u2019est produite \u00e0 partir du syndrome extrait, est plus difficile qu\u2019en classique. Cela est d\u00fb au probl\u00e8me de d\u00e9g\u00e9n\u00e9rescence des codes qLDPC, qui rend les algorithmes par passage de message inefficaces, n\u00e9cessitant l\u2019ajout de techniques de post-traitement (e.g., <a href=\"https:\/\/arxiv.org\/abs\/2205.06125\">stabilizer inactivation<\/a>). Ce probl\u00e8me n\u2019est pas anodin, car au-del\u00e0 d\u2019\u00eatre pr\u00e9cis (identifier correctement l\u2019erreur qui s\u2019est produite), le d\u00e9codeur doit r\u00e9pondre \u00e0 des contraintes sp\u00e9cifiques du syst\u00e8me quantique, comme la latence ou la consommation de puissance, et peu de techniques utilis\u00e9es actuellement pour le post-traitement sont compatibles avec ces contraintes (e.g., <a href=\"https:\/\/arxiv.org\/abs\/2310.15000\">check-agnosia<\/a>). La classe des qLDPC est tr\u00e8s large, elle comprend en particulier les constructions topologiques (e.g., codes de surface, codes couleurs) et dans une certaine mesure d\u2019autres familles de codes, comme les Bacon-Shor.<\/p>\n<p>Une autre famille de codes tr\u00e8s int\u00e9ressants sont les codes polaires. Ils atteignent la capacit\u00e9 \u00ab\u00a0one-shot\u00a0\u00bb de tout canal quantique (<a href=\"https:\/\/arxiv.org\/abs\/1904.04713\">purely quantum polar codes<\/a>) et, \u00e0 la diff\u00e9rence des codes qLDPC, sont \u00e9quip\u00e9s d\u2019un algorithme de d\u00e9codage efficace, h\u00e9rit\u00e9 de leurs homologues classiques. Par contre la pr\u00e9paration tol\u00e9rante aux fautes de ces codes est plus difficile, avec n\u00e9anmoins des avanc\u00e9es r\u00e9centes pour les codes polaires encodant un qubit logique (e.g., <a href=\"https:\/\/arxiv.org\/abs\/2209.06673\">Q1-codes<\/a>, <a href=\"https:\/\/arxiv.org\/abs\/2307.15226\">factory-based preparation<\/a>).<\/p>\n<p>Le code de surface s\u2019est impos\u00e9 par la connectivit\u00e9 requise, dite du \u00ab\u00a0plus proche voisin\u00a0\u00bb.\u00a0Les codes qLDPC (ou polaires) ont besoin d\u2019interactions longue distance entre les qubits, mais ils deviennent int\u00e9ressants gr\u00e2ce au fait qu\u2019ils sont capable d\u2019encoder plus de qubits logiques ou qu\u2019ils poss\u00e8dent une capacit\u00e9 de correction sup\u00e9rieure \u00e0 celle du code de surface.\u00a0IBM pr\u00e9voit d\u2019utiliser une version de <a href=\"https:\/\/www.nature.com\/articles\/s41586-024-07107-7\">codes LDPC d\u00e9finis via des graphes bi-planaires<\/a> dans les qubits supraconducteur, afin de contourner le probl\u00e8me de connectivit\u00e9 \u00e0 distance. Dans les atomes neutres, on peut envisager le d\u00e9placement des qubits, comme <a href=\"https:\/\/arxiv.org\/abs\/2312.03982\">l&#8217;a montr\u00e9 r\u00e9cemment Mikhail Lukin<\/a> \u00e0 Harvard.<\/p>\n<p>Du c\u00f4t\u00e9 des performances, on recherche des codes avec une profondeur constante du\u00a0circuit quantique d\u2019extraction du syndrome d&#8217;erreur. C&#8217;est le cas des codes de surface et qLDPC. Le d\u00e9codage se fait sur une fen\u00eatre temporelle de syndromes, afin de garantir la tol\u00e9rance aux fautes pendant l\u2019extraction du syndrome. La distance minimale du code est de l&#8217;ordre de grandeur de la racine carr\u00e9e du nombre de qubits pour le code de surface, mais elle peut atteindre le m\u00eame ordre de grandeur que le nombre de qubits pour les qLDPC (e.g., <a href=\"https:\/\/arxiv.org\/abs\/2202.13641\">quantum Tanner codes<\/a>). Nous \u00e9voquons la notion de\u00a0longueur du code, li\u00e9e au nombre de qubits physiques pour encoder un qubit logique.\u00a0N qubits physiques peuvent encoder plusieurs qubits logiques K.\u00a0N\/K est un indicateur de la redondance.<\/p>\n<p>Le d\u00e9codage des syndromes d&#8217;erreurs demande un algorithme classique qui est complexe. Le temps est limit\u00e9 pour le faire, qui correspond au temps n\u00e9cessaire pour faire l\u2019extraction du syndrome, soit quelques centaines de ns en g\u00e9n\u00e9ral. On a besoin de parall\u00e9lisme et d\u2019algorithmes en complexit\u00e9 lin\u00e9aire et pas polynomiale.<\/p>\n<p>Comment corrige-t-on les erreurs corr\u00e9l\u00e9es ? Il y a relativement peu de choses qui sont faites au niveau de la correction d\u2019erreur (<a href=\"https:\/\/www.nature.com\/articles\/s41567-023-02238-6\">des mod\u00e8les de corr\u00e9lation sont sortis r\u00e9cemment<\/a>), moins que ce qui est fait pour les mod\u00e8les de bruit biais\u00e9. Les erreurs corr\u00e9l\u00e9es avec des qubits voisins sont li\u00e9es au contr\u00f4le et au crosstalk et pas seulement aux rayons cosmiques.<\/p>\n<p>L\u2019objet de ses recherches au CEA-Leti et leur lien avec l\u2019\u00e9cosyst\u00e8me du calcul quantique fran\u00e7ais. Au Leti, les qubits de spin de silicium y sont d\u00e9velopp\u00e9s depuis plusieurs ann\u00e9es. Il a un lien avec la startup Quobly via des projets collaboratifs et avec le CNRS et UGA. Et aussi au niveau national via le PEPR quantique, avec les projets <a href=\"https:\/\/anr.fr\/ProjetIA-22-PETQ-0006\">NISQ2LSQ<\/a> (coordonn\u00e9 par Anthony Leverrier d&#8217;Inria) et PRESQUILE (en lien avec la technologie des qubits silicium CMOS). Au niveau europ\u00e9en, le projet <a href=\"https:\/\/quantera.eu\/equip\/\">Quantera EQUIP<\/a> coordonn\u00e9 par Valentin regarde ces probl\u00e9matiques en s\u2019int\u00e9ressant au d\u00e9codage temps-r\u00e9el ainsi qu&#8217;\u00e0 la mitigation d&#8217;erreurs.\u00a0L\u2019\u00e9cosyst\u00e8me fran\u00e7ais de la correction d\u2019erreurs comprend aussi des \u00e9quipes \u00e0 Bordeaux ainsi que Christophe Vuillot d&#8217;Inria Nancy, ou encore Omar Fawzi d&#8217;Inria Lyon.<\/p>\n<p>Voil\u00e0 pour cet \u00e9pisode. Dans le suivant, nous accueillons <strong>Jan Goetz<\/strong>, le CEO d&#8217;IQM !<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dans le 70e \u00e9pisode des entretiens Decode Quantum, Fanny Bouton et moi-m\u00eame sommes avec Valentin Savin du CEA-Leti, pour parler du sujet de la correction d\u2019erreurs. Cet entretien est aussi diffus\u00e9 par Frenchweb. Valentin Savin a un master en math\u00e9matiques de l\u2019ENS Lyon et de l\u2019Universit\u00e9 Joseph Fourier de Grenoble, puis a r\u00e9alis\u00e9 une th\u00e8se [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3057],"tags":[1911,3915,3901,3917,3916],"class_list":["post-22165","post","type-post","status-publish","format-standard","hentry","category-quantique","tag-cea-leti","tag-correction-derreurs","tag-qec","tag-qldpc","tag-surface-codes"],"views":2686,"_links":{"self":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts\/22165","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/comments?post=22165"}],"version-history":[{"count":7,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts\/22165\/revisions"}],"predecessor-version":[{"id":22207,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts\/22165\/revisions\/22207"}],"wp:attachment":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/media?parent=22165"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/categories?post=22165"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/tags?post=22165"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}