Comprendre l’informatique quantique – panorama des acteurs
Post de Olivier Ezratty du 8 août 2018 - Tags : Google,Quantique,Startups | 1 Comment
Maintenant que nous avons fait le tour des principes généraux d’un ordinateur quantique universel puis de leurs algorithmes et applications, nous voici à l’étape d’un panorama des acteurs que sont les constructeurs d’ordinateurs quantiques. Ils sont principalement Américains ou Canadiens. Cependant, pour quasiment toutes les technologies d’ordinateurs quantiques, divers laboratoires de recherche veillent au grain pour faire avancer l’état de l’art sans qu’il soit encore récupéré par une entreprise privée. Je les évoquerai lorsque cela sera nécessaire.
Les paramètres clés d’un ordinateur quantique
La partie descriptive du fonctionnement d’un ordinateur quantique s’appuyait sur sa déclinaison la plus courante et celle qui a probablement le plus bel avenir : l’ordinateur quantique universel doté de portes quantiques construites autour de registres de qubits. Mais ce n’est pas la seule architecture d’ordinateur quantique.
Avant de décrire les différents types d’ordinateurs quantiques, faisons un détour par la définition des paramètres clés de performance d’un ordinateur quantique définis en 2000 par David DiVicenzo, alors chercheur chez IBM et maintenant à l’Université d’Aix la Chapelle en Allemagne, dans The Physical Implementation of Quantum Computation.
Alors que les qubits individuels existaient à peine, il définissait les caractéristiques techniques de base d’un tel ordinateur comme suit :
DiVicenzo ajoutait deux autres critères optionnels qui servent plutôt aux communications quantiques : la possibilité de convertir des qubits statiques en qubits pouvant se déplacer, et ensuite de transporter de manière fiable un état quantique d’un qubit à l’autre et à distance. C’est utilisé dans les techniques de communication et de cryptographie quantique mais peut aussi servir à relier entre eux différentes unités élémentaires de traitement quantiques.
D’un point de vue pratique, on caractérise aussi les ordinateurs quantiques par leur nombre de qubits et par leur température de fonctionnement.
Le nombre de qubits est à évaluer à la fois dans le temps présent mais dans sa capacité à évoluer. Certaines technologies sont plus faciles à miniaturiser que d’autres. Et il faut intégrer dans cette miniaturisation à la fois les chipsets quantiques de qubits et les éléments qui les contrôlent. Aujourd’hui, les qubits à ions piégés ou en photonique scalent mal. Les qubits supraconducteurs scalent moyennement. Et les qubits en CMOS (spins d’électrons et quantum dots) scalent le mieux.
Les ordinateurs quantiques actuellement opérationnels, à base de supraconducteurs, fonctionnent tous à très basse température autour de 15 mK (1 mK = 1 milli-kelvin, 0 kelvin = 0 absolu situé à –273,15°C), mais certains types de qubits à l’état de recherche sont censés fonctionner à température ambiante, comme ceux de l’optique linéaire à base de photons et les NV Centers(cavités dans du diamant dopé à l’azote). Le fonctionnement à très basse température est un moyen de préserver la cohérence des qubits. Mais il limite la quantité d’énergie consommable autour des qubits pour en contrôler localement l’état. Un fonctionnement à 1K ou 4K permettra de consommer plus d’énergie pour contrôler les qubits qu’un fonctionnement à 15 mK.
Ces considérations permettant de jauger les capacités d’un ordinateur quantique impliquent la création d’une nouvelle discipline : le benchmarking d’ordinateurs quantiques ! Elle nécessite évidemment des moyens intellectuels et physiques qui dépassent ceux du test de simples smartphones ou laptops !
Comme l’indique Kristel Michielsen dans Benchmarking gate-based quantum computers, 2017 (33 pages), les benchmarks peuvent s’appuyer lorsque le nombre de qubits est inférieur à 50 à une comparaison du rendu des algorithmes entre ordinateurs quantiques et leur simulation sur supercalculateurs.
Les ordinateurs quantiques benchmarkés auront généralement des caractéristiques dissemblables : des portes quantiques universelles différentes nécessitant l’assemblage de différentes portes quantiques par les compilateurs pour exécuter un même algorithme, et des codes de correction d’erreurs différents, adaptés au taux d’erreurs des qubits et des portes quantiques des ordinateurs comparés. Les dissemblances seront bien plus importantes qu’entre deux processeurs Intel et AMD ou deux processeurs de smartphones !
Les grandes catégories d’ordinateurs quantiques
Il y a ordinateur quantique et ordinateur quantique. On oppose souvent les ordinateurs quantiques adiabatiques du Canadien D-Wave aux ordinateurs quantiques universels d’IBM ou Google. Mais il faut compter en tout avec au moins quatre catégories d’ordinateurs quantiques que voici :
Enfin, l’expression ambigüe de simulateur quantique est principalement accolée aux ordinateurs quantiques analogiques qui sont dédiés à la simulation de phénomènes quantiques. Elle est aussi applicable aux trois autres catégories d’ordinateurs quantiques qui ont aussi la capacité de simuler les effets quantiques de la matière. La simulation d’effets quantiques est comme nous l’avons vu dans la partie sur les algorithmes et les applications quantiques la catégorie d’application la plus enthousiasmante du quantique de par son impact potentiel sur l’environnement et la santé.
Incertitude quantique
La prospective dans l’informatique quantique est art difficile. On navigue entre les optimistes et les pessimistes. Google, IBM et Microsoft pensent atteindre relativement rapidement la suprématie quantique et réaliser des ordinateurs quantiques de plus de 100 qubits de qualité d’ici moins d’une décennie. Leur communication se fait à plusieurs niveaux : pour le grand public, elle est simplificatrice et destinée à marquer les esprits, quitte à enjoliver la mariée. Pour les spécialistes qui peuvent décortiquer leurs publications scientifiques, le regard est évidemment plus nuancé, notamment au sujet de la fiabilité des qubits qu’ils génèrent. Ils communiquent beaucoup sur leurs efforts pour réduire le bruit des qubits pour les rendre plus fiables. Cf The Era of quantum computing is here. Outlook: cloudy de Philipp Ball paru en avril 2018 dans Science.
Les pessimistes comprennent notamment le chercheur israélien Gil Kalai qui pense que l’on n’arrivera jamais à créer des ordinateurs quantiques avec un faible taux d’erreurs. Il documente son point de vue dans la présentation Why Quantum Computers Cannot Work qui date de 2013 (60 slides) qui reprend les points de How Quantum Computers Fail: Quantum Codes, Correlations in Physical Systems, and Noise Accumulation de 2011 (16 pages) ainsi que The Argument Against Quantum Computers de Katia Moskwitch publié en février 2017. Selon Gil Kalai, on ne peut pas créer d’ordinateurs quantiques stables à cause du bruit qui affecte les qubits. Il travaille même sur la réalisation de modèles mathématiques visant à prouver l’impossibilité d’outrepasser ces erreurs, même avec les codes de correction d’erreurs quantiques.
The development of a scientific field de Cristian Calude et Alastair Abbot en 2016 évoquent le fait que l’avantage des principaux algorithmes quantiques utilisables en pratique génèreraient une accélération modeste quadratique (racine carrée du temps classique) qui pourrait être atteinte sur ordinateurs classiques avec des approches heuristiques. Cette réserve est aussi manifeste dans Quantum Madness de Ed Sperling qui faisait le point du domaine en novembre 2017 en rappelant tous les obstacles à surmonter.
Dans Predictions we didn’t make, en janvier 2018, Kenneth Regan pense qu’un industriel – probablement Google – va prétendre avoir atteint la suprématie quantique en 2018 et qu’il sera rapidement contredit par la communauté scientifique.
Pour le profane un peu éclairé que je suis sur le sujet, il est très difficile de faire la part des choses entre l’incertitude scientifique et l’incertitude technologique. La première est généralement plus difficile à lever que la seconde. Pour le Français Alain Aspect, il n’y aurait pas d’obstacle scientifique à la création d’ordinateurs quantiques fiables. Il pense que l’incertitude est uniquement technologique mais qu’il faudra quelques décennies pour la lever. Ce ne serait donc qu’une affaire de patience !
Ce lot d’incertitudes pose des questions existentielles sur la manière de gérer un tel cycle d’innovation au long cours. Quand faut-il investir ? Quand les positions sont-elles prises ? Est-ce que la recherche fondamentale est découplée de l’industrialisation ? Je traiterai de la question dans une partie dédiée aux stratégies industrielles des pays qui s’investissent avec volontarisme dans le quantique.
Mais on peut déjà constater que les variantes de cultures d’innovation et économiques ont un impact sur les approches industrielles. Les grands industriels du numérique tels que IBM, Google, Intel et Microsoft peuvent se permettre d’investir en R&D sur le quantique avec une vision très long terme. Ils ont la profitabilité, le cash et les compétences qui le permettent. Des startups plus ou moins bien financées au Canada et aux USA comme D-Wave, Rigetti ou IonQ peuvent aussi adopter une vision assez long terme, même si elle dépend toujours de leur capacité à commercialiser des prototypes d’ordinateurs quantiques et d’avoir des investisseurs à même de les accompagner sur de nombreuses années avant de voir la couleur de leur retour sur investissement. Les montants correspondants ne sont pas forcément délirants. Rigetti n’a levé à ce jour que $70M, un montant maintenant accessible à des startups françaises dans les biotechs ou le numérique en général.
Les problèmes technologiques à résoudre concernent les matériaux utilisés dans les qubits, la correction d’erreurs, la cryogénie à grande échelle pour pouvoir intégrer un grand nombre de qubits dans un ordinateur et bien évidemment les avancées algorithmiques. L’approche requise est éminemment pluridisciplinaire avec des mathématiques, de la physique fondamentale et de la chimie.
On peut aussi extrapoler les évolutions de ces dix dernières années dans l’informatique quantique. Cofondateur de D-Wave en 1999, Georgie Rose édicta en 2003 son propre équivalent de la loi empirique de Moore, la loi de Rose, prédisant un doublement tous les ans du nombre de qubits dans un ordinateur quantique. Jusqu’à présent et depuis 2007, D-Wave a tenu cette promesse.
Mais cette loi exponentielle est aussi observée dans l’évolution d’autres paramètres de fonctionnement des ordinateurs quantiques comme la durée de stabilité des qubits, leur taux d’erreur et le nombre d’opérations consécutives réalisées de manière fiable. Une partie des schémas ci-dessus proviennent de Technical Roadmap for Fault-Tolerant Quantum Computing, un rapport UK publié en octobre 2016 et de cette autre source.
Les grandes technologies d’ordinateurs quantiques
Comme nous l’avions vu dans la partie dédiée aux types de qubits, il se dégage six grandes catégories d’ordinateurs quantiques :
Nombre des entreprises privées de ce cheptel sont associées avec des laboratoires de recherche américains ou européens. Google collabore avec l’Université de Santa Barbara en Californie, IBM et Microsoft avec celle de Delft aux Pays Bas, et IBM avec celle de Zurich.
Ces catégories de technologies ont des niveaux de maturité très différents. Les qubits à base de supraconducteurs sont à ce jour les plus éprouvés. Les ions piégés, les quantum dots, l’optique linéaire et les NV Centers ont du mal à ”scaler”. Les fermions de Majorana sont encore dans les limbes même si Microsoft s’apprête à annoncer de bonnes nouvelles de ce côté-là.
Autre point, les startups ne sont pas si nombreuses dans ce tableau. D-Wave se porte bien mais Rigetti évolue plus lentement tout comme QDTI et IonQ. Enfin, ce paysage est largement dominé par les USA, même s’il n’intègre pas les initiatives chinoises comme celle d’Alibaba.
____________________________
Nous allons par la suite faire le tour d’une partie des acteurs cités “colonne par colonne” en commençant par la technologie du recuit quantique des ordinateurs quantiques adiabatiques du Canadien D-Wave et de leur imitation digitale de Fujitsu. Puis nous passerons aux ordinateurs quantiques universels à base de supraconducteurs. Puis enfin, aux autres technologies.
Lien du blog Opinions Libres : https://www.oezratty.net/wordpress
Lien de l'article : https://www.oezratty.net/wordpress/2018/comprendre-informatique-quantique-panorama-des-acteurs/
Cliquez ici pour imprimer
(cc) Olivier Ezratty - http://www.oezratty.net