Nous sommes au milieu d’un battage médiatique autour de l’informatique quantique, avec des affirmations excessives sur le potentiel de l’informatique quantique, des exagérations de la part de nombreux fournisseurs et même de certains organismes de recherche, et une frénésie de financement pour des start-ups dont le niveau de préparation technologique est très faible. Les gouvernements contribuent à alimenter cette « hype » avec leurs grandes initiatives quantiques et leurs quêtes de souveraineté technologique.

Les hypes ne sont pas mauvaises en soi puisqu’elles créent une émulation, stimulent les innovations et contribuent à attirer de nouveaux talents. Cela fonctionne lorsque les scientifiques et les fournisseurs apportent des progrès et des innovations de manière continue après un pic d’attentes. Elle échoue lorsque les surpromesses et l’absence de résultats perdurent trop longtemps. Elle peut réduire le financement de la recherche et de l’innovation à moyen et long terme.

Dans un opus intitulé “Mitigating the quantum hype” et publié sur Arxiv (soumis le 7 février 2022, 26 pages), j’essaie de brosser un tableau complet de cette hype et de ses conséquences potentielles. Cet article en est une version abrégée.

Les spécialistes de l’intelligence artificielle qui ont connu son dernier “hiver” à la fin des années 1980 et au début des années 1990 ne cessent de répéter que l’informatique quantique, voire les technologies quantiques à plus grande échelle, sont vouées au même sort : une réduction drastique des dépenses publiques de recherche et du financement de l’innovation. Leur hypothèse repose sur l’observation de la surenchère des fournisseurs de technologies quantiques et même des chercheurs, sur une série de promesses survendues et non tenues dans le domaine de l’informatique quantique et sur la lenteur perçue de l’amélioration du domaine.

Après avoir examiné la forme des hypes technologiques et scientifiques et tiré quelques leçons des hypes passées, j’étudie les caractéristiques et spécificités de la hype actuelle de l’informatique quantique. J’ai constaté que, bien qu’il existe une incertitude importante quant à la possibilité de créer de véritables ordinateurs quantiques évolutifs, les domaines scientifiques et commerciaux sont relativement sains et solides par rapport aux autres hypes technologiques. Le battage médiatique des fournisseurs a un impact profond qui affecte structurellement l’organisation de la recherche fondamentale. En outre, les technologies quantiques englobent d’autres domaines, tels que les télécommunications et la détection quantiques, dont le niveau de préparation technologique est plus élevé et qui sont moins sujets à la hype.

Je fais ensuite quelques propositions pour atténuer les effets négatifs potentiels de la hype actuelle, notamment des recommandations sur la communication scientifique pour renforcer la confiance dans la science, l’amélioration du comportement des fournisseurs, les méthodologies d’évaluation comparative, l’éducation du public et la mise en place d’une approche responsable de la recherche et de l’innovation dans les technologies quantiques.

Les retombées industrielles de la recherche en physique quantique sont apparues avec l’invention du transistor en 1947, du laser au début des années 1960 et de nombreuses autres prouesses technologiques (téléviseurs, LED, GPS, etc.) qui ont conduit à l’ère numérique basée sur la “première révolution quantique” dont nous bénéficions aujourd’hui. L’ère de la “seconde révolution quantique” concerne le contrôle d’objets quantiques individuels (atomes, électrons, photons) et l’utilisation des phénomènes de la superposition et de l’intrication. Le début des années 1980 a été un moment décisif avec les idées de Yuri Manin et Richard Feynman concernant la création respectivement d’ordinateurs quantiques basés sur des portes et de simulateurs quantiques (en 1980 et 1981). Nous sommes maintenant 40 ans plus tard, et même si les progrès ont été continus, les ordinateurs quantiques utilisables offrant un avantage quantique par rapport aux ordinateurs classiques n’existent pas encore, ce qui peut générer une certaine impatience. Cependant, trois autres applications de cette seconde révolution quantique sont plus avancées : les télécommunications, la cryptographie et les capteurs quantiques. Dans une certaine mesure, ces derniers sont bien sous-estimés.

Leçons d’histoire et analogies

Les dernières décennies ont vu une explosion des vagues de technologies numériques et autres, dont la plupart ont été déployées avec succès à grande échelle. Les micro-ordinateurs ont d’abord fait irruption dans le monde des geeks, puis au travail et enfin, dans les foyers. Le début des années 2000 a marqué le début de l’ère numérique grand public, avec la musique numérique en ligne, la photographie numérique, la vidéo et la télévision numériques, le commerce électronique, l’internet mobile, l’économie du partage, toutes sortes de services de désintermédiation et enfin l’informatique en cloud. Il y a eu cependant quelques échecs, avec des vagues de hype et des résultats contradictoires. Dans de nombreux cas, alors que ces emballements atteignaient des sommets, un certain scepticisme pouvait être construit à partir du bon sens.

Dans les années 1980, l’IA symbolique et les systèmes experts étaient à la mode mais posaient des problèmes de mise en œuvre pratique. La capture des connaissances des experts était difficile et ne pouvait être automatisée lorsque les contenus n’étaient pas massivement numérisés comme aujourd’hui. Il existait même des machines dédiées à l’exécution du langage de programmation LISP. Il ne pouvait pas concurrencer les machines génériques basées sur les processeurs d’Intel et d’autres sociétés similaires qui bénéficiaient de l’application continue de la loi de Moore. Les startups concernées ont échoué avant même d’avoir pu commencer à commercialiser leur matériel. Ensuite, les systèmes experts sont passés de mode. La renaissance de l’IA est intervenue avec l’apprentissage profond, une extension de l’apprentissage automatique créée par Geoff Hinton en 2006. Ce retour remonte à 2012, lorsque l’apprentissage profond a pu bénéficier de meilleurs algorithmes et des puissants GPU de Nvidia. L’ère actuelle de l’IA est principalement connexionniste, basée sur des modèles probabilistes d’apprentissage automatique et profond, par opposition à l’IA symbolique basée sur des moteurs de règles et du raisonnement structuré. Dans le prolongement du vieil hiver de l’IA symbolique, les voitures autonomes progressent également assez lentement. Les défis scientifiques et technologiques sont immenses, en particulier lorsqu’il s’agit de gérer l’interaction entre les voitures autonomes et les humains, qu’ils soient à pied ou dans d’autres véhicules à 2, 3, 4 roues ou plus. Aujourd’hui, l’intelligence artificielle est un champ où l’éthique, l’innovation responsable et les questions environnementales ont été prises en compte, mais plutôt après coup. On peut en tirer comme leçon que le plus tôt ces questions seront étudiées et traitées, mieux ce sera.

La célèbre courbe du cycle de la hype du Gartner peut progresser ou s’arrêter après le creux de la désillusion. Lorsqu’elle s’arrête, cela peut être lié à des raisons sociétales et économiques (il n’y a pas de réelle analyse de rentabilité, les gens ne l’aiment pas, ce n’est pas une priorité, c’est trop cher) ou à des obstacles scientifiques (cela ne fonctionne pas encore, ce n’est pas sûr, etc.).

Dans le domaine scientifique, où sont les surpromesses qui ont conduit à une sorte d’hiver technologique ? Il y a par exemple la fusion nucléaire, qui reste une promesse à long terme, bien qu’elle soit revenue à la mode avec le lancement de quelques start-ups dans ce domaine. Celles-ci ont levé plus de 2 milliards de dollars à ce jour. Pouvoir prédire quand, où et comment la fusion nucléaire pourrait être contrôlée pour produire de l’électricité est un défi aussi grand que de prévoir quand un ordinateur quantique évolutif pourrait être capable de casser des clés RSA de 2048 bits. En un sens, il s’agit de catégories de défis similaires. La différence est que le calcul quantique ne requiert pas d’infrastructures géantes coûtant des milliards de dollars comme le site de test ITER de Cadarache, en tout cas, pour l’instant.

L’informatique non conventionnelle a apporté son lot d’engouements ratés avec l’informatique optique et l’informatique supraconductrice. Depuis un certain temps, nous entendons parler de la spintronique et des memristors, qui sont toujours en cours de mise au point. Ces technologies sont principalement étudiées par de grandes entreprises telles que HPE, IBM, Thales et d’autres.

Ces cas sont plus proches de la hype quantique à plusieurs égards : leur dimension scientifique, la difficulté de vérifier les faits, le faible niveau de préparation technologique et l’incertitude scientifique. Ils suscitent également une plus faible sensibilisation du grand public que les battages non scientifiques tels que les crypto-monnaies, les NFT et les métavers.

Caractérisation de la hype quantique

L’engouement pour l’informatique quantique a véritablement démarré en 1994 lorsque Peter Shor, alors aux Bell Labs et aujourd’hui au MIT, a créé son célèbre algorithme quantique éponyme de factorisation d’entiers qui pourrait potentiellement casser la plupart des systèmes de cryptage à clé publique. L’algorithme de Shor a titillé l’intérêt des gouvernements, notamment aux États-Unis. La possibilité d’être le premier pays à casser les codes de sécurité de l’internet était attrayante, tout du moins, si l’on n’en mesure pas les conséquences générales pour la société.

Alors que l’utilisation du web et de l’Internet mobile a explosé, à partir de la fin des années 2000, l’intérêt pour les technologies quantiques n’a cessé de croître. Les révélations d’Edward Snowden en 2013 sur les capacités d’espionnage mondial de l’Internet par la NSA ont eu un impact profond sur le gouvernement chinois. Elles ont déclenché ou amplifié sa volonté de mieux protéger ses réseaux gouvernementaux sensibles. Elles ont peut-être contribué à leur déploiement d’un réseau massif de distribution de clés quantiques, composé de lignes terrestres en fibre optique et de satellites.

Au début des années 2000, les laboratoires de recherche ont commencé à assembler quelques qubits fonctionnels, en commençant par 2 à 5 qubits entre 2002 et 2015. Nous avons maintenant 127 qubits supraconducteurs chez IBM, mais ils sont beaucoup sujets aux erreurs pour être utilisables simultanément. Il reste de nombreux défis à relever pour créer des ordinateurs quantiques utilisables et évolutifs, dont l’un consiste à assembler un grand nombre de qubits physiques pour créer des qubits logiques “corrigés”. Cela engendre des problèmes d’évolutivité considérables tant au niveau quantique qu’au niveau classique, avec l’électronique de contrôle, le câblage, la cryogénie et la consommation d’énergie. Il s’agit d’un mélange de défis scientifiques, technologiques et d’ingénierie, la partie scientifique étant plus forte que pour la plupart des autres technologies. D’autres chercheurs et fournisseurs tentent d’exploiter les systèmes bruyants existants (NISQ, noisy intermediate scale quantum) avec des algorithmes résistants au bruit. Il n’existe pas encore de consensus partagé sur la voie à suivre. Dans une certaine mesure, c’est une bonne nouvelle.

Pourtant, de nos jours, la perception de la menace que représente l’informatique quantique via l’algorithme de Shor est à son apogée. Elle a conduit à la création de systèmes de cryptographie post-quantique (PQC) fonctionnant sur du matériel classique. Le NIST américain en est aux dernières étapes de son processus de normalisation de plusieurs solutions de PQC, qui devrait se terminer en 2024. De nombreuses organisations seront alors contraintes de déployer massivement des PQC. Nous sommes dans une situation équivalente à celle des personnes qui ont construit leur propre abri nucléaire sous leur jardin pendant la guerre froide, ce qui constitue une forme numérique de survivalisme technologique.

Certains aspects classiques des hypes technologiques se manifestent autour de l’informatique quantique.

Tout d’abord, les cas d’usage de l’informatique quantique promus par les fournisseurs et les analystes sont généralement tirés par les cheveux. Les classiques sont le développement ab-initio/de-novo de traitements contre le cancer et vaccins, la réduction du réchauffement planétaire par la capture du CO2, la création de batteries plus denses, plus propres et plus efficaces et l’amélioration du processus Haber-Bosch pour créer de l’ammoniac et des engrais de manière plus efficace sur le plan énergétique. Bien sûr, tous ces miracles pour sauver la Terre seront réalisés en un clin d’œil, comparé aux milliards d’années de calcul classique. En pratique, la majorité de ces promesses sont à extrêmement long terme, étant donné le nombre de qubits (logiques) fiables qu’elles nécessiteraient. Dans certains cas, se chiffres en millions de qubits si ce n’est milliards.

Ensuite, nous sommes exposés à des signaux assez incohérents pour apprécier l’état réel de l’art. D’une part, les laboratoires de recherche et les fournisseurs vantent les avantages de l’informatique quantique en présentant des ordinateurs quantiques censés être plus rapides que les meilleurs superordinateurs du monde. D’autre part, nous entendons également dire que les “vrais” ordinateurs quantiques n’existent pas encore et qu’ils ne pourraient apparaître que d’ici 10 à 20 ans. Il est loin d’être facile de réconcilier ces messages contradictoires et de vérifier les faits. À partir de ces signaux contradictoires, de nombreux non-spécialistes extrapolent ces données floues et font des interprétations plutôt inexactes, et surtout trop optimistes, de l’état de l’art des ordinateurs quantiques pour une utilisation courante, et notamment pour casser une clé de chiffrement RSA-2048 et menacer toute la sécurité de l’Internet ouvert.

Troisièmement, comme toutes les ruées vers l’or des technologies numériques, les prévisions du marché sont généralement trop optimistes. Le marché de l’informatique quantique est censé atteindre 2,64 milliards de dollars en 2022 pour Market Research Future (en 2018). Puis nous avons 8,45 milliards en 2024 pour Homeland Security (en 2018), 10 milliards en 2028 pour Morgan Stanley (en 2017), 15 milliard en 2028 pour ABI Research (2018) et 64 milliards en 2030 pour P&S Intelligence (en 2020). Début 2020, McKinsey prévoyait que l’informatique quantique vaudrait mille milliards de dollars en 2035. Ce biais de prévision provient d’une astuce utilisée il y a quelques années pour évaluer la taille des marchés de l’Internet des objets, de l’intelligence artificielle et de l’hydrogène. Il ne s’agit pas d’une estimation du marché des technologies quantiques en tant que telles, mais du revenu supplémentaire et de la valeur commerciale qu’elles pourraient générer chez les entreprises utilisatrices, comme dans les marchés de la santé, de la finance ou des transports. Le dimensionnement du marché de McKinsey à 1T$ a été exploité à maintes reprises dans les médias et même par des escrocs financiers pour faire miroiter des rendements exceptionnels à la Madoff sur des placements dans quelques startups bien choisies. On peut se demander si McKinsey avait prévu cet effet secondaire.

La quatrième est ce qui se passe du côté des fournisseurs, avec certaines startups qui accumulent des centaines de millions de dollars de financement. Cette tendance peut s’expliquer par plusieurs phénomènes : le manque de financement de programmes de recherche consolidés ambitieux côté secteur public, la volonté des chercheurs de créer leur propre entreprise avec plus de liberté d’action, l’abondance de financement sur la scène entrepreneuriale et le battage médiatique autour du quantique lui-même. Cela crée une nouvelle situation unique. En raison de leur faible niveau de maturité technologique (technology readiness level, ou TRL), les start-ups de l’informatique quantique sont pour la plupart des laboratoires privés de recherche fondamentale qui font aussi des développements technologiques. Dans le monde numérique classique, dans la plupart des cas, les financements des startups couvrent le développement de produits, l’industrialisation, la création d’écosystèmes et, surtout, l’acquisition et la fidélisation de clients. Ici, les échelles qui en résultent sont époustouflantes pour les chercheurs universitaires. Les startups qui lèvent environ 20 millions de dollars peuvent créer des équipes de recherche plus importantes que la plupart des équipes de recherche financées par des fonds publics, avec plus de 50 PhDs, et avec de vrais emplois bien rémunérés, et non des CDDs de deux ans de post-docs. Les startups qui ont levé plus de 100 millions de dollars ont créé des équipes comptant des centaines de chercheurs et d’ingénieurs hautement qualifiés. Il faut également tenir compte des investissements considérables en R&D quantique des grands fournisseurs informatiques américains que je surnommerai les “IGAMI” (IBM, Google, Amazon, Microsoft, Intel). Dans certaines régions, ce phénomène peut créer une énorme fuite des cerveaux de scientifiques quantiques qualifiés. Il entraîne des changements structurels dans l’organisation de la recherche en informatique quantique. Les organismes de recherche universitaires ont désormais plus de mal à attirer et à garder de nouveaux talents. Dans de nombreux pays où les postes de chercheurs à temps plein ne sont pas nombreux, les docteurs et les post-docs qui recherchent un emploi bien rémunéré et à temps plein sont évidemment attirés par le secteur privé qui est en plein essor.

De nombreux scientifiques observent, le plus souvent en silence, tout ce battage et les événements associés. Ils peuvent se sentir dépossédés. Ils savent généralement que la mise au point d’ordinateurs quantiques utiles sera beaucoup plus difficile à réaliser que ce que les fournisseurs promettent. Ils craignent que cette surmédiatisation n’engendre un hiver quantique comme celui qui a touché l’intelligence artificielle au début des années 1990 après l’effondrement de la vague des systèmes experts. Pour leur part, les scientifiques devenus entrepreneurs se sentent obligés de laisser de côté les bonnes méthodes et pratiques scientifiques et, par exemple, de favoriser le secret au détriment de l’ouverture et, par conséquent, d’éviter l’examen de leurs travaux par leurs pairs chercheurs. C’est l’une des raisons pour lesquelles il est si difficile de comparer objectivement les divers premiers ordinateurs quantiques créés par les fournisseurs de l’industrie, des grands aux startups, avec un ensemble commun de pratiques de référence.

Spécificités de la hype quantique

En quoi le phénomène de la hype quantique est-il différent des autres hypes typiques ? Il existe de nombreuses différences, principalement liées à la dimension scientifique et à la diversité de la deuxième révolution quantique.

La principale différence réside dans la nature de l’incertitude, qui est essentiellement scientifique et non liée à la dynamique d’adoption du marché ou à certaines limites physiologiques ou à des considérations sociétales. Il est même surprenant de voir un tel engouement se développer si tôt par rapport à la maturité de la technologie, du moins pour l’informatique quantique. Il s’agit d’une situation à l’envers par rapport au monde des cryptomonnaies : il y a une demande du marché mais un faible niveau de préparation technologique (dans l’informatique quantique), contre une demande modérée du marché et un TRL relativement élevé (dans les cryptomonnaies).

La seconde est que la physique quantique est un domaine de recherche sérieux et moins sujet aux falsifications que les sciences de la vie et les sciences humaines. Ce domaine ne compte que quelques articles rétractés dans des publications scientifiques évaluées par des pairs. Une enquête publiée par Nature en 2016 a montré que la chimie, la physique et l’ingénierie étaient les domaines où la reproductibilité était la meilleure, tandis que les sciences de la vie étaient les pires. Dans certains cas, cependant, les résultats de la recherche quantique ne peuvent pas être facilement reproduits car ils sont très théoriques. C’est le cas de nombreux algorithmes quantiques qui ne peuvent être émulés classiquement qu’à une très petite échelle ou exécutés à une échelle encore plus petite sur des qubits existants. Il en va de même pour les nouveaux codes de correction d’erreurs quantiques. En plus de cela, l’accélération exponentielle du calcul quantique dépend de la création d’états superposés et intriqués d’un grand nombre de qubits, ce nombre n’ayant pour l’instant pas dépassé la trentaine.

La troisième différence est que les technologies quantiques sont extrêmement diverses. Il existe de nombreuses voies technologiques concurrentes, notamment en ce qui concerne les types de qubits qui pourraient être utilisés pour construire des ordinateurs quantiques à tolérance de panne. Bien qu’ils puissent être perçus comme lents, les progrès scientifiques et technologiques de l’informatique quantique sont constants. En outre, il existe plusieurs paradigmes concurrents en matière d’informatique quantique : le calcul quantique basé la programmation  avec des portes quantiques, le recuit quantique et la simulation quantique. Cela crée une sorte de tolérance aux pannes dans l’écosystème de l’informatique quantique. Les systèmes de simulation quantique tels que ceux de Pasqal pourraient apporter un avantage quantique plus tôt que prévu, bien avant les systèmes à base de portes quantiques. Par ailleurs, bien qu’ils ne soient pas les chouchous du monde de l’informatique quantique, le recuit quantique et D-Wave font des progrès réguliers et ce dernier a documenté à date le plus grand nombre de cas d’usage de ses systèmes (250 en tout).

Cependant, les niveaux de compréhension scientifique et technologique requis pour se forger une opinion sur la crédibilité de l’informatique quantique évolutive sont très élevés. Il en va de même dans d’autres domaines comme les télécommunications et la cryptographie quantiques. Il est plus élevé que dans toute autre discipline que j’ai pu étudier jusqu’à présent.

L’engouement actuel pour les technologies quantiques est également alimenté par certaines régions et pays qui les ont placées dans le champ de la souveraineté. Il s’agit de technologies qu’un État moderne doit être en mesure de créer ou de se procurer. Comme pour beaucoup d’autres technologies stratégiques, la concurrence géographique se joue d’abord entre les États-Unis et la Chine, l’Europe se situant ensuite entre les deux et souhaitant obtenir sa place au soleil. Les technologies quantiques sont considérées comme souveraines pour plusieurs raisons. La première concerne la cybersécurité. L’algorithme de factorisation de Peter Shor menace potentiellement la cybersécurité de la majeure partie de l’Internet ouvert. La seconde est que l’Union européenne est traumatisée par sa dépendance à l’égard des États-Unis et de l’Asie pour de nombreuses technologies numériques essentielles. L’Europe est impatiente d’obtenir sa part des technologies quantiques, en profitant d’une occasion potentielle d’égaliser les chances avec une nouvelle vague technologique, après avoir manqué la plupart des vagues numériques précédentes. La troisième est celle des “usages duaux”, où les technologies quantiques ont des usages civils et militaires. La quatrième concerne la sécurisation de l’accès aux matières premières, isotopes spéciaux et technologies habilitantes critiques.

Ces préoccupations de sécurité nationale ont tendance à exagérer les menaces, alimentant ainsi la hype quantique. Elle est sujette à la propagande, la plus forte venant de la Chine.  Elle tend également à limiter la coopération internationale et, par conséquent, à réduire la capacité à répondre aux attentes qui nécessiteraient une mobilisation mondiale coordonnée. Il est donc nécessaire de différencier ce qui relève de la recherche fondamentale partageable à l’échelle mondiale et ce qui devient stratégique et non partageable, d’autant plus que ces préoccupations apparaissent également lorsque les technologies quantiques entrent dans l’espace commercial du secteur privé.

Approches d’atténuation de la hype quantique

Les emballements technologiques sont inévitables. Mais il existe des moyens d’atténuer leurs effets les plus indésirables, comme la lenteur à fournir des résultats ou la diminution de la confiance dans les scientifiques, ce qui entraînerait un hiver qui réduirait ou supprimerait les sources de financement de la R&D des gouvernements, des investisseurs et des entreprises. Il s’agit d’une question de conduite générale pour l’ensemble de la communauté des technologies quantiques, mais aussi de certaines actions spécifiques.

Une première action en cours consiste à éduquer le public et à expliquer les progrès accomplis par les chercheurs et les entreprises. Bien que les ordinateurs quantiques utilisables pratiquement n’aient pas encore vu le jour, le champ scientifique correspondant fait beaucoup de progrès. Les fidélités des qubits s’améliorent dans nombre de leurs variétés. Le tout dans un domaine où la diversité des technologies en cours de développement est très grande. Et ces développements technologiques peuvent avoir des retombées utiles dans des secteurs hors du quantique. Par exemple, l’électronique supraconductrice (et ipso-facto basse température) permet d’envisager la création d’ordinateurs classiques à faible consommation d’énergie.

Une seconde serait de mieux cerner les défis à venir. Les critiques de l’informatique quantique doivent être écoutés. C’est un mélange de défis théoriques, scientifiques et d’ingénierie, le meilleur exemple étant les liens entre la thermodynamique quantique et la cryo-électronique. Mais ne comptez pas trop sur la baguette magique de l’ingénierie pour résoudre les défis scientifiques colossaux de l’informatique quantique.

Une troisième approche consisterait à consolider certains projets transversaux clés. En raison de leur diversité, les efforts en matière de technologie quantique sont loin d’être concentrés ou consolidés, même aux États-Unis et en Chine. Les efforts sont dispersés dans de nombreux laboratoires et fournisseurs, car de nombreuses voies technologiques différentes sont étudiées. De nombreux physiciens affirment qu’il est beaucoup trop tôt pour lancer des initiatives consolidées, étant donné le manque de maturité de la physique des qubits. Il existe des domaines où cela aurait cependant du sens, comme la cryo-électronique, la connectique pour associer plusieurs processeurs quantiques avec des liens photoniques et l’énergétique des technologies quantiques. Pouvons-nous garantir que les ordinateurs quantiques apporteront un avantage énergétique et que leur évolutivité ne sera pas bloquée par des contraintes énergétiques ? Ce sont des cas parfaits où la science et l’ingénierie multidisciplinaires sont nécessaires. Les équipes chargées du matériel et des logiciels auraient également intérêt à travailler plus étroitement ensemble. À un moment donné, la création d’un ordinateur quantique tolérant aux pannes ressemblera davantage à la construction d’un avion de ligne ou d’un réacteur de fusion nucléaire comme ITER qu’à la création d’une expérience de physique à petite échelle. Il faudra alors une coordination et une collaboration internationales beaucoup plus importantes pour assembler le tout de manière cohérente.

Une quatrième approche consisterait à créer et adopter des moyens rationnels de comparaison des performances des ordinateurs quantiques d’un fournisseur à l’autre et dans le temps. Le volume quantique d’IBM a été une première tentative, lancée en 2017 et adoptée en 2020 par Honeywell et IonQ. Il est cependant un peu confus, notamment parce qu’il ne peut être évalué dans un régime de suprématie ou d’avantage quantique, puisqu’il nécessite une émulation sur du matériel classique. Il est important que les fournisseurs acceptent la mise en œuvre d’outils de référence tiers pour créer une certaine forme de confiance, comme le Q-Score d’Atos. Ces outils d’évaluation conduiront à la création de classements d’ordinateurs quantiques comme le Top500 HPC. À un moment donné, nous devrons également créer des repères et des classements axés sur l’énergie, afin de garantir que la mise à l’échelle des ordinateurs quantiques ne se fasse pas au prix de coûts énergétiques astronomiques.

Enfin, il faut répondre aux exigences de l’éthique scientifique et technologique. Il ne devrait pas s’agir pas d’une réflexion après coup, étudiée uniquement lorsque la technologie est prête à inonder le marché. Cela commence par l’étude des problèmes éthiques et sociétaux potentiels créés par les technologies quantiques à l’aide de méthodologies d’évaluation des technologies et peut ensuite conduire à des approches de recherche et d’innovation responsables qui prennent en compte l’éthique, les valeurs sociétales et les impératifs dès le début, comme la lutte contre le changement climatique. Elle tente d’anticiper les conséquences involontaires de l’innovation avant qu’elle ne se produise, même si les processus d’innovation sont par nature désordonnés et imprévisibles et lorsque les perspectives des technologies quantiques sont polluées par des affirmations sauvages hors normes. Elle peut également conduire à la création de nouvelles réglementations, par exemple en matière de protection de la vie privée. Elle devrait également inclure la question des ressources comme les matières premières et l’énergie. Il s’agit là de contraintes inévitables, d’autant plus que les matériaux sont limités et que la production d’électricité a toujours un coût important en termes d’émissions de CO2.

En tout état de cause, cette hype du calcul quantique sera convenablement absorbée lorsque la majorité des parties prenantes aura bien intégré le fait qu’il s’agit d’une quête au long terme qui durera peut-être plusieurs décennies. La patience sera une vertu pour toutes les parties prenantes, notamment les gouvernements, les investisseurs et les entreprises.

RRR

 
S
S
S
S
S
S
S
img
img
img

Publié le 9 février 2022 Post de | Actualités, Quantique | 14328 lectures

PDF Afficher une version imprimable de cet article     

Reçevez par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img


Ajouter un commentaire

Vous pouvez utiliser ces tags dans vos commentaires :<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> , sachant qu'une prévisualisation de votre commentaire est disponible en bas de page après le captcha.

Last posts / derniers articles

Free downloads

Understanding Quantum Technologies 2023, a free 1,366 pages ebook about all quantum technologies (computing, telecommunications, cryptography, sensing) also available in paperback edition on Amazon:

image

Free downloads

Understanding Quantum Technologies 2023 Short version, a 24 pages with key takeaways from the eponymous book.

image

Voir aussi la liste complète des publications de ce blog.

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
QFDN
Expo
791 photos
albth
Remise Légion d'Honneur Philippe Herbert Jul2021
2021
15 photos
albth
Vivatech Jun2021
2021
120 photos
albth
Visite C2N Palaiseau Mar2021
2021
17 photos
albth
Annonce Stratégie Quantique C2N Jan2021
2021
137 photos
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Elle circule dans différentes manifestations. L'initiative rassemble près de 800 femmes du numérique (en janvier 2022) et elle s'enrichit en continu. Tous les métiers du numérique y sont représentés.

Les photos et les bios de ces femmes du numérique sont présentées au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Gaëlle Rannou
Gaëlle est étudiante à 42 Paris et tutrice de l’équipe pédagogique (en 2021).
flow
Jehanne Dussert
Jehanne est étudiante à l'école 42, membre d'AI For Tomorrow et d'Open Law, le Droit ouvert. Elle est aussi fondatrice de "Comprendre l'endométriose", un chatbot informant sur cette maladie qui touche une personne menstruée sur 10, disponible sur Messenger. #entrepreneuse #juridique #santé
flow
Chloé Hermary
Chloé est fondatrice d'Ada Tech School, une école d'informatique alternative et inclusive dont la mission est de former une nouvelle génération de talents diversifié à avoir un impact sur le monde. #entrepreneuse #formation
flow
Anna Minguzzi
Anna est Directrice de Recherche au CNRS au Laboratoire de Physique et Modélisation des Milieux Condensés (LPMMC) à Grenoble. #quantique
flow
Maeliza Seymour
Maeliza est CEO et co-fondatrice de CodistAI, qui permet de créer une documentation du code informatique par une IA.
flow
Candice Thomas
Candice est ingénieure-chercheuse au CEA-Leti, travaillant sur l’intégration 3D de bits quantiques au sein du projet Quantum Silicon Grenoble. #recherche #quantique
flow
Stéphanie Robinet
Stéphanie dirige un laboratoire de conception intégrée de circuits électroniques du CEA-Leti qui travaille sur des systèmes sur puces intégrés, des interfaces de capteurs, des interfaces de contrôle de qubits et de la gestion intégrée de l'énergie. #recherche #quantique
flow
Sabine Keravel
Sabine est responsable du business development pour l’informatique quantique chez Atos. #quantique #IT
flow
Céline Castadot
Céline est HPC, AI and Quantum strategic project manager chez Atos.
flow
Léa Bresque
Léa est doctorante, en thèse à l'institut Néel du CNRS en thermodynamique quantique, sous la direction d'Alexia Auffèves (en 2021). #quantique #recherche
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture. #création
flow
Elvira Shishenina
Elvira est Quantum Computing lead chez BMW ainsi que présidente de QuantX, l'association des polytechniciens du quantique. #quantique
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble. #recherche
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo. #création #jeuvidéo
flow
Alexandra Ferreol
Alexandra est étudiante d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020) #création #jeuvidéo
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020. #création #jeuvidéo

Derniers commentaires

“[…] to Olivier Ezratty, author of Understanding quantum technologies 2023, the challenge for Europe is to position itself outside of where the US and China are likely end up...”
“Désolé, je suis passé à l'anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d'une langue à l'autre est un travail herculéen, même avec des outils de traduction automatique. Sachant...”
“Je suis un artiste conceptuel, certes je garde la grande majorité de mon travail dans ma tête par défaut d'un grand mécène. Mon travail de base se situe sur le "mimétisme" qui mène aux itérations et de nombreux...”
“Better than a Harry Potter! Thanks Olivier...”
“J'ai bien aimé le commentaire sur le film Openheiner avec l'interrogation du chercheur sur l'utilisation de ses découvertes. En continuation de ces propos, je propose d'écouter le débat suivant qui m'a semblé...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img