J’assistais le 7 novembre 2024 au ministère de la recherche et de l’enseignement supérieur à Paris à un séminaire de présentation du programme de “recherche à risque” lancé par l’État fin 2023. J’y étais invité en tant que membre du comité d’experts de sélection des projets à risque du Programme Inria Quadrant (PIQ), Inria étant l’un des organismes nationaux de recherche (ONR) impliqués dans cette démarche, en parallèle avec le CEA, le CNRS, l’INRAE et l’Inserm.
Ce programme de financement de la recherche à risque opéré par les 5 ONR a été doté de 150M€ dans le préprojet lancé fin 2023, un renouvellement étant planifié au printemps 2025, avec une dotation prévue de 300M€. A ce stade d’expérimentation, 90 projets ont été retenus dont 17 en « transformation » (structurants et plus lourds et avancés) et 73 en « exploration » (orientés plutôt amorçage). Le programme est piloté conjointement par le ministère de la recherche et le SGPI (France 2030). Le CNRS dispose de 40M€ pour des projets de l’ordre de 2M€ dans le cadre de (RI)² (détails). L’Inserm est doté de 30M€ pour son projet Impact Santé (détails). Côté INRAE, il s’agit du programme EXPLOR’AE avec 20M€ (détails). 40M€ sont alloués au CEA pour son programme “Audace !” (détails).
Chez Inria, PIQ est doté d’un financement annuel de 20M€ et est intégré dans l’Agence de programmes Numérique – algorithmes, logiciels et usages – d’Inria, dirigée par Sophie Proust. Il vise à soutenir la “prise de risque scientifique et adresser les enjeux actuels et futurs de la recherche et de l’innovation dans le numérique et par le numérique“. Les projets, souvent relevant du développement de logiciels spécialisés, sont financés à hauteur de 10K€ à 400K€ par an et jusqu’à 4 ans, ce qui donne des projets pouvant être financés jusqu’à 1.6 M€, soit le niveau d’un ERC Starting Grant (1.5M€). Ils aident en général un seul chercheur. Pas besoin d’équipe ou de consortium compliqué à monter !
Que sont ces projets de recherche à risque et comment se distinguent ils de la recherche publique traditionnelle, qu’elle vienne d’organismes tels que le CNRS, le CEA, d’autres organismes de recherche nationaux et des Universités ? On rentre ici dans un labyrinthe sémantique entre recherche scientifique fondamentale, recherche appliquée, développement technologique et innovation.
La terminologie officielle est documentée dans le Manuel de Frascati de l’OCDE (2015-2016, 448 pages) ainsi que dans le Guide du Crédit Impôt Recherche (2023, 90 pages). Le premier sert à harmoniser les pratiques de financements publics et privés de la R&D entre pays membres de l’OCDE (subventions, JEI, CIR, …) et à en normaliser la collecte de statistiques (y compris dans les sciences humaines, que je n’évoque pas dans ce texte et ne sont pas concernées par le programme lancé par le gouvernement). Le second met cela en musique sur un dispositif particulier de financement indirect de la recherche dans les entreprises.
Cette nomenclature est toujours sujette à débats, notamment sur la distinction entre recherche fondamentale et recherche appliquée, qui est plus ou moins observable et/ou revendiquée par les chercheurs et ONR selon les domaines. Je me suis dit que cela valait le coup de creuser un peu la question. Et cela ne va pas vous surprendre, je vais souvent prendre l’exemple du quantique pour illustrer le propos, mais aussi celui du logiciel.
Recherche fondamentale
La recherche fondamentale vise à “acquérir de nouvelles connaissances sur les fondements des phénomènes et des faits observables” (définition OCDE Frascati). Elle associe la théorie et l’expérimentation mais sans que les cas d’usage pratiques ne soient forcément connus ou prédéterminés à l’avance.
Cette notion est associée à une forme de grande liberté laissée aux chercheurs d’explorer des domaines plus ou moins connus et établis. Ils la revendiquent en général avec force. On compte sur la sérendipité pour qu’elle se transforme éventuellement en technologies et innovations. Cet aspect “fondamental” peut aussi provenir de l’intention même du chercheur qui n’ambitionne pas forcément de communiquer sur ses travaux, ni à investir dans l’exercice de vulgarisation vis à vis du grand public. D’autres chercheurs faisant du “fondamental” peuvent tout de même s’intéresser aux applications potentiellement associées à leurs travaux, et notamment sous les angles philosophiques et éthiques.
La recherche fondamentale développe le champ des connaissances, des modèles théoriques sur les fondements de phénomènes naturels ou artificiels observables ou pas (physiques, biologiques, astronomiques, sociétaux) et comprend aussi la partie expérimentale associée qui permet de valider des théories ou a contrario de les inspirer. Par exemple, dans l’histoire de la physique, le processus est intervenu dans les deux sens. Le rayonnement du corps noir a été observé au 19e siècle et décrit théoriquement par Max Planck en 1900. De même, l’effet Zeeman normal et anormal qui générait des raies spectrales d’excitation d’atomes d’hydrogène sous l’effet d’un champ magnétique a été découvert expérimentalement en 1896 et n’a été expliqué par la théorie de la physique quantique qu’environ 30 ans plus tard (1925-1927) avec le formalisme des quatre nombres quantiques définissant l’état quantique d’un électron (l’expérience précède la théorie). A l’envers, la dualité onde-particules de l’électron et autres particules massives formulée par Louis de Broglie en 1924 a été validée expérimentalement avec l’expérience de Germer et Davisson de 1927 avec la diffraction d’électrons dans un cristal (la théorie précédant la validation expérimentale). La théorie de la relativité générale (1915) a été validée progressivement, d’abord avec la découverte de l’avance du périhélie de Mercure en 1919 puis, jusqu’à l’observation d’ondes gravitationnelle en 2015. Les applications pratiques de tous ces travaux sont arrivées bien plus tard, après la seconde guerre mondiale, comme avec l’invention du transistor en 1947 et l’ère du numérique qui s’est inexorablement développée depuis lors.
La recherche fondamentale associe souvent des théoriciens et des expérimentateurs, certains cumulant les deux en même temps ou dans leur parcours, en passant de l’un à l’autre. En physique quantique, la recherche fondamentale comprend de nombreux domaines comme la physique de la matière condensée ou la photonique quantique. Cette recherche fondamentale existe aussi en mathématiques et en informatique, comme sur la théorie des groupes, des langages, ou dans le vaste champ des fondements de l’intelligence artificielle.
Par essence, la recherche est en général risquée, sinon, ce n’est pas de la recherche ! C’est particulièrement vrai lorsqu’une expérience doit valider une théorie. Les figures de mérite théoriques peuvent ne pas être vérifiées expérimentalement ce qui va remettre en cause l’expérience ou la théorie ou les deux. L’expérimentation requiert de l’ingénierie, réalisée soit en interne dans les laboratoires, soit par intégration de technologies du marché. La recherche fondamentale s’insère dans un cercle vertueux où l’expérimentation fait appel à des technologies nouvelles issues très souvent d’acteurs industriels qui ont eux-mêmes développé leurs produits en faisant appel à des chercheurs et des ingénieurs.
De manière extrême, la recherche fondamentale est qualifiée de “recherche qui ne sert à rien” (useless science) par Serge Haroche qui le soulignait dans son intervention à Lindau en juillet 2024 dans le panel auquel je participais sur la “quantum hype”. Comme si la “science noble” ne devait pas avoir d’applications. Le terme de “blue sky research” est moins dépréciateur. Alain Aspect a de son côté une position inverse, se faisant l’ardent promoteur d’une recherche qui mène à des applications. D’où sa forte implication dans l’écosystème entrepreneurial en France (Pasqal, Quandela, Welinq). Il avait d’ailleurs participé à la création du programme expérimental de recherche à risque OH RISQUE entre 2013 et 2014 qui était piloté par l’ANR. Le risque administratif aidant, ce programme n’avait pas fait long feu.
Recherche appliquée
La recherche appliquée vise à créer un premier pont avec les applications tout en conservant une part variable de risque scientifique selon les domaines. La recherche fondamentale peut être directement associée à de la recherche appliquée, avec des cas d’usage.
Des organismes tels que la Direction de la Recherche Technologique au CEA avec le Leti et le LIST ont en charge de réaliser des développements technologiques pouvant être exploités ensuite par des industriels. C’est pour cela que dans la nomenclature internationale, on les appelle des RTO (Research and Technology Organizations). Ils complètent les travaux de recherche fondamentale réalisés par les équipes de la Direction de la… Recherche Fondamentale du CEA. C’est elle qui pilote le programme de recherche à risque du CEA.
Un bon exemple de recherche appliquée est la technologie FD-SOI codéveloppée entre le CEA-Leti et STMicroelectronics qui a permis de créer des puces électroniques à faible consommation d’énergie et est notamment utilisée côté fabrication par STMicroelectronics, GlobalFoundries et Samsung. On la retrouve même derrière les qubits développés par la startup Quobly à Grenoble.
Le jour où l’on trouve des idées d’applications, d’autres se chargent de leur donner vie dans le cadre du développement technologique assuré par les entreprises de toute taille, startups comprises. Le processus combinant succès et échec existe autant dans la recherche que dans le monde des startups technologiques mais pas pour les mêmes raisons. Un échec dans la recherche a souvent des raisons scientifiques et relevant éventuellement des limites de l’ingénierie existante. Dans les startups, il s’agit à la fois d’échecs dans la création d’un produit avec les bonnes caractéristiques techniques et économiques, et la capacité à le faire connaître puis à le vendre en volume et de manière profitable.
Cependant, dans le cas des technologies quantiques, les startups créant des ordinateurs quantiques mènent en parallèle des travaux de recherche en partie fondamentale, en liaison avec les laboratoires de recherche publique dont elles sont habituellement issues, de la recherche appliquée et du développement technologique qui va jusqu’à la mise en place de processus d’industrialisation. C’est par exemple le cas de Quandela, en association avec le laboratoire C2N du CNRS et de l’Université Paris-Saclay. Cela accentue le risque global qui est porté par ces startups.
Les projets de recherche appliquée comprennent souvent une forte dose de création et d’exploitation d’outils logiciels de simulation numérique. Cette simulation va de celle de la matière quantique pour la création de matériaux innovants jusqu’à divers cas d’usage du machine learning, comme en biologie moléculaire. La simulation numérique est une “enabling technology” transversale à tout le cycle de l’innovation et de la recherche. Au niveau le plus bas et proche de la recherche fondamentale, on simule la physique quantique, à un niveau intermédiaire, on simule des circuits semiconducteurs avec différents niveaux d’abstraction, et au niveau le plus macroscopique et de l’ordre de l’ingénierie, on simule de systèmes et produits complets avec des outils tels que CATIA et Enovia de Dassault Systèmes. A charge pour les évaluateurs d’apprécier la notion de risques dans la création de ces outils exploités dans le cadre de travaux de recherche. C’est d’ailleurs dans ce contexte que les ordinateurs quantiques pourraient apporter le plus de valeur lorsqu’ils deviendront opérationnels.
L’intégration entre recherche fondamentale et recherche appliquée dépend des domaines, des habitudes et des structures des équipes de recherche. Dans les échanges que j’ai pu avoir dans les milieux de la recherche côté physique quantique et côté logiciels, je constate une vue différente sur la question. Chez les physiciens, la différence entre les deux est assez marquée tandis que dans l’univers du numérique et du logiciel, la volonté est d’éviter de les cloisonner.
Qui plus est, la liaison entre les deux n’est pas bijective. Dans de nombreux cas de recherche intégrative, des projets de recherche appliquée peuvent exploiter de la recherche fondamentale provenant de différents domaines et équipes. La création d’équipes pluridisciplinaires l’encourage. Les écosystèmes d’innovation associant chercheurs de différents domaines et entreprises, et la transdisciplinarité, sont de bons ingrédients de cette transformation ou lien entre recherche fondamentale en recherche appliquée. Dans la pratique, les équipes transdisciplinaires sont plus faciles à constituer dans les startups deeptechs qui, bien financées, atteignent la masse critique le permettant. Il est généralement plus aisé de créer des équipes pluridisciplinaires associant chercheurs et ingénieurs dans des startups que dans des laboratoires de recherche.
Le Programme Inria Quadrant s’inspire de la notion de “quadrant de Pasteur” qui est une sorte de variante du quadrant magique du Gartner Group, appliqué à la recherche (source du schéma ci-dessous). Il illustre la distinction entre recherche fondamentale pure (jaune, à la Bohr, que l’on retrouve aussi dans la recherche sur les fondements de la physique quantique, aka “quantum foundations”), recherche appliquée pure (à la Edison) et recherche intégrant les deux (vert, à la Pasteur). Le souhait est donc d’être si possible dans le vert, mais dans la recherche à risque, les autres couleurs ne sont pas pour autant exclues de la démarche, y compris le gris relevant de la recherche expérimentale totalement informelle (tinkering) qui présente un côté empirique et moins formel que la recherche académique classique (exemple). Les startups du calcul quantique sont clairement dans le carré vert, notamment lorsqu’elles sont poussées par leurs investisseurs à explorer des cas d’usage de leurs processeurs quantiques même s’ils sont loin d’être au point.
Recherche à risque
François Germinet (SGPI) et Philippe Gillet (président du conseil scientifique de l’INRAE) étaient chargés de définir ce concept dans le séminaire. Le point de départ est un phénomène mondialement observé d’un paradoxe : la production scientifique augmente régulièrement mais les disruptions générées s’amoindrissent. C’est en tout cas l’observation présentée dans Papers and patents are becoming less disruptive over time par Michael Park, Erin Leahey et Russell J. Funk dans Nature en 2023 (23 pages). Les auteurs utilisent un indicateur, le “CD index” pour évaluer la nature consolidatrice ou disruptrice de la science et de la technologie en analysant les liens entre papiers scientifiques et dépôts de brevets. Cela part d’un présupposé selon lequel plus un papier ou un brevet est disrupteur, moins le travail qui en découle est susceptible de citer les travaux antérieurs. Cette hypothèse analytique est-elle validée empiriquement ? Cela dépend probablement des domaines considérés. Elle est en tout évoquée depuis longtemps, comme dans Science Is Getting Less Bang for Its Buck par Patrick Collison et Michael Nielsen dans The Atlantic en 2018.
Donc, l’État souhaite générer plus de recherche disruptive, qui sorte des clous, tout en limitant les risques associés pour maximiser les chances de réussite. Il s’agit de valoriser les solutions innovantes, perçues comme étant folles avec le regard actuel (on fait souvent allusion aux lanceurs réutilisables de SpaceX). Ces programmes souhaitent créer des conditions favorables pour la recherche.
L’ambition est d’acculturer les chercheurs au risque alors qu’ils travailleraient “sans risque” pendant plus de 40 ans. C’est une vision simpliste des choses. La recherche que je connais, en tout cas dans le quantique, est compétitive. Il faut se battre scientifiquement pour se faire reconnaître par ses pairs et administrativement pour financer ses travaux et aussi constituer ses équipes. Malgré tout, au niveau des thésards, la recherche fondamentale, au niveau théorique comme expérimental, a généralement un aspect très continu et incrémental. Dans les laboratoires de physique quantique que je connais, les travaux s’enchaînent pour améliorer diverses figures de mérite théoriques puis expérimentales comme la fidélité des qubits, l’efficacité de sources ou détecteurs de photons, avec l’apparence d’un déterminisme assez fort. De près, ce n’est pas forcément vrai. Il faut par exemple faire preuve de beaucoup d’imagination “out of the box” pour améliorer la qualité de la création de cluster states de photons intriqués ou imaginer des mécanismes de correction d’erreurs plus efficaces et moins gourmands en ressources.
Par contre, à l’instar de ce qui se passe plutôt dans le secteur privé, il est bon d’équilibrer de manière judicieuse la persistance et la remise en cause. Il faut savoir accepter que les projets qui échouent soient courts et renouvelés pour tester d’autres pistes, une fois que l’on a bien compris les raisons des échecs et identifié des méthodes alternatives.
Faut-il être conformiste pour réussir dans le cadre actuel ? Je ne me prononcerai pas trop. Par contre, les processus de sélection des dossiers dans les différents guichets (ANR, PEPR, stratégies d’accélération, guichets Européens comme les ERC) n’échappent pas aux phénomènes de mode et aux limitations des comités de sélection et d’évaluation, sans compter d’éventuels conflits d’intérêt entre équipes concurrentes. La véritable innovation serait de réduire la charge administrative qui pèse sur les chercheurs, alors que chaque nouveau dispositif a tendance à faire empirer la situation. Une autre innovation consisterait à sélectionner des chercheurs qui génèrent des évaluations de “referees” à fort écart type dans les revues à comité d’auteurs, comme le suggèrent Michael Nielsen et Kanjun Qiu dans leur essai A Vision of Metascience publié en octobre 2022. Une disruption peut en effet être identifiée du fait qu’elle ne génère pas un consensus.
Un point clé semble être d’encourager les chercheurs qui ont un poste à temps plein entre entre la trentaine et la quarantaine à prendre des risques pour explorer des chemins originaux, qu’ils aient des applications ou pas. Alain Aspect est l’archétype du chercheur de ce genre. Il a réalisé ses fameuses expériences sur les inégalités de Bell entre 1973 et 1982, qui n’intéressaient pas grand monde, entre l’âge de 26 et 35 ans, alors qu’il avait un poste de chercheur à temps plein. Cela lui a valu de devenir lauréat du prix Nobel de physique 40 ans plus tard. Le plus important n’est pas seulement dans cette reconnaissance méritée. Il est dans les applications pratiques qui ont émergé longtemps après et ont amené au développement des technologies quantiques des les capteurs, la cryptographie, les communications et le calcul quantiques.
Une forme de prise de risque pour un chercheur peut aussi consister à faire un pas de côté en choisissant d’exploiter ses compétences dans un domaine adjacent au sien. On peut ainsi imaginer de nombreux ponts entre l’informatique traditionnelle et l’informatique quantique, entre les mathématiques et la physique, entre les communications quantiques et l’interconnexion entre ordinateurs quantiques, ou encore entre électronique radiofréquence et contrôle des qubits. Cette pollinisation croisée dans le champ scientifique est souvent porteuse de créativité. Par contre, il faut que les dispositifs d’accompagnements acceptent le fait que pendant plusieurs années, le chercheur qui a changé de domaine ne publie pas beaucoup. Pour contourner cet écueil, le risque peut être équilibré par le chercheur en affectant une partie de son équipe à des recherches plus classiques.
Cette notion de recherche à risque n’existe pas que dans le monde académique. Elle a aussi court dans le secteur privé. Je pense en particulier à la recherche fondamentale historique des Bell Labs – maintenant chez Nokia – d’où sont sortis la théorie de l’information et les débuts de l’IA avec Claude Shannon, les transistors, Unix, la découverte le fonds diffus cosmologique et l’algorithme de Shor, et qui travaille aussi discrètement sur les qubits de Majorana, IBM (avec les fractales de Benoit Mandelbrot, ses paris sur le calcul supraconducteur, puis sur le calcul quantique, DeepBlue, son IA Watson), Microsoft (avec ses investissements sur l’IA depuis le début des années 1990 et ses qubits topologiques bien difficiles à mettre au point), Hewlett-Packard (avec les memristors, et le calcul optique) et tant d’autres.
Processus de sélection des projets
A l’instar des PEPR (programmes et équipements prioritaires de recherche), la gestion de ces programmes de recherche à risque est déléguée aux ONR. Chacun met en place sa propre gouvernance.
Je connais donc celle d’Inria et du programme PIQ qui s’appuient sur une équipe de permanents qui préfiltre les dossiers de chercheurs qui ne font que quelques pages. Environ trois experts du comité d’experts pluridisciplinaire dont je fais partie, ainsi qu’un expert externe, examinent ces dossiers puis délibèrent pour y donner suite ou pas. Si suite il y a, le chercheur candidat est auditionné dans une séance suivante puis la décision est prise. C’est généralement un chercheur attitré. Il n’est pas forcément chercheur chez Inria. C’est un processus voisin et plus léger que celui que j’avais vécu lorsque je participais au processus de sélection de startups pour Scientipôle Initiative (maintenant Wilco), une structure d’accélération de startups franciliennes.
Le programme de financement de la recherche à risque semble être axé en priorité sur la recherche appliquée et avec des applications pratiques “à impact“. Cependant, il n’y a pas d’exclusion a priori de la recherche fondamentale. Celle-ci peut être proposée de manière indépendante, ou associée à de la recherche appliquée avec un cas d’usage en tête.
Cela dépend des ONR. Le CNRS affiche faire de la recherche fondamentale tandis que les autres tels que le CEA, Inria et l’INRAE (agriculture et environnement) semblent plus proches des applications. François Jacq du CEA indiquait que ce programme permettait d’ouvrir de nouveaux espaces de liberté. Il permet notamment de financer des projets originaux qui se sont vus éjectés par tous les guichets pour tout un tas de raison. Dans le cas du CNRS, seulement 40% des porteurs de projets en sont issus. Le reste venant principalement des Universités. Un autre objectif est de faire émerger des chercheurs plus polyvalents. Chez Inria, le programme PIQ permet à des chercheurs ayant des idées un peu hors des clous habituels de trouver un financement pouvant aller comme déjà vu jusqu’à 1,6M€ pour financer des moyens matériels, logiciels, du temps de calcul, des voyages, conférences, et éventuellement des ressources humaines complémentaires, post-dic compris.
La motivation de l’État est de fluidifier le cycle qui va de la recherche fondamentale aux cas d’usage, avec l’impact économique associé. C’est le champ “de l’innovation” au sens économique du terme. L’État a souvent une vision utilitaire de la recherche et cherche à la valoriser économiquement aussi rapidement que possible. C’est le corollaire de la volonté de création de startups deeptechs issues des laboratoires de recherche.
Les chercheurs travaillant dans la recherche fondamentale se plaignent régulièrement de la complexité du financement de leurs travaux. Cela passe par des appels à projets ANR, des appels à projets de stratégies d’accélération comme dans le quantique avec son propre PEPR (programmes et équipement prioritaires de recherche), et des appels à projets et concours européens (ERC, bourse Marie Curie, …). En pratique, les chercheurs passent une bonne part de leur temps à remplir des dossiers pour financer aussi bien leurs doctorants que leurs post-doctorants. C’est épuisant et cela grève leur temps utile pour réaliser leurs travaux de recherche. Ce phénomène n’est pas spécifique à la France mais il y est particulièrement exacerbé. Dans le cas du programme PIQ, et probablement aussi chez les autres ONR, la charge administrative est limitée avec un dossier de seulement 5 pages pour faire acte de candidature et pas de reporting financier. L’attente est de générer un résultat scientifique et une avancée dans la connaissance.
Histoire de fournir des ordres de grandeur, les PEPR adossés aux stratégies nationales d’accélération sont dotés de 1.4Md€ dont 150 M€ pour le quantique et 73M€ pour l’IA et 65M€ sur la cybersécurité. Ils sont complétés de PEPR exploratoires à hauteur de 1Md€ dont 40M€ pour le numérique dans l’exascale. Ces PEPR sont cogérés par les ONRs en relations avec les équipes de chercheurs. Cette “recherche dirigée” porte sur des domaines déjà établis et reconnus et est souvent sélectionnée en raison de domaines d’applications déjà bien identifiés, et avec des critères de choix stratégiques qui peuvent par exemple relever de la souveraineté numérique.
Facteurs de risques
Quelle est la nature des risques qui sont considérés dans la sélection des projets ? S’agit-il de risques au niveau de la science, et donc de la recherche fondamentale, au niveau de la recherche appliquée, de l’ingénierie, ou de l’industrialisation ?
Le premier facteur de risque à prendre en compte et à accepter de manière avisée est humain. Est-ce que la personnalité des chercheurs peut les pénaliser pour se financer ou créer des équipes de manière traditionnelle, au point que cela vaille la peine de les aider avec des procédures d’exception ? Empiriquement, on peut en effet trouver des chercheurs ayant des lacunes côté communication interpersonnelle et travail en groupe mais qu’il faudrait tout de même encourager. La dimension humaine comprend aussi l’entourage du chercheur et sa hiérarchie qui peut encourager ou pas la recherche disruptive. Un autre risque est financier : est-ce que cette recherche à risque sera financée suffisamment longtemps pour générer des résultats probants. Les cycles administratifs ne sont pas toujours alignés avec ceux de la recherche, notamment expérimentale.
La sélection des projets de recherche “à risque” est un peu schizophrène : on cherche à la fois un risque élevé et à le minimiser. Et cette schizophrénie est transmise aux chercheurs eux-mêmes. Il est aussi délicat d’apprécier sans connaissance de cause l’état de l’art d’un domaine et le bienfondé de la demande. Parfois, il peut s’agir de réinventer la roue. Dans d’autres cas, plus pertinents, la recherche est suffisamment originale pour être digne d’intérêt, mais pour tout un tas de raisons, pas adaptée aux processus de financement habituels.
Cette notion de recherche à risque mériterait d’être creusée sous plusieurs angles complémentaires :
- La définition d’un cadre théorique sur la notion de risque. Le risque dans la recherche prend de nombreuses formes. L’équilibre dans la recherche fondamentale entre approches théoriques et expérimentales mérite réflexion. C’est évidemment le cas en physique, mais ça l’est aussi dans le domaine du logiciel. La recherche en logiciels et algorithmes peut paraître plus expérimentale et technologique que théorique et pourtant, dans de nombreux domaines, des approches nouvelles pourraient être favorisées. Cela concerne par exemple la théorie des langages, les classes de complexité (dans le cadre du calcul quantique), les notions de vérifiabilité, etc.
- Un benchmark international. On pense souvent immédiatement aux programmes de la DARPA. Ils relèvent en général de la recherche appliquée et du développement technologique. Le programme français semble plutôt couvrir l’amont du périmètre actuel de la DARPA, la recherche fondamentale générique étant plutôt financée par la NSF aux USA. Les financements européens type ERC et bourse Marie Curie peuvent recouvrir les objectifs du programme français, mais ce dernier semble plus souple et offrir plus de chances de succès de financement aux chercheurs, avec un processus de sélection plus simple. Ceci étant, les meilleurs chercheurs arrivent en général à obtenir un ERC, en tout cas, dans le quantique.
- La création d’indicateurs de disruption. Est-ce que le CD Index de l’article de Nature est le bon ? Cela mérite ample réflexion.
- Les effets de bord de cette nouvelle poche de financement qui s’ajoute aux autres, déjà nombreuses. La France est reine de la création de processus complexe et en comitologie. Quels effets de bord indésirables pourraient être générés par ce nouveau processus ? Est-ce que l’efforts est trop positionné sur les usages au détriment de la recherche fondamentale ? Quels “hacks” vont être imaginés par les chercheurs ? La notion de ‘RANA’ (Recherche Appliquée Non Applicable) est parfois évoquée, qui qualifie des recherches où les applications sont un prétexte plutôt qu’un véritable objectif.
- L’évaluation du risque dans la sélection des projets, et notamment le rapport entre risque et disruption potentiels. Les projets déjà financés listés un peu plus loin comprennent un mélange de sujets véritablement disrupteurs et de sujets courants. Dans certains ONR, le processus de financement semble s’appliquer à des projets déjà bien engagés et pas à des idées véritablement nouvelles.
- Comment encourager les chercheurs à mener plus de recherches à risque ? Est-ce juste une question de processus de financement ? Quels sont les éléments culturels à faire évoluer dans le monde de la recherche académique. C’est une question de sciences humaines !
- L’analyse des échecs peut aussi servir à guider l’action publique. Au début des années 2010, les Failcon (fail conferences) étaient à la mode dans la sphère des startups pour non pas valoriser les échecs en tant que tels, mais en tirer des leçons. Et aussi pour démontrer que les entrepreneurs qui avaient échoué se recyclaient bien en général. Cependant, l’approche analytique des échecs ne permet pas de les éliminer car la recherche évolue dans un monde qui change en permanence, aussi bien sur les dimensions scientifiques que technologiques, sociales et réglementaires. Une bonne part des grands échecs de la R&D française et internationale n’était pas liée à des questions purement scientifiques mais plus à des aspects technologiques, économiques, d’écosystèmes ou de différentiation. On a par exemple en tête le plan calcul de 1967, le Minitel, les difficultés autour d’ITER, ou les retards répétés qui ont affecté le lancement du James Web Space Telecope (JWST), qui a heureusement échappé aux coupes budgétaires aux USA. Quelques échecs purement scientifiques comprennent l’intelligence artificielle symbolique et les systèmes experts, la fusion froide ou les premières thérapies géniques.
J’ajouterai ici un point de nuance important : la distinction entre le risque pris par un chercheur dans le choix de ses sujets et le risque qu’il peut éventuellement prendre en se lançant dans la création d’une startup. L’Etat encourage en effet aussi les chercheurs dans cette direction. Les deux sont-ils liés ? Pas forcément. Un chercheur qui reste dans le monde académique peut prendre des risques scientifiques. Cela affectera ou pas sa carrière de scientifique. Les chercheurs qui émergent dans cet écosystème ont cependant la caractéristique d’avoir eu le nez creux avant les autres. On retrouve cela chez les lauréats du prix Nobel de physique tout comme ceux qui ont obtenu une médaille au CNRS.
Le risque pris lors de la création d’une startup est différent et plus large. Dans les deep techs, il est réparti sur un plus grand nombre de facteurs : scientifiques (en tout cas, dans le quantique), technologiques, marketing, économiques et surtout, humains, dès que la société commence à lever des fonds et à embaucher. Il y a cependant de fortes chances qu’un chercheur ayant pris des risques académiques puisse être mieux préparé à s’adapter aux risques de la création de startup. Et une recherche à risque aura potentiellement plus de chances de créer une différenciation utile pour la startup qui en résultera, si elle est bien adaptée aux besoins latents ou reconnus d’une masse critique de clients potentiels.
De la difficulté de modéliser le cycle de la recherche
Le schéma “maison” ci-dessous tente un positionnement des différentes étapes qui vont de la recherche fondamentale aux produits et fournit quelques exemples de facteurs de risques pour chaque étape. Les risques humains n’y sont pas mentionnés et existent à tous les étages. Les trois premières étapes (recherche fondamentale, recherche appliquée et développement expérimental) sont définies dans le Manuel de Frascati de l’OCDE déjà cité.
Le programme de recherche à risque lancé par l’État semble couvrir les trois premières étapes de ce cycle. En plus de la recherche fondamentale et appliquée, il comprend le développement expérimental. Les expérimentations ont lieu aussi bien en recherche fondamentale, en recherche appliquée que dans le développement expérimental. En recherche fondamentale, elles visent soit à explorer des mécanismes ou principes nouveaux, sans application immédiate, soit à valider une théorie nouvelle. En recherche appliquée, elles valident une application précise mais en conditions de laboratoire (on pense aux tables optiques dans le cadre de la photonique quantique et du contrôle des atomes froids). En développement expérimental, il s’agit d’intégrer le tout pour créer un produit ou un procédé et le tester en condition réelle (un gravimètre absolu d’Exail, un ordinateur quantique de Pasqal ou Quandela dans son packaging ressemblant au packaging du produit commercial).
L’histoire se complique un peu ensuite dans la mesure où le développement technologique qui sert essentiellement à industrialiser la production d’un produit peut aussi comprendre de la recherche industrielle, par exemple sur les procédés de fabrication et les outils associés. Cette recherche industrielle peut elle-même faire appel aux étages supérieurs de la fusée de la recherche. Dans le cadre de la création de logiciels, le développement technologique consiste notamment à créer des outils et pratiques compatibles avec la mise en production (modularité, documentation, vérification, débogage, déploiement, maintenance et processus de mises à jour, monitoring, reporting).
Notons que les notions d’invention et d’innovation interviennent dans tout le cycle allant de haut en bas, même si la notion d’innovation a souvent une connotation économique, sur la capacité à mettre des technologies dans les mains d’un maximum d’utilisateur. Les transferts entre la R&D et la valorisation peuvent aussi intervenir via des licences de brevets. C’est le rôle des SATT et notamment de CNRS Innovation. Comme dans le cas du logiciel, on peut aussi diffuser un produit sans modèle économique direct.
Le schéma illustre les nombreuses interdépendances ainsi que le processus incrémental bidirectionnel qui va de la théorie à la pratique et inversement. J’ai souvent entendu des expérimentateurs en physique quantique se féliciter de l’existence de startups et PME à même de leur fournir des outils de travail de qualité s’améliorant sans cesse. C’est par exemple le cas des lasers pour les photoniciens ou de l’électronique de contrôle pour les chercheurs planchant sur de nouveaux types de qubits. Les expérimentations permettent aussi de découvrir des phénomènes que les théories existantes n’expliquent pas.
Le schéma montre aussi indirectement l’intérêt d’avoir des écosystèmes bien intégrés comprenant les différentes composantes de ce puzzle. En pratique, le processus réel est bien moins linéaire que dans ce schéma malgré son côté bidirectionnel. Le “jardin à la française” de l’innovation a trop tendance à codifier ce processus qui doit laisser plus de marge aux processus et idées atypiques et aux court-circuits. Donc, mea-culpa par avance !
Méta-recherche à risque
Voici quelques exemples de recherche fondamentale et appliquée “à risque” dans le domaine des technologies quantiques, qui sont couverts actuellement par des processus de financement plus traditionnels, mais qui ont la particularité d’encapsuler plusieurs niveaux de risques scientifiques.
C’est le cas de travaux qui mettent en musique avec une logique d’intégration des domaines scientifiques qui ne sont pas encore forcément matures. On peut les qualifier de méta recherches à risque dans la mesure où ces travaux de recherche intégrative reposent sur des pans de recherche eux-mêmes à risque, et très incertains.
Ces travaux très transversaux nécessitent une mise en musique encore plus forte que la recherche habituelle pour intégrer l’ensemble des acteurs concernés allant des académiques aux industriels, et du fondamental à l’ingénierie.
- Le développement d’architectures hybrides pour le calcul quantique qui associent des qubits adaptés à un chargement et au stockage de données (“memory qubits”), des qubits adaptés au calcul (“computing qubits”) et des qubits utiles dans les communications quantiques (en général, des photons optiques). Il s’agit en pratique, dans les deux premiers cas, de qubits de mémoire, mais avec des caractéristiques différentes. Le risque ici relève de la complexité de la création de systèmes physiques hybrides assez difficiles à bien contrôler. Il est autant scientifique que technologique.
- Le développement de technologies d’interconnexion d’ordinateurs quantiques qui ne sont eux-mêmes pas encore matures. Cela peut relever d’une fuite en avant, dans la mesure où cette interconnexion est rendue nécessaire par la limite de taille en nombre de qubits des ordinateurs quantiques en cours de conception. On déplace ainsi le problème vers un autre problème qui, en première approche, semble encore plus compliqué à résoudre que le premier problème. Mais c’est utile car cela peut faire avancer plusieurs domaines en même temps comme l’informatique quantique distribuée tout comme les communications quantiques.
- Les travaux sur l’estimation, le benchmarking et l’optimisation de l’énergétique des technologies quantiques qui sont encouragés et promus par la Quantum Energy Initiative. Ils nécessitent une couverture d’un grand nombre de domaines allant de la théorie (thermodynamique ou énergétique quantique, physique des qubits, correction d’erreurs, besoins algorithmiques) jusqu’à des questions d’ingénierie et de développement technologique (cryogénie, électronique de contrôle, ingénierie logicielle, calcul classique, …), y compris des notions économiques (prix des machines, volume du marché, économies d’échelle potentielles). Chaque élément de cette chaîne de valeur est porteur de nombreuses incertitudes avec un écart type grandissant lorsque l’on intègre l’ensemble. On se retrouve ainsi à paralléliser les problèmes plutôt qu’à les sérialiser pour éviter de se retrouver dans une situation où, par exemple, un trop grand nombre de projets iraient au mur dans la conception d’ordinateurs quantiques qui seraient trop consommateurs d’énergie pour être acceptables d’un point de vue sociétal, pratique et économique. Cette démarche vise à réduire le risque environnemental d’une nouvelle technologie en devenir, elle-même risquée par nature, au sens “incertaine”. L’expérience montre que faire travailler ensemble tous les acteurs de cette chaîne de valeur est loin d’être évident, le besoin de pluridisciplinarité se heurtant à la grande spécialisation des acteurs concernés.
- Les travaux en cours qui associent ou devraient mieux associer dans la chaîne de conception des algorithmes et logiciels quantiques, les aspects portant sur la théorie de la complexité, les accélérations théoriques et pratiques des algorithmes, le chargement des données, les optimisations issues des outils de compilation, les outils d’estimation de ressources et de benchmarking, les interdépendances avec les architectures matérielles de calcul, et l’application de tout cela à des cas d’usage concrets apportant une réelle plus-value aux utilisateurs, le tout sur des ordinateurs quantiques qui n’arriveront pas forcément avant une grosse dizaine d’années. La logique intégrative associant la théorie et la pratique est loin d’être évidente et pourrait devenir une nouvelle discipline de recherche et d’ingénierie quantique en soi.
Il existe sûrement des exemples équivalents dans la recherche couvrant d’autres domaines comme dans les biotechs.
Exemples de projets aidés
Lors du séminaire au ministère de la recherche, les ONR présentaient la crème de leurs projets sélectionnés. En voici quelques-uns :
- Détection des phéromones des insectes qui aurait des applications dans la lutte antiterroriste (INRAE).
- Une technologie d’ARN messager, avec des ARN interférents qui bloquent des protéines mutées (Inserm).
- La catalyse du palladium et la détection de la matière noire sur 12 décades de masses (CNRS).
- MaQul: La simulation numérique de phénomènes quantiques (CNRS).
- La capture de CO2 avec un processus issu du biomimétisme de la biomasse (CEA-IRIG).
- Projet Sapiens d’analyse du vent sur les champignons qui affectent les plantes.
- Projet ER4L d’accélérateur de particules (CNRS). C’est voisin d’un projet de type PEPR.
- L’évaluation des risques en montagne (INRAE).
- Des mousses intelligentes pour la détection de contaminants (INRAE).
Dans cet ensemble, on trouve au moins deux projets qui pourraient avoir un impact majeur (ARN et CO2). C’est déjà pas mal. Mais le paradoxe est qu’ils sont le résultat d’un acquis existant de plusieurs années et probablement pas si risqués que cela. Le plus difficile dans l’exercice est bien d’associer un risque élevé et un fort impact.
Conclusion
Le bilan de cette exploration du sujet est qu’il faut rester très ouvert sur cette notion de recherche à risque et éviter de l’enfermer dans quelque case que ce soit. La démarche de l’État est pertinente, mais à condition d’être pérenne. Les nouveaux processus de financement mettent du temps à s’installer et fonctionnent bien lorsque l’écosystème de la recherche a le temps de s’y accoutumer. Le risque, comme le retour sur investissement de cette forme de prise de risque, est par nature long terme. Les fonds d’investissement en capital risque qui financent les startups raisonnent sur des échéances d’au moins 7 ans. La puissance publique se devant d’adopter une vision encore plus long terme que le secteur privé, il serait donc bon que ce nouveau programme dure au moins aussi longtemps.
PS : je remercie au passage les chercheurs, entrepreneurs-chercheurs et ONRs qui m’ont alimenté en idées, expériences, pistes et références bibliographiques pour rédiger ce texte.
Reçevez par email les alertes de parution de nouveaux articles :