Opinions Libres - Le Blog d'Olivier Ezratty

Ce que révèle le Rapport Villani

Post de Olivier Ezratty du 30 mars 2018 - Tags : France,Intelligence artificielle,Logiciels,Logiciels libres | 36 Comments

A chaque fois que la puissance publique produit un rapport sur un secteur donné du numérique avec l’ambition de faire de la France un leader mondial, avec ou sans l’Europe, les acteurs de l’écosystème correspondant sont tout feu tout flammes parce que leur sujet intéresse les plus hautes autorités. Les élites et corps constitués du pays sont mis à contribution et caressés dans le sens du poil. Des rapports et des plans avec des dizaines de mesures sont publiés. Le plan est présenté devant le Premier Ministre ou le Président de la République. Des conférences sont organisées. Au bout du compte et avec le recul, la France n’atteint jamais l’objectif assigné et entre temps, les gouvernements ont changé.

Le Rapport Villani qui vient tout juste d’être publié peut-il échapper à cette fatalité ? En l’état, j’ai bien peur que non. Sa lecture laisse encore une impression désagréable que l’on loupe quelque chose, que l’on n’a pas posé les bonnes questions ni creusé toutes les pistes. Bref, une certaine déception est au rendez-vous malgré un volontarisme affiché de bon aloi et bon nombre de propositions intéressantes.

Avec l’habitude, on voit rapidement venir les chausse-trappes de nombreuses propositions courtelinesques ou sans impact majeur. Cela n’empêche pas les médias de reprendre à l’unisson les éléments de langage du Rapport et l’écosystème, de se féliciter, en pièces détachées, que sa cause soit bien reprise.

Les agences de relations publiques ont ainsi rebondi sur la publication du Rapport Villani pour proposer d’éclairer la lanterne des médias avec des prises de parole de dirigeants de startups comprenant notamment ceux de Snips, Biotech Dental, OpenValue, UIPath France, Vekia, Dataiku, Pricemoov et HiPay. Les réactions vont des lénifiants “ces recommandations vont dans le sens d’une prise de conscience nécessaire” ou “ce rapport tombe à point nommé pour faire avancer la France sur une IA appliquée aux entreprises” au plus ciblé “ce rapport est d’une importance capitale pour faire de la France et de l’Europe des champions de l’Intelligence Artificielle, ou nous nous démarquerons par notre culture d’une IA éthique respectant notre vie privée” (Snips). Les dissenting opinions arriveront plus tard !

Je m’étais déjà fait l’écho de ce genre de réserves dans Les hauts et les bas du plan France Intelligence Artificielle au sujet du premier plan France IA lancé par le gouvernement en mars 2017. J’avais aussi tenté d’identifier les composantes à leur origine dans une longue série de 6 articles L’Etat peut-il encore avoir une stratégie industrielle ? – 1 de juillet à septembre 2016 qui portait sur la foultitude de plans gouvernementaux sur les enjeux technologiques du moment, passé en revue le rôle de l’Etat dans l’accompagnement de stratégies industrielles, puis décrit un cahier des charges de plans industriels ambitieux. Sachant que le rôle de l’Etat n’est pas de décréter quelles innovations engendrer mais plutôt de favoriser les conditions de leur émergence et de leur déploiement tout en s’assurant d’un impact aussi positif que possible pour l’ensemble de la société.

Pourtant, le Rapport Villani est un travail provenant d’une équipe de qualité. L’introduction est admirablement bien écrite. Elle témoigne d’une passion non feinte de son auteur pour le sujet. Le langage n’y est pas technocratique, tout du moins au début. Baptisé Donner un sens à l’intelligence artificielle – pour une stratégie nationale et européenne, le Rapport Villani recense surtout 135 propositions. C’est là que cela commence à se gâter. Il abonde de marronniers traditionnels sur l’organisation de la recherche, sur la valorisation industrielle de ses travaux et sur le rôle de la puissance publique comme acheteuse de technologies. Le document est aussi très austère et dénué de schémas et illustrations.

Des trous béants subsistent, surtout en termes de leadership industriel autour de l’IA qui est l’angle de ma vision critique. Cela ne fait pas du tout rêver, même dans l’approche scientifique de l’IA. Pourtant, la dimension industrielle n’était pas absente des objectifs de la Mission Villani. Le point intermédiaire de décembre 2017 y faisait même abondamment référence. La première piste de réflexion était même de “mener une politique industrielle et économique innovante et ambitieuse”. Et là, plouf, pas grand-chose à se mettre sous la dent !

Rapport Villani Cover

Je vais décomposer tout cela dans cette revue critique du Rapport Villani. Critique mais si possible constructive car nombre de ses lacunes sont corrigeables. Elles le sont d’ailleurs souvent par les acteurs privés de l’innovation qui n’ont pas forcément besoin d’être tenus en laisse par l’Etat pour avancer et notamment, pour se développer à l’international. Elles le seront aussi car la stratégie de l’Etat est un objet mouvant comme l’a rappelé Emmanuel Macron dans son discours de clôture de l’excellente conférence #AIforHumanity du 28 mars 2018 au Collège de France.

Celle-ci rassemblait des pointures françaises et mondiales de l’IA avec Dennis Hassabis de Deep Mind, Yann LeCun de Facebook, Laurence Devillers du CNRS-LIMSI et spécialiste de la robotique affective et interactive, Fei-Fei Li de Stanford, Noriko Arai de l’équivalent japonais de l’INRIA, Latanya Sweeney de Harvard, Cathy O’Neil, de la Columbia University et auteure connue de l’ouvrage “Weapons of Math Destruction” et aussi Grégory Renard de xBrain, un spécialiste du traitement du langage. Bref, du lourd !

Il existe aussi des initiatives associatives ou privées comme le #HubFranceIA ou #FranceIsAI qui complètent l’action de l’Etat pour mettre en réseau les acteurs de l’écosystème français de l’IA. La société civile du numérique est déjà en mouvement autour de l’IA.

Le thème de l’IA est particulièrement délicat car il est d’abord incompris et étroitement associé à des mythes originaires de la science-fiction. Les briques techniques de l’IA sont nombreuses, évoluent sans cesse et tout autant le sont ses usages. Les formes que prennent les innovations à base d’IA sont extrêmement variées.

D’ici quelques années, l’IA risque d’être présente d’une manière ou d’une autre dans une majorité des solutions logicielles du marché. L’IA est l’une des transformations majeures du numérique d’aujourd’hui. Elle intervient d’ailleurs de concert avec d’autres évolutions comme les objets connectés (qui captent les informations utilisées par l’IA), les télécommunications (qui les transmettent) sans compter la blockchain (qui peut en sécuriser la traçabilité).

Le leadership numérique de demain combinera probablement des spécialistes très pointus de l’IA ainsi que des acteurs transversaux capables de tirer parti de plusieurs de ces grandes vagues technologiques.

Je vais donc traiter ici des points suivants :

1) La France, leader de l’éthique de l’IA, l’axe principal du Rapport Villani.

2) Une vision trop franco-française des applications de l’IA qui peut handicaper les visées de leadership mondial.

3) La priorité sur la recherche en IA.

4) La politique industrielle de l’IA, notamment dans les transports et la santé.

5) La curieuse approche dans le matériel de l’IA qui oublie les composants.

6) La méthode, toujours la méthode, qui rend difficile la production de ce genre de rapport.

7) Puis, faire quelques propositions en synthèse.

La France, leader de l’éthique de l’IA

La principale ligne de force de ce rapport est de mettre en avant une vision d’une IA éthique et responsable, soucieuse des utilisateurs. C’est de bon aloi et le plan est très bien documenté de ce point de vue-là. Il est par contre lacunaire dans sa vision industrielle. Il serait évidemment préférable d’avoir à la fois une IA éthique et un leadership économique mondial dans l’IA. L’éthique peut être vendeuse mais elle est rarement le principal bénéfice des offres innovantes. Nombre de solutions numériques génèrent des problèmes d’éthique à retardement. Le bénéfice consommateur arrive bien avant les problèmes éventuels ! C’est ce que l’on expérimente en ce moment avec Google et Facebook.

Cette volonté affichée de faire de la France un leader mondial d’une vision éthique de l’IA, de son impact sociétal et aussi de sa régulation se retrouve dans le branding du site présentant le Rapport Villani : AIForHumanity ! Cela respire dans nombre de propositions, comme dans les liens entre l’IA et la responsabilité environnementale ou encore le besoin d’améliorer la diversité des profils dans les métiers du numérique et de l’IA en particulier, et notamment celui d’attirer plus de jeunes filles dans ces filières. Sur ce dernier point, un grand bravo. Reste à le concrétiser sur le terrain et auprès des jeunes dans le secondaire ! C’est un plan qui nécessitera de travailler sur une génération entière avant qu’il porte ses fruits. Il devra donc survivre à trois autres élections présidentielles !

La question de l’explicabilité des algorithmes est aussi mise en avant. C’est un sujet très important, même si on en rajoute un peu trop. Comme si les décisions issues des logiciels traditionnels nous étaient expliquées au quotidien comme lorsque votre carte bancaire est refusée inopinément lors d’un déplacement à l’étranger ! Cela permettra en tout cas aux chercheurs du secteur d’obtenir des financements, à supposer qu’ils soient difficiles à obtenir aujourd’hui. D’ailleurs, des chercheurs du monde entier planchent sur la question. Ce n’est pas une spécialité française.

Mounir Mahjoubi défend cette approche “éthique de l’IA” en mettant en avant la dimension sociale de l’IA : elle doit être mise au service du bien commun et de la société. Elle ne doit pas être qu’un enjeu économique. D’où la proposition de la création d’un laboratoire public de la transformation du travail, une nouvelle structure… alors que l’on pourrait très bien s’appuyer sur le CESE qui cherche toujours son utilité et dont les représentants seraient fort bien en mesure de s’emparer d’un tel sujet. Comme le débat sur l’explicabilité des algorithmes, faire des études d’impact sur l’innovation avant qu’elle intervienne est cependant une forme actualisée du principe de précaution.

Nous risquons au bout du compte de n’avoir ni l’éthique ni le leadership industriel. Sans ce dernier, nos vies numériques continueront d’être envahies par les solutions d’acteurs internationaux qui valorisent plus leurs modèles économiques et marchés bifaces. Leur éthique de l’IA est souvent de façade comme l’ont montré les déboires récents de Facebook. L’indigence de l’approche industrielle du Rapport Villani fait ressortir ce déséquilibre.

Antoine Petit, le patron du CNRS mettait bien cela en évidence dans la conférence #AIForHumanity en jetant un pavé dans la marre avec son avertissement : “Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business. Ne faisons pas croire à une homogénéité des valeurs éthiques dans le monde. Si on en était là, il y aurait plus de démocratie sur la planète !”. Les applaudissements de la salle étaient nourris ! On peut notamment penser au cas de la Chine qui ne s’embarrasse pas des mêmes notions d’éthique que nous pour développer les usages de l’IA, tout comme dans la génomique, avec des tentations d’eugénisme.

Malgré le choix de cinq secteurs précis – éducation, santé, agriculture, transports, défense et sécurité –, le Rapport Villani rapport manque de vision sur les mécanismes du leadership industriel mondial, en général et dans le contexte spécifique de l’IA. Avec notamment une vision quelque peu pavlovienne du rôle des données, le fameux or noir du numérique alors que celui-ci n’a de sens que couplé à des usages mondiaux et à un leadership entrepreneurial et industriel associé à la capacité à créer des plateformes et des produits génériques. Il y a un sacré chemin entre les données et l’innovation ! Et plus les données seront ouvertes, moins elles seront source de différenciation compétitive.

Le Rapport France IA de mars 2017 comportait une très intéressante partie analytique et exploratoire. C’en était d’ailleurs un point fort car il positionnait bien la situation de la France dans le monde au sujet de l’IA. Ici, l’analyse est rapide au-delà d’un objectif affiché de leadership multi facettes autour de l’IA. Le Rapport Villani passe directement aux solutions sans définir la forme du leadership industriel qui est recherchée.

Au passage, la conférence AIForHumanity organisée au Collège de France le 29 mars 2018 était transmise en direct sur YouTube, et pas sur DailyMotion, acte symbolique d’un abandon de la volonté de sauver cette “pépite” française bien malmenée depuis sa création. Cruelle ironie.

Une vision trop franco-française des applications de l’IA

La difficulté à articuler une vision industrielle se traduit par un Rapport qui est bien trop franco-français dans ses recettes. 113 de ses 135 propositions relèvent des usages et du marché de l’IA en France, et pas dans le Monde. Nous sommes engoncés dans une vision locale du marché de l’IA, entretenant l’illusion que le marché français est un piédestal suffisant pour obtenir un leadership moral et un leadership industriel mondial qui nous seraient dus dans l’IA. On veut jouer dans la cour des grands en se contentant de notre bien petit pré-carré.

Malgré une compréhension connue et partagée de l’aspect mondial des marchés de l’IA, le pays est arque-bouté sur le leurre de son marché intérieur. On le voit aussi indirectement dans la propension à privilégier les sujets “à systèmes complexes” plus qu’à “produits  génériques” comme les systèmes de transports intelligents ou de santé. Les solutions et approches de déploiement de ces systèmes dépendent étroitement des systèmes et acteurs locaux. C’est une vision d’intégration plus qu’une vision industrielle de solutions en volume. On trimballe ce syndrome depuis les années 1960 !

Rapport Villani dans Le Point

Le sujet des données est abordé à cheval entre la question de l’éthique du partage et celle de l’utilité économique et sociétale. Le gouvernement pourrait être très hardi sur la question, imposant “au cas par cas” l’ouverture des données provenant d’acteurs privés, y compris étrangers. Ces données seront liées à des usages en France. Elles renforceront donc le tropisme franco-français de l’entrepreneuriat local. La mission sociale et utilitaire locale sera respectée. L’avantage économique pour les acteurs ayant des ambitions internationales sera modéré.

Pour faire bonne figure, le Rapport affiche quelques ambitions européennes, notamment franco-allemandes, mais sans les articuler sérieusement. On rêve toujours de créer les conditions de la création d’un nouvel Airbus ou Amadeus européens dans le numérique, mais sans trop savoir comment s’y prendre. Ce n’est d’ailleurs pas du tout évident ! Ces deux projets étaient d’initiative privée, mutualisant les industries d’aviation européennes pour l’une et les systèmes de réservation de compagnies aériennes pour l’autre. Face à qui ? Boeing et le système de réservation d’American Airlines, Sabre, mais dans un modèle b2b.

Dans l’IA, c’est surtout du wishful thinking comme l’était le projet de moteur de recherche franco-allemand Quaero de 2005. Moteur qui n’existait d’ailleurs pas, le plan Quaero n’étant qu’un patchwork de subventions de recherche saupoudrées sur des dizaines d’entités publiques et privées sans cohérence ou vision produit unifiée. Son équivalent Villanesque est un projet franco-allemand d’industrie de la robotique. Il fait juste référence à un projet collaboratif de recherche européen qui, côté France, n’associe que le laboratoire de recherche LAAS du CNRS à Toulouse. C’est vraiment léger pour créer un Airbus des robots ! Les Allemands n’ont pas trop besoin de nous pour réussir dans la robotique industrielle. Quant à la robotique humanoïde française, elle est maintenant surtout japonaise !

Cependant, la conférence #AIforHumanity et les annonces l’entourant mettaient en avant un point notable de la démarche française : valoriser l’excellence de ses talents, chercheurs et ingénieurs, prenant la forme d’annonces d’installations en France de divers laboratoires d’IA de sociétés étrangères : Google DeepMind, Fujitsu, SAP (annoncé en janvier 2018) et Samsung (dont le Président était reçu par Emmanuel Macron).

C’est la stratégie d’Israël d’il y a 10-15 ans qui est imitée. Attirer les laboratoires de leaders internationaux a des conséquences positives : cela peut attirer des capitaux et favoriser le développement de startups locales. Cela peut encourager les leaders mondiaux à faire des acquisitions chez nous à de meilleures valorisations qu’aujourd’hui. Cela peut générer un cercle vertueux dans le financement privé de l’innovation. L’inconvénient principal est de générer un effet inflationniste sur les salaires dans la R&D au détriment des acteurs locaux.

Globalement, ce sont des annonces positives pour densifier le maillage entre l’excellence française et la dynamique internationale de l’IA. Elles feront cependant débat car c’est un moyen de faire rentrer les loups mondiaux du numérique dans la bergerie des talents scientifiques français. C’est surtout le cas pour les annonces de création d’une école de l’IA par Microsoft et d’une chaire d’IA par Polytechnique avec Google, opérations qui servent surtout à caresser l’ego des institutions locales dans le sens du poil.

La priorité sur la recherche en IA

Le Rapport Villani abonde de propositions relatives aux chercheurs. Nombre d’entre elles ne sont pas spécifiques à l’IA, notamment pour rendre les carrières de chercheurs plus attractives. L’intention louable est de mieux rémunérer les chercheurs et limiter la fuite des cerveaux actuelle, qui est d’ailleurs mal chiffrée.

Villani et salaires chercheurs

Il propose surtout la création de quatre à six Instituts 3IA (Interdisciplinaires d’Intelligence Artificielle) organisés dans un réseau national RN3IA. Ils seront voisins, dans leur principe, des IRT (Institut de Recherche Technologiques) qui avaient été lancés dans le cadre des Programmes d’Investissement d’Avenir à partir de 2009. Ils visent à améliorer le lien entre la recherche fondamentale publique et les entreprises. Ils serviront aussi à faire perfuser l’IA dans l’ensemble des disciplines scientifiques qui y feront appel. L’IA devient indispensable aux chercheurs au même titre que le logiciel en général. Enfin, ils auront un statut d’extra-territorialité vis à vis du reste de la recherche publique, avec des conditions de fonctionnement plus souples et favorables aux chercheurs. La question des salaires est évoquée mais se heurte déjà à des blocages. Le gouvernement veut éviter d’ouvrir la boite de Pandore ! Emmanuel Macron a annoncé que ces instituts seraient coordonnés par l’INRIA.

Comme le rappelait à juste titre Yann LeCun dans la conférence #AIForHumanity du 29 mars 2018, aucune entreprise n’a le monopole des nouvelles idées dans l’IA. Elles viennent pour l’essentiel de la recherche publique. Ce qui créé un découplage assez fort entre recherche et innovation autour de l’IA. On peut très bien avoir des idées mais mal les valoriser économiquement. D’autres peuvent s’en charger à notre place ! Les 3IA reprennent la vision linéaire recherche => innovation, un vieux démon de la puissance publique française. Les idées des chercheurs sont effectivement des commodités car elles sont généralement publiques et partagées, souvent illustrées par du code open source s’appuyant sur des frameworks eux-mêmes open source.

Les 3IA seront constitués sur appels à projets. Ils pourront attirer des chercheurs internationaux, ce qui est une bonne chose. Ils pourront porter leurs recherches sur les nombreux pans de l’IA et notamment ceux du raisonnement automatisé qui, à force de mode du deep learning, est un peu passé à la trappe.

Ces Instituts risquent cependant de devenir des usines à gaz s’ajoutant aux grands établissements de recherche publique existants comme l’INRIA, le CNRS et le CEA (LIST et LETI). En effet, plus de la moitié de l’INRIA fait déjà de l’IA. La recherche collaborative multi-labos existe déjà. Suite à la loi Pécresse de 2007, nombre de projets de laboratoires dépendent déjà de financements privés. Ces 3IA vont s’ajouter à des dispositifs existants tels que les contrats CIFRE qui permettent aux entreprises d’employer des doctorants. Et je vous épargne le mille-feuille déjà bien bourratif avec ses Pôles de Compétitivité qui associent déjà entreprises et laboratoires de recherche, le réseau des Instituts Carnot, un label attribué aux laboratoires publics encourageant la recherche partenariale depuis 2006, et le réseau RETIS qui regroupe notamment les incubateurs publics. Bref, la proposition des 3IA ne va pas simplifier la cartographie de la recherche française qui ressemble déjà à ça…

JREast Tokyo Map

Même aux USA, la recherche en IA est saupoudrée dans plein de laboratoires. De toutes manières, il faut développer une approche transdisciplinaire de l’IA. L’IA est un peu l’équivalent du « Logiciel 3.0 ». Tous les chercheurs vont en avoir besoin. L’IA est un agent de la transformation digitale de toute la recherche, fondamentale comme appliquée.

La recherche en IA est déjà éparpillée dans les autres pays occidentaux. L’innovation et la créativité proviennent justement de l’éparpillement et de l’absence de centralisation. La taille des équipes de recherche en IA est comprise en 2 et 15 personnes maximum. Il suffit de consulter les publications sur Arxiv pour l’observer ! Au départ, le plan Villani comprenait la création d’un 3IA parisien. Comme pour les fameux pôles de compétitivité, passés de moins de 10 dans une version préliminaire du plan à 71 au milieu des années 2000, le régionalisme a joué son rôle.

Le Rapport Villani fait état de la collaboration des 3IA avec des instituts équivalents en Europe : MPI et les réseaux Helmholtz, Fraunhofer et Leibniz en Allemagne, Alan Turing Institute en Grande-Bretagne, IDSIA et Écoles Polytechniques Fédérales en Suisse, CWI en Hollande, IRIDIA en Belgique, Sapienza Roma et les autres centres de recherche en robotique et IA d’Italie.

Ces instituts européens ont des formats très variés. Les actionnaires de l’Allemand DFKI sont Google, Microsoft, SAP, BMW et Daimler ! Bravo l’indépendance de la recherche et la souveraineté ! Il contient 18 unités de recherche en tout vs plus de 120 à l’INRIA. C’est un partenariat public-privé qui fait de la recherche appliquée et pas fondamentale. L’institut regroupe 519 chercheurs et 384 étudiants. C’est à peu près la taille du CEA-LIST de Saclay qui est quasiment dédié à l’IA et avec 800 personnes dont 120 post docs. Le Max Planck Institute for Intelligent Systems est focalisé sur la robotique avec 441 chercheurs dont la liste est d’ailleurs publique. En Allemagne, il faudrait ajouter le Fraunhofer Intitute et son laboratoire d’IA.

Au Royaume-Uni, l’Alan Turing Institute a été créé en 2015 suite à une initiative du gouvernement UK sur la big data. Il est focalisé sur la data science. Cet organisme privé regroupe les initiatives d’IA et de big data des grands laboratoires des universités UK dont Cambridge et Oxford. Le financement assez léger, de £67M sur 5 ans. Le CWI hollandais est l’équivalent de l’INRIA français et ce n’est pas un institut spécialisé dans l’IA.

Pour le reste, une bonne partie des propositions du Rapport Villani sur la recherche n’est pas spécifique à l’IA. Il revient sur l’antienne de l’encouragement à la création de startups par les chercheurs. Ça existe déjà et depuis longtemps, comme avec IT Translation pour l’INRIA ou Minalogic qui est positionné dans la périphérie du CEA et de l’INPG à Grenoble. Faut-il absolument que les chercheurs créent des startups ou bien que les startups qui se créent aient accès aux chercheurs ? Cela revient à la notion de recherche contractuelle. N’il y aurait-il pas une piste à explorer pour la favoriser en liaison avec les startups ? Cela existe avec les contrats CIFRE. Faut-il les aménager pour les rendre encore plus accessibles aux startups ? Ce n’est pas évoqué.

Dernier point sur la recherche, un éléphant dans la salle n’est pas mentionné : la recherche pour la création d’intelligence artificielle générale, l’un des champs d’exploration les plus hardis de l’IA qui n’est d’ailleurs pas sans poser des questions clés d’éthique. C’est un domaine complexe mais des laboratoires et startups étrangers y travaillent déjà, notamment Deep Mind (qui s‘installe donc en France), Numenta ou le Suisse nnaisense. Et nous ? Que cherchons-nous ? Quel type de problème complexe (et éthique) pourrions-nous chercher à résoudre avec ce genre d’AGI ?

Enfin, une proposition originale est faite et qui provient visiblement de chercheurs en mal de reconnaissance : en nommer dans les conseils d’administration d’entreprises dont l’Etat est actionnaire. Pourquoi pas. Mais ils risquent de bien s’y ennuyer ! Ce n’est pas là que la stratégie des entreprises est établie. Ce sont le plus souvent des chambres d’enregistrement. La proposition est un peu risible car nombre de causes pourraient avoir la même revendication !

La politique industrielle de l’IA

Comment quantifier ou qualifier le leadership mondial ? Le Rapport n’évoque pas un fait incontournable : il est quasiment impossible de créer un leader mondial du numérique sans avoir une assise de marché large et homogène comme en bénéficient les acteurs des USA et de Chine. La France est trop petite et l’Europe trop fragmentée pour ce faire. Comment conquérir ces marchés dans ce qui est fréquemment une véritable course de rapidité ? Tout juste avons-nous des velléités d’influencer les politiques d’ouverture de données à l’échelle internationale.

Le Rapport propose surtout des mesurettes liées au marché intérieur français ! Je ne suis pourtant pas le seul à alarmer depuis des années les pouvoirs publics sur l’erreur stratégique de cette approche !

La proposition de création de labels IA associés à celui de la French Tech pour augmenter la visibilité de l’offre domestique en IA en est une. Le label French Tech porte d’ailleurs sur les écosystèmes régionaux et pas sur les startups prises individuellement. D’ici peu de temps, de tels labels seront aussi inutiles qu’un hypothétique et fumeux label “contient du logiciel” accolé à une solution numérique. Qui plus est, ce label French Tech IA mélangerait la recherche et les entreprises. Les critères n’y sont pas les mêmes. La Mission Villani en a bien conscience. Mais elle n’est pas la reine du marketing des labels.

La reconnaissance d’un travail de recherche passe par les publications (à court/moyen terme), par la recherche partenariale (à moyen terme) et par les débouchés industriels (à plus long terme). Pour une startup, c’est la reconnaissance marché, la croissance et éventuellement le dépôt de brevets. Une bonne partie des startups pourront revendiquer l’usage de l’IA dans leur solution logicielle car l’IA est de plus en plus courante. Des labels supposent aussi la création de jurys et ouvrent la porte à son lot de subjectif. Si on créé un label IA, d’autres vont le réclamer sur divers sujets dans le vent : blockchain, open source, VR/AR ou 5G. Par contre, les prix d’innovation de terrain proposés par la Mission Villani ont du sens même s’ils jouent surtout un rôle de hochets émotionnels qui n’ont d’impact que sur notre marché intérieur.

Est aussi proposée la création d’un guichet unique de l’IA alors que les propositions dans ce sens relèvent souvent de consolidation de formalités administratives. La forme de l’objet « guichet » n’est pas précisée dans le Rapport Villani. Il s’agirait de créer un annuaire des solutions logicielles prêtes à l’emploi pour créer des solutions à base d’IA, notamment pour conseiller les entreprises utilisatrices, dont les TPE/PME, peu évoquées dans le Rapport. Pas sûr que cela relève de la puissance publique de faire cela. Sinon, on l’aurait fait depuis longtemps sur d’autres sujets. Longtemps voulant dire 30 ans minimum.

Des organismes privés font cela couramment comme les analystes (Gartner, etc), le CXP ou les médias techniques même si ces derniers ont de moins en moins de moyens. Par contre, cela soulève un point indirect : la faiblesse marketing des startups technologiques qui proposent ces solutions. Traiter le problème à la source reviendrait donc à développer des filières d’enseignement croisées techniques/marketing et éventuellement à renforcer le Crédit Impôt Innovation s’il est encore vivant. Il serait aussi bon de créer des modèles d’études de cas de l’IA. J’en avais proposé un en décembre dernier.

Guichet

S’il s’agissait par contre de créer un guichet de l’administration pour informer les entreprises sur les outils logiciels de l’IA avec des fonctionnaires, of course régionalisé, cela relèverait d’un progrès voisin de l’atteinte de la singularité technologique.

S’en suit une litanie de propositions pour développer le rôle d’acheteur d’IA de la puissance publique, le piège le plus dangereux qui soit pour les startups françaises ! Il n’est déjà pas simple de travailler avec un grand compte français, alors, avec l’Etat ! Au secours !

Ce Rapport ne contient pas de véritable partie dédiée à la manière de développer la dimension internationale de nos startups et PME. Imaginez un plan IA israélien ou estonien qui insisterait autant sur leur marché intérieur ! Tant que l’on continuera à se focaliser autant sur notre marché intérieur, on sera à côté de la plaque ! Une règle à respecter que je propose aux commissions suivantes : pour chaque ligne de plan portant sur le marché intérieur, il faudrait compenser par au moins une ligne sur le développement de nos entreprises à l’international, même s’il s’agit de rappeler ou de renforcer des dispositifs existants (Business France, Coface, VIE, INPI, …) !

Seule la proposition de création d’une DARPA française ou européenne présente un peu de sens. Elle est issue de l’initiative Joint European Disruptive Initiative (JEDI) lancée par le Français André Loesekrug Pietri, en collaboration, notamment, avec des Allemands et des Italiens. Le diable de ce genre d’objet est dans les détails de sa mise en œuvre. Bref, un Etat capable de formuler des besoins ambitieux, des projets “moonshots”, et de financer leur démarrage au lieu de saupoudrer des subventions via des appels à projets thématiques trop généralistes. Et surtout, un machin qui n’attire pas les bras cassés et ronds de cuir des entreprises établies.

Enfin, nous avons cinq secteurs d’activité cibles considérés comme relevant d’opportunités de leadership dans l’IA pour la France : éducation, santé, agriculture, transports, défense et sécurité. L’excellence scientifique ou technologique française sur laquelle le pays pourrait s’appuyer n’y est pas vraiment mentionnée. Il manque un critère clé : l’opportunité de faire mieux, d’être excellent, de faire avancer radicalement l’état de l’art. Il faut raisonner dans un monde concurrentiel, pas dans un marché isolé ! Ces parties du Rapport Villani sont indigentes et indigestes. En particulier, sur les transports et la santé.

Il y a bien quelques concepts génériques intéressants autour de l’expérimentation, l’accès à des données d’expérimentation – toujours locales – ainsi que les bacs à sable d’innovation. Mais le Rapport ne fournit pas la moindre idée de type de services et entreprises pouvant devenir des leaders mondiaux dans ces secteurs.

Côté transports, ça parle de code de la route et d’expérimentations mais Valeo, Transdev, Keolis ou Navya ne sont pas cités. Comment est structurée l’industrie européenne des véhicules autonomes ? Qui sont les acteurs dans les différentes couches ? Matériel, logiciel, capteurs, équipementiers, constructeurs, smart city, télécoms ? Où sont les économies d’échelle ? Qui sont les startups ? Où sont les grands groupes ? Où sont nos opportunités de création de valeur ? Peut-on être les leaders de l’usage des véhicules autonomes dans la smart city ?

Quid d’expérimentations dans des villes avec 100% de véhicules autonomes (level 4 ou 5) ? Voilà qui marquerait les esprits et ferait avancer l’état de l’art ! C’est déjà anticipé par la filiale de Google Sidewalk Labs aux USA et au Canada ainsi qu’en Chine sur une voie rapide dédiée de 161 km. Quid aussi du lien avec les déploiements de la 5G et de devenir leaders du V2X (communications entre véhicules et véhicules / infrastructures) ? La 5G n’est même pas citée dans le Rapport alors que son déploiement jouera un rôle clé dans celui des véhicules autonomes !

China expressway

Dans la santé, le mot génomique n’est cité que trois fois, mais pas le plan France Médecine Génomique 2025 de 2016. De l’art de ne pas avoir de la suite dans les idées ! Le Rapport ne parle que de la manière d’exploiter l’IA dans le système de santé français au lieu de se poser la question de son emploi dans le monde entier. Mais on est très contents d’avoir à disposition les bases de données de parcours de santé de la CNAM. En attendant, les startups françaises d’imagerie médicale alimentent leur IA avec des bases de données d’origine américaine. Les USA a vigoureusement généralisé la numérisation et l’interopérabilité des dossiers médicaux depuis le Personal Health Record Act de 2009 ! Cela porte ses fruits alors que le DMP est toujours à la traîne en France. Il faudrait donc se demander comment pratiquement les entrepreneurs français pourront s’appuyer sur d’éventuels déploiements de solutions en France pour les commercialiser à l’étranger et à quelle échéance.

Pour l’agriculture, les propositions du Rapport relèvent beaucoup plus des usages en France que du développement de technologies agricoles à base d’IA que la France pourrait exporter. C’est presque plus un vœu d’autosuffisance alors que l’on importe presque tous nos engins agricoles ! Et le rapport évite d’évoquer la question des tailles des exploitations. En effet, la robotique agricole ne sera rentable, le jour où elle sera opérationnelle, que sur de grandes parcelles. C’est une question d’économie d’échelles. A moins de mutualiser certains robots dans des collectivités d’exploitation comme cela doit déjà exister sur des engins traditionnels.

Quant au volet éducation, il est abordé sous l’angle des usages en France mais c’est volontaire. L’enjeu est évidemment stratégique pour former l’ensemble des jeunes tous cursus confondus. Les uns pour en faire des cadors de l’IA dans le supérieur, les autres pour les préparer aux chamboulements des métiers affectés d’une manière ou d’une autre par l’IA et l’automatisation. Le plan Villani est correct de ce point de vue-là. Je laisse Laurent Alexandre creuser cet aspect du sujet !

Et enfin, l’IA dans la défense et la sécurité est plus régalienne qu’industrielle. Le point de vue affiché est celui d’un Etat acheteur de technologies. Même si nous sommes aussi un grand exportateur d’armes devant l’éternel. Des armes éthiques à base d’IA ?

Ces cinq choix sont pourtant censés et réalistes compte-tenu de notre position dans le numérique grand public, dominé par les GAFA. Mais ce sont des domaines où la concurrence mondiale ne nous a pas attendus ! Il faut faire la part des choses entre innovations de produits et scalables et les innovations de systèmes complexes (« systèmes de santé, systèmes de transport »). Nous pourrions être naturellement enclins à nous agiter sur les secondes et en loupant les premières. C’est le résultat de l’influence naturelle des grands acteurs historiques de ces marchés. C’est cette attitude qui plombe les industries numériques françaises depuis le Plan Calcul !

Dans leur forme actuelle, ces cinq plans thématiques ressemblent plus à des plans de rattrapage qu’à des plans industriels dignes de ce nom. Peut mieux faire et à creuser sérieusement par des sous-commissions créant des sous-rapports ! Ou en laissant les innovateurs innover de leur côté !

La curieuse approche dans le matériel de l’IA

Page 58 du Rapport Villani se trouve la proposition consistant à “Innover dans l’industrie du composant adapté à l’IA“. Après un exposé clair des enjeux dans les processeurs neuromorphiques, la proposition qui en résulte est de créer un supercalculateur. Encore cette propension habituelle à s’éloigner dangereusement des marchés de volume ! Peut-être une influence d’ATOS-Bull qui est le fournisseur national de ce genre d’engins ? Ou celle des chercheurs qui voudraient disposer de leur propre puissance de calcul pour entraîner leurs modèles de réseaux de neurones sans passer par le cloud des GAFAMI. Ca frise le hors sujet car cela passe d’un enjeu industriel mondial à celui de l’équipement local de nos chercheurs.

Dans tous les cas, un tel calculateur serait probablement équipé de matériel américain (Intel, Nvidia). Il serait périmé le jour où il serait mis en service tellement la vitesse des processeurs neuromorphiques augmente d’année en année. Nvidia vient tout juste d’annoncer son serveur DGX-2 doté de 16 GPU Volta GV100, totalisant 2 Petaflops et un stockage SSD de 30 To, pour $400K (ci-dessous) et avec une consommation de 10 kW, illustrant la rapidité d’évolution de ce marché.

Nvidia DGX-2

Pour faire bonne mesure, le Rapport propose de négocier des ressources en cloud pour les chercheurs avec des acteurs locaux, en ayant OVH en tête, qui a commencé à déployer des serveurs Nvidia en 2017. Cédric Villani a confirmé ce point dans une interview avec Antoine Crochet-Damais du JDN.

Es-abstracto, un supercalculateur générique n’est pas très passionnant. Il serait intéressant qu’il soit original, qu’il permette d’avancer dans un domaine qui ne relève pas encore de la commodité comme l’entraînement habituel de réseaux convolutionnels. Et ne parlons pas de se poser la question cruciale de l’informatique quantique, dont certaines applications auront un lien avec l’IA, mais qui attendra probablement un “plan calcul quantique” gouvernemental entre 2025 et 2030, quand il sera bien trop tard. Le mot quantique n’apparait pas dans le Rapport Villani.

Rien n’est dit non plus de la filière française et européenne des composants et des systèmes embarqués. Quid de STMicroelectronics, de SOITEC, de Kalray, de Scortex, de Prophesee, de Cartesiam, d’AnotherBrain ou GreenWaves Technologies ? Quid des architectures d’IA distribuées avec de l’IA répartie dans les objets connectés, qui présente un bénéfice directement lié à des préoccupations écologiques et de protection de la vie privée évoquées par ailleurs dans le Rapport ? Que nenni.

La méthode, toujours la méthode

La Mission Villani a interrogé 420 personnes lors de six mois d’auditions. Comment arrive-t-on à un tel résultat ? Les raisons sont toujours les mêmes et liées à la méthode et au casting.

Les Missions de ce genre interrogent de nombreux acteurs de l’écosystème qui ne connaissent pas forcément grand-chose du sujet (ici, l’IA) dans la pratique – j’éviterai de donner des noms pour ne vexer personne – et qui défendent leur bout de gras. C’est le festival des corps constitués ! Les chercheurs défendent la recherche. Les trublions de l’Etat veulent le moderniser. Les chercheurs en éthique défendent l’éthique. Les investisseurs veulent investir. Les avocats veulent faire évoluer le droit. Certains entrepreneurs recherchent du financement ou un assouplissement règlementaire. D’autres se plaignent du manque de compétences et de personnes formées. L’open source promeut l’open source. Mais peu affichent une vision globale.

image

Les auditions avaient lieu à plusieurs avec des groupes de 5 à 20 personnes pendant des créneaux d’environ deux heures. Chaque invité interrogé avait 5 à 10 minutes pour s’exprimer et discuter avec la commission. Cédric Villani prenait soigneusement des notes comme un bon élève, posait de bonnes questions, et était accompagné d’une équipe constituée pour l’essentiel des permanents du Conseil National du Numérique. Ces derniers n’avaient pas grand chose d’autre à faire puisque le Conseil National du Numérique n’a véritablement existé lors la Mission Villani que pendant quelques jours en décembre 2017, du fait de sa démission collective après l’affaire Rokhaya Diallo.

Des intervenants s’imposaient plus que les autres. D’autres issus de l’administration ou du secteur para-public pouvaient défendre leur pré carré. Finalement, la quantité expurge la qualité. Comme tout système de machine learning mal entraîné, il fait converger un modèle vers une moyenne moyennisante ! Certains entrepreneurs auditionnés n’ont d’ailleurs rien retrouvé de leurs propositions dans le Rapport.

Les demandes des chercheurs ont été visiblement mieux prises en compte. Pas étonnant ! La mission Villani comprenait deux chercheurs (Cédric Villani et Marc Schoenauer), un ingénieur de l’armement de la DGA et pas moins de cinq permanents du CNNum.

Au final, nous avons un rapport qui est un cahier de doléances de propositions avec des niveaux variables de détails. Certaines vont jusqu’à spécifier les prérogatives de la DINSIC, la Direction Informatique de l’Etat dirigée par Henri Verdier, qui faisait bien évidemment partie des personnalités auditionnées. Il est en effet important que l’Etat puisse se moderniser numériquement grâce à l’IA, c’est un point incontournable de ce genre de rapport. D’autres sujets sont survolés de manière ultra-superficielle comme la robotique ou les composants électroniques.

Dans son discours fort lyrique de conclusion de la conférence AIForHumanity, Emmanuel Macron annonçait un plan de financement du plan IA de 1,5 Md€ jusqu’en 2022, donc au moins 300M€ par an. Ces 1,5M€ seront probablement ponctionnés dans le plan d’investissement dans l’innovation de 10Md€ déjà annoncé. Ces 10Md€ devaient être déployés par les intérêts générés par le placement de cette somme sur les marché, elle-même empruntée, donc devait générer 300M€ par an. Le plan IA semble donc permettre un déploiement plus rapide des crédits alloués. Emmanuel Macron a aussi annoncé un plan de financement de startups, avec 100M€ provenant des intérêts du Fonds pour l’innovation et l’industrie et 70M€ alloués chaque année à l’amorçage de startups deep techs. Le relai viendra du financement privé. Dans la pratique, les bons projets arrivent à se faire financer. L’argent ne manque pas tant que cela.

Ces montants annoncés paraissent ridicules quand on les met en regard des $15B annoncés par Alibaba, mais il faudrait les comparer aux investissements publics d’autres pays européens. Dans ce cadre, les annonces d’Emmanuel Macron sont de bon niveau tout comme l’est son interview dans Wired, faite dans la lignée de celle de Barack Obama en août 2016. On ne peut pas demander à l’Etat d’investir autant que des mastodontes privés. Nous nous n’en avons chez nous ! Et au passage, les $15B d’Alibaba comprennent surtout une grosse réserve pour des acquisitions. Ils ne prévoient de recruter que 100 chercheurs en IA, ce qui est modeste au regard de leur nombre dans le secteur public dans tous les pays occidentaux. Évitons donc de tomber dans le piège de la sidération face à ces annonces toujours ampoulées qui mélangent des choux (M&A, développement produits) et des carottes (recherche fondamentale) sur une longue période ! Sans compter les comparaisons qui mélangent le R et le D dans la R&D. Les développeurs d’un grand acteur du numérique ne sont pas des chercheurs ! Le ratio entre chercheurs et développeurs chez les plus grands est au minimum de 1 pour 25 !

L’intervention du Président de la République lui permettait en tout cas de présenter un plan gouvernemental de l’IA synchrone avec la publication du Rapport Villani. Il était même un peu plus hardi et ambitieux dans le propos. L’exécutif a bien la main ! C’est une approche qui illustre le lien étroit entre le législatif et l’exécutif dans le pays.

Au moins cela fera-t-il gagner du temps et éviter une longue passe côté gouvernement comme l’avait connue la commission pour la libération de croissance française pilotée par Jacques Attali en 2007/2008. Nicolas Sarkozy s’était bien gardé de mettre en application toutes ses recommandations et notamment celles qui pouvaient déranger des corps établis comme les taxis. Une leçon probablement apprise par son rapporteur, un certain Emmanuel Macron !

____________________________

PS : résumé des principales pistes de réflexion qui émaillent ce long post :

1) Formuler des rêves et des ambitions de domaines scientifiques à résoudre et de besoins concrets à traiter grâce à l’IA. Penser aux “next big things”. Identifier des “moonshots”.
2) Se focaliser sur le développement international des startups et autres entreprises, pas sur le marché français. Comment attaquer le marché US est le principal problème à traiter. L’Asie ensuite. L’Etat a un rôle à jouer dans ce domaine pour aider les entrepreneurs, même s’il ne fait pas tout.
3) Ne pas en faire trop sur le principe de précaution de l’IA. Cela alimente les peurs. Un pays qui a trop peur ne peut pas innover. L’éthique de l’IA est traitée trop tôt compte tenu de sa maturité. Il faut laisser les innovateurs innover. Cf IA et éthique: le contresens navrant de Cédric Villani de Philippe Silberzahn.
4) Mieux comprendre les chaînes de valeur de l’IA (hard, soft, data, telecoms, usages, business models), leurs évolutions, et faire quelques choix associés, notamment dans les secteurs choisis (transports, santé, agriculture). Privilégier les approches produit et les marchés de volume et de plateformes. Les données sont utiles à l’IA mais leur accès seul n’est pas suffisant pour créer des solutions d’IA leaders sur le marché. Les données risquent même de devenir des commodités.
5) Eviter de créer de nouvelles structures dans la recherche publique. Ce n’est pas le problème. L’innovation ne découle pas automatiquement de la recherche. Ce n’est pas un processus linéaire.
6) Intégrer les révolutions à venir comme celle de l’informatique quantique. C’est l’un des gros chantiers stratégiques à venir du numérique.
7) Attirer les meilleurs en IA dans le monde, chercheurs et entrepreneurs. C’est en filigrane dans le rapport Villani mais mériterait de mieux ressortir. Un pays est leader quand il attire les meilleurs et lorsqu’il exporte le meilleur.

RRR

 
S
S
S
S
S
S
S
img
img
img


Lien du blog Opinions Libres : https://www.oezratty.net/wordpress

Lien de l'article : https://www.oezratty.net/wordpress/2018/rapport-villani/

(cc) Olivier Ezratty - http://www.oezratty.net