{"id":14988,"date":"2017-09-29T15:40:52","date_gmt":"2017-09-29T13:40:52","guid":{"rendered":"http:\/\/www.oezratty.net\/wordpress\/?p=14988"},"modified":"2017-11-12T18:24:27","modified_gmt":"2017-11-12T16:24:27","slug":"douze-mythes-intelligence-artificielle","status":"publish","type":"post","link":"https:\/\/www.oezratty.net\/wordpress\/2017\/douze-mythes-intelligence-artificielle\/","title":{"rendered":"Douze mythes de l&#8217;intelligence artificielle"},"content":{"rendered":"<p>Depuis 2015, la vague de l\u2019intelligence artificielle bat sont plein dans l\u2019\u00e9cosyst\u00e8me num\u00e9rique et bien au-del\u00e0. C\u2019est m\u00eame d\u00e9j\u00e0 devenu un sujet politique. Nous sommes bombard\u00e9s d\u2019annonces sensationnelles \u00e0 r\u00e9p\u00e9tition et des prospectivistes professionnels nous d\u00e9peignent un futur parfois utopique et le plus souvent dystopique \u00e0 l\u2019image d\u2019une bonne partie de la science fiction.<\/p>\n<p>La r\u00e9alit\u00e9 d\u2019aujourd\u2019hui sur laquelle ils s\u2019appuient est souvent travestie et exag\u00e9r\u00e9e.\u00a0L\u2019IA est par\u00e9e de capacit\u00e9s qu\u2019elle n\u2019a pas encore et n\u2019est pas pr\u00eate d\u2019avoir. On est en pleine construction d\u2019une vision mythique de l\u2019IA, bas\u00e9e sur des m\u00e9canismes de propagande de l\u2019innovation que j\u2019avais eu l\u2019occasion de d\u00e9crire en 2014 dans une <a href=\"https:\/\/www.oezratty.net\/wordpress\/2014\/propagandes-innovation-1\/\">s\u00e9rie de six articles<\/a>. Ces m\u00e9canismes sont amplifi\u00e9s par la communication marketing des fournisseurs tels qu\u2019IBM et Google qui embellissent toujours la mari\u00e9e, par une strat\u00e9gie de la sid\u00e9ration, par la difficult\u00e9 de v\u00e9rifier les faits avanc\u00e9s ou la fain\u00e9antise intellectuelle ambiante, et par l\u2019absence g\u00e9n\u00e9ralis\u00e9e de connaissances techniques sur l\u2019IA, m\u00eame chez la majorit\u00e9 des sp\u00e9cialistes du num\u00e9rique.<\/p>\n<p>Le ph\u00e9nom\u00e8ne est notamment li\u00e9 \u00e0 l\u2019appellation m\u00eame de l\u2019IA, lanc\u00e9e en 1955 par John MacCarthy lorsqu\u2019il proposa la tenue d\u2019un summer camp pour l\u2019\u00e9t\u00e9 1956 au coll\u00e8ge de Darmouth dans le New Hampshire. C\u2019\u00e9tait une appellation marketing cr\u00e9\u00e9e pour faire parler d\u2019elle et l\u2019effet s\u2019en ressent encore aujourd\u2019hui. A tel point que les d\u00e9bats sont sans fin pour d\u00e9finir la nature m\u00eame de l\u2019intelligence humaine et celle que les machines peuvent acqu\u00e9rir. On en vient parfois \u00e0 qualifier d\u2019IA ce que les machines ne peuvent pas encore faire. D\u00e8s que la magie des tours de l\u2019IA d\u2019aujourd\u2019hui est r\u00e9v\u00e9l\u00e9e, pour certains, ce n\u2019est plus de l\u2019IA !<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Magic-wand.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border: 0px;\" title=\"Magic wand\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Magic-wand_thumb.jpg\" alt=\"Magic wand\" width=\"172\" height=\"180\" border=\"0\" \/><\/a><\/p>\n<p>Vous entendez aussi les m\u00eames arguments jusqu\u2019\u00e0 la lie. IBM Watson est le R\u00e9my Bricka de l\u2019IA qui sait tout faire, DeepMind AlphaGo symbolise l\u2019intelligence de la machine, le dernier futur-processeur d\u2019Intel Loihi imite le cerveau humain (avec <a href=\"https:\/\/www.engadget.com\/2017\/09\/26\/intel-loihi-neuromorphic-chip-human-brain\/\">130 000 neurones<\/a>\u2026), les voitures autonomes sont pour tout de suite et des solutions marketing miracles vont m\u00eame pr\u00e9dire \u00e0 l\u2019avance ce que vous allez d\u00e9sirer et acheter. Bref, l\u2019IA incarne un d\u00e9terminisme futur pr\u00eat \u00e0 d\u00e9fier toute forme de s\u00e9rendipit\u00e9, de hasard et de libre arbitre pour ce qui concerne votre petite vie monotone.<\/p>\n<p>Trop souvent, les \u00e9tudes de cas sont bien enjoliv\u00e9es comme avec ce fonds d\u2019investissement <b>Deep Knowledge Venture<\/b> de Hong Kong et Londres qui nommait en 2014 une IA \u00e0 son board, d\u00e9nomm\u00e9e VITAL ! Elle devait servir \u00e0 identifier les projets les plus prometteurs dans lesquels investir. Le logiciel est ainsi facilement pass\u00e9 de membre du board \u00e0 CEO de l\u2019entreprise ! Son mod\u00e8le est en tout cas r\u00e9cursif car ce fonds a investi dans <b>Transplanetary<\/b>, une startup sp\u00e9cialis\u00e9e dans la recommandation d\u2019investissements dans les industries spatiales, avec son logiciel SPOCK (Space Program Ontologically Computed Knowledge). Il y a aussi ces solutions d\u2019IA \u201cprecogs\u201d qui pourraient pr\u00e9dire les heures et lieux des crimes \u00e0 Londres alors, que dans la pratique, il s\u2019agira de d\u00e9terminer les risques de r\u00e9cidives de suspects en garde \u00e0 vue (<a href=\"http:\/\/www.bbc.com\/news\/technology-39857645\">source<\/a>). Et c\u2019est \u00e0 Durham, qui est \u00e0 plus de 300 km de Londres ! A chaque annonce, il faut quasiment tout v\u00e9rifier !<\/p>\n<p>Enfin, les pr\u00e9visions vont bon train sur la disparition des emplois : jusqu\u2019\u00e0 50% d\u2019ici 2025 sachant que des \u00e9tudes r\u00e9centes sont descendues \u00e0 7% en net. En oubliant au passage qu\u2019une bonne part de la disparition de m\u00e9tiers ne vient pas sp\u00e9cifiquement de l\u2019IA mais de l\u2019automatisation et du transfert du travail vers\u2026 les clients, comme pour les caisses automatiques dans la distribution ou dans une bonne part de l\u2019\u00e9conomie collaborative.<\/p>\n<p>La supr\u00e9matie des GAFAMI est souvent mont\u00e9e en \u00e9pingle, \u00e9rig\u00e9e en barri\u00e8re insurmontable pour les autres innovateurs. On vous rabattra les oreilles avec la cr\u00e9ation de valeur de Whatsapp vs celle de PSA et la comparaison du nombre de salari\u00e9s (55 vs plus de 200000). Et tant qu\u2019\u00e0 faire, d\u2019ici m\u00eame pas 10 ans, nos cerveaux seront directement connect\u00e9s aux \u201cIA\u201d. La preuve : Neuralink et Facebook y travaillent ! Pas la peine de r\u00e9sister !<\/p>\n<p>Ces prospectivistes diablement efficaces dans leur communication sont rarement des sp\u00e9cialistes de l\u2019IA au sens scientifique du terme. Et quand ils le sont, les exag\u00e9rations subtiles s\u2019accumulent sur leurs fonctions. L\u2019exemple le plus connu est celui de l\u2019empereur des pr\u00e9visions et le prince consort de la singularit\u00e9 Ray Kurzweil qui est pr\u00e9sent\u00e9 selon les jours comme dirigeant toute la R&amp;D, toute la recherche ou toute l\u2019ing\u00e9nierie de Google, alors qu\u2019il ne dispose que d\u2019une petite \u00e9quipe d\u2019une vingtaine de personnes et ne dirige ni Google Brain ni Deep Mind qui sont les deux principales entit\u00e9s de recherche de Google dans l\u2019IA. C\u2019est totalement anecdotique mais fait partie de la mani\u00e8re on enjolive les choses pour faire passer ses messages ampoul\u00e9s sur l\u2019IA.<\/p>\n<p>A force de ne parler que du futur, on en oublie le pr\u00e9sent ! Cette soci\u00e9t\u00e9 de l\u2019IA du spectacle cr\u00e9\u00e9 une atmosph\u00e8re d\u00e9lirante qui devient perturbante pour les entreprises. Certes, elle va les titiller, \u00e9ventuellement leur faire peur et peut-\u00eatre aiguiser leur int\u00e9r\u00eat. Elles se demandent surtout comment int\u00e9grer l\u2019IA dans leur strat\u00e9gie et ont besoin de revenir sur terre, \u00e0 des choses pratiques et faisables.<\/p>\n<p>L\u2019IA constitue bien une \u00e9volution majeure des outils num\u00e9riques. Il faut en appr\u00e9hender les enjeux et les opportunit\u00e9s. Ceux-ci n\u2019ont rien de sensationnel. Le potentiel de l\u2019IA est \u00e9norme pour les entreprises de tous les secteurs d\u2019activit\u00e9s mais encore faut-il conserver la t\u00eate sur les \u00e9paules pour l\u2019appr\u00e9hender pos\u00e9ment. Les technologies d\u2019aujourd\u2019hui sont d\u00e9j\u00e0 suffisamment riches pour \u00eatre cr\u00e9atifs et innovants ! Pas besoin d\u2019en faire des tonnes ! Par ailleurs, l\u2019automatisation \u00e0 outrance a des limites qu\u2019il faut \u00e9valuer. Les entreprises doivent conserver un minimum de visage humain et ne pas passer leur temps \u00e0 se cacher derri\u00e8re des logiciels !<\/p>\n<p>Voici donc venue l\u2019heure du d\u00e9fouloir avec quelques-uns de ces nombreux mythes sur l\u2019IA. Cet inventaire n\u2019est \u00e9videmment pas complet et libre \u00e0 vous d\u2019en ajouter !<\/p>\n<p><strong>1) Les algorithmes de l\u2019IA n\u2019auraient pas \u00e9volu\u00e9 en 20 ans<\/strong><\/p>\n<p>Un lieu commun voudrait que les algorithmes de l\u2019IA n\u2019\u00e9voluent pas et que tous les progr\u00e8s r\u00e9cents soient essentiellement li\u00e9s \u00e0 ceux du mat\u00e9riel et \u00e0 l\u2019abondance de donn\u00e9es exploitables.<\/p>\n<p>Les progr\u00e8s algorithmiques sont effectivement faibles dans le machine learning car celui-ci s\u2019appuie sur des m\u00e9thodes de classification, pr\u00e9diction et segmentation qui datent d\u2019une \u00e0 deux d\u00e9cennies. Il en va tout autrement du deep learning. Ses bases modernes datent de 2006 et ses techniques n\u2019ont cess\u00e9 d\u2019\u00e9voluer depuis. Rien qu\u2019en 2016, les r\u00e9seaux de neurones convolutionnels qui servent notamment \u00e0 la reconnaissance d\u2019images ont b\u00e9n\u00e9fici\u00e9 de nombreuses nouvelles d\u00e9clinaisons sans compter les r\u00e9seaux g\u00e9n\u00e9ratifs capables de transformer et g\u00e9n\u00e9rer des images. C\u2019est seulement depuis 2015 que ces r\u00e9seaux permettent de tagger efficacement plusieurs objets dans une image ou une vid\u00e9o.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Avancees-recentes-du-deep-learning.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Avancees recentes du deep learning\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Avancees-recentes-du-deep-learning_thumb.jpg\" alt=\"Avancees recentes du deep learning\" width=\"492\" height=\"285\" border=\"0\" \/><\/a><\/p>\n<p>Le \u201czoo\u201d des r\u00e9seaux de neurones est complexe (<em>ci-dessous<\/em>). Le deep learning requiert des techniques d\u2019assemblage de ces briques qui \u00e9voluent sans cesse. Elles visent en g\u00e9n\u00e9ral deux objectifs compl\u00e9mentaires : am\u00e9liorer la performance qualitative des r\u00e9seaux de neurones, notamment dans la reconnaissance d\u2019objets, et am\u00e9liorer celle de l\u2019entrainement qui est tr\u00e8s couteuse en ressources machines, m\u00eame avec des GPUs et des processeurs neuromorphiques comme les TPU de Google.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/zoo-des-reseaux-de-neurones.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"zoo des reseaux de neurones\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/zoo-des-reseaux-de-neurones_thumb.jpg\" alt=\"zoo des reseaux de neurones\" width=\"481\" height=\"274\" border=\"0\" \/><\/a><\/p>\n<p>Qui plus est, les travaux de recherche publi\u00e9s dans les grandes conf\u00e9rences internationales de l\u2019IA sont tr\u00e8s nombreux, ce que l\u2019on peut constater dans les r\u00e9centes conf\u00e9rences <a href=\"https:\/\/ijcai-17.org\/\"><b>IJCAI<\/b><\/a> de 2017 et <a href=\"https:\/\/nips.cc\/Conferences\/2016\/Schedule\"><b>NIPS<\/b><\/a> de 2016. Nombre de travaux portent sur le traitement du langage et le raisonnement automatis\u00e9. Celui-ci s\u2019appuie sur de nombreuses variantes de r\u00e9seaux de neurones dits r\u00e9currents et \u00e0 m\u00e9moire.<\/p>\n<p>Les r\u00e9seaux de neurones \u00e0 m\u00e9moire qui servent surtout au traitement du langage (reconnaissance, traduction, g\u00e9n\u00e9ration) ont de nombreuses d\u00e9clinaisons avec notamment : <b>Stacked RNN<\/b> (RNN empil\u00e9s), <b>MARNN<\/b> (Memory-Augmented Recurrent Neural Networks), <b>LSTM<\/b> (Long Short Term Memory), les <b>GRU<\/b> (Gated Recurrent Units), <b>BLSTM<\/b> (Bidirectionnal Long Short Term Memory), <b>BPTT<\/b> (BackProp Through Time) et <b>RTRL<\/b> (Real Time Recurrent Learning) dont je vous \u00e9pargne les d\u00e9tails. Ils permettent surtout de tenir compte du contexte dans lequel les objets comme des mots sont d\u00e9tect\u00e9s pour analyser le sens d\u2019une phrase. L\u2019un des points cl\u00e9s de ces r\u00e9seaux est leur capacit\u00e9 \u00e0 m\u00e9moriser des contextes<\/p>\n<p>Tous ces travaux de recherche ont une particularit\u00e9 : ils sont exploitables assez rapidement car ils sont publics et relativement facilement reproductibles avec les outils open source du march\u00e9 tels que TensorFlow ou Torch.<\/p>\n<p><b>2) L\u2019IA se r\u00e9sumerait au machine learning et au deep learning<\/b><\/p>\n<p>Le deep learning est mont\u00e9 en \u00e9pingle comme la solution miracle \u00e0 tous les probl\u00e8mes que l\u2019IA cherche \u00e0 r\u00e9soudre. Le \u201cdeep\u201d du deep learning est \u00e0 prendre au premier degr\u00e9 : ses r\u00e9seaux de neurones sont profonds car multicouches. Cela ne les rend pas n\u00e9cessairement profonds du c\u00f4t\u00e9 de l\u2019intelligence m\u00eame si leur fonctionnement rel\u00e8ve d\u2019une forme de biomim\u00e9tisme du cortex visuel. Seulement voil\u00e0, l\u2019intelligence humaine ne fonctionne pas exactement comme les r\u00e9seaux de neurones du deep learning actuels ! Ces r\u00e9seaux n\u2019ont qu\u2019une vue statistique et chiffr\u00e9e des objets qu\u2019ils analysent. Elle n\u2019est ni s\u00e9mantique ni analytique. Le deep learning est-il l\u2019aboutissement ultime de l\u2019IA ? Non, il ne sert qu\u2019\u00e0 r\u00e9soudre certaines classes de probl\u00e8mes, tout du moins avec l\u2019\u00e9tat de l\u2019art actuel.<\/p>\n<p>Le vaste champ de l\u2019IA comprend d\u2019autres techniques, notamment autour de l\u2019IA symbolique, de la programmation logique et des moteurs de r\u00e8gles. L\u2019actualit\u00e9 les a mis en sourdine en raison du tintouin autour du deep learning. Mais celui-ci a des limites. Les meilleures solutions d\u2019IA int\u00e8grent et assemblent souvent plusieurs techniques diff\u00e9rentes.<\/p>\n<p>Il faut d\u2019ailleurs y int\u00e9grer le vaste domaine des r\u00e9seaux d\u2019agents qui servent \u00e0 assembler les briques des solutions d\u2019IA. On les utilise aussi bien pour construire des chatbots que pour piloter des robots.<\/p>\n<p><strong>3) La donn\u00e9e serait la principale composante de l\u2019IA<\/strong><\/p>\n<p>Les donn\u00e9es sont une des trois composantes cl\u00e9s des solutions d\u2019IA avec la puissance des machines et des algorithmes. Mais elles ne font pas tout. Il s\u2019agit d\u2019une v\u00e9ritable triade. Sans les trois \u00e9l\u00e9ments, l\u2019IA ne produit pas grand chose. Certaines \u00e9tudes portant sur un seul type de r\u00e9seau de neurones montrent qu\u2019une IA avec plus de donn\u00e9es est plus efficace qu\u2019une IA avec un meilleur algorithme. Mais l\u2019algorithme de d\u00e9part est d\u00e9j\u00e0 bon !<\/p>\n<p>La performance des algorithmes joue un r\u00f4le cl\u00e9 dans la qualit\u00e9 des r\u00e9sultats dans le deep learning, et surtout dans leur performance, notamment la rapidit\u00e9 de la phase d\u2019entrainement des mod\u00e8les. Parfois, comme pour analyser des \u00e9lectrocardiogrammes (ECG), il peut aussi \u00eatre n\u00e9cessaire d\u2019associer une bonne demi-douzaine de m\u00e9thodes diff\u00e9rentes pour produire un diagnostic complet !<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/ECG-en-pratique.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border: 0px;\" title=\"ECG en pratique\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/ECG-en-pratique_thumb.jpg\" alt=\"ECG en pratique\" width=\"504\" height=\"283\" border=\"0\" \/><\/a><\/p>\n<p>Pour ce qui est de la reconnaissance des images, il faut distinguer le temps d\u2019entrainement et le pourcentage de bonnes reconnaissances. Les progr\u00e8s des algorithmes visent \u00e0 am\u00e9liorer l\u2019une comme l\u2019autre. La taille des jeux de donn\u00e9es est en effet critique pour bien entrainer un mod\u00e8le. Si l\u2019algorithme utilis\u00e9 n\u2019est meilleur que dans la vitesse d\u2019entrainement, ce qui est souvent le cas dans des variantes de r\u00e9seaux de neurones convolutionnels, alors, la performance de la reconnaissance ne changera pas lors de l\u2019ex\u00e9cution du mod\u00e8le entrain\u00e9. Par contre, avec plus de donn\u00e9es d\u2019entrainement, celui-ci sera plus long.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Algos-et-donnees-dans-le-deep-learning.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Algos et donnees dans le deep learning\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Algos-et-donnees-dans-le-deep-learning_thumb.jpg\" alt=\"Algos et donnees dans le deep learning\" width=\"483\" height=\"300\" border=\"0\" \/><\/a><\/p>\n<p>Donc, comme illustr\u00e9 dans mon petit sch\u00e9ma ci-dessus, il faut \u00e0 la fois de meilleurs jeux de donn\u00e9es et de meilleurs algorithmes pour que l\u2019entrainement soit aussi rapide que possible et que les r\u00e9sultats g\u00e9n\u00e8rent ensuite le moins d\u2019erreurs possible.<\/p>\n<p><strong>4) L\u2019IA se formerait instantan\u00e9ment<\/strong><\/p>\n<p>Le temps d\u2019entrainement d\u2019un syst\u00e8me mono-fonction de deep learning se compte au minimum en heures ou en jours, voire en semaines, comme pour la reconnaissance d\u2019images pour l\u2019interpr\u00e9tation d\u2019imagerie m\u00e9dicale. Qui plus est, l\u2019IA ne s\u2019entraine pas toute seule. Elle requiert beaucoup d\u2019it\u00e9rations avec de l\u2019intervention humaine.<\/p>\n<p>La notion de syst\u00e8mes auto-apprenants dans le machine learning est une vue de l\u2019esprit. Les data scientists doivent faire de nombreux tests et de la supervision pour choisir les bons mod\u00e8les statistiques de segmentation, classification ou pr\u00e9diction ! Pour les r\u00e9seaux de neurones du deep learning, ils doivent r\u00e9aliser des tests pour en dimensionner les grandes caract\u00e9ristiques et \u00e9valuer leur efficacit\u00e9 avec les jeux de donn\u00e9es disponibles. Les it\u00e9rations peuvent \u00eatre tr\u00e8s longues et laborieuses si les jeux d\u2019entrainement et de tests sont importants. Elles peuvent durer plusieurs jours, ce qui est bien plus long qu\u2019une compilation de code ou l\u2019ex\u00e9cution imm\u00e9diate de la plupart des codes interpr\u00e9t\u00e9s utilis\u00e9s dans le monde du web.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Apprentissage-deep-learning.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Apprentissage deep learning\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Apprentissage-deep-learning_thumb.jpg\" alt=\"Apprentissage deep learning\" width=\"523\" height=\"220\" border=\"0\" \/><\/a><\/p>\n<p>Par contre, il est vrai qu\u2019une fois qu\u2019un mod\u00e8le de machine learning ou de deep learning a \u00e9t\u00e9 entrain\u00e9 avec succ\u00e8s, son ex\u00e9cution op\u00e9rationnelle est alors tr\u00e8s rapide. Dans le cas du deep learning, c\u2019est assez simple \u00e0 comprendre : un r\u00e9seau de neurones convolutionnel de reconnaissance d\u2019images peut comprendre des millions de param\u00e8tres qu\u2019il faut ajuster en faisant des tests pour chaque objet de la base de test. Cela g\u00e9n\u00e8re une combinatoire de calcul immense. Lorsque le mod\u00e8le est entrain\u00e9, il suffit de charger les variables en question qui ne bougent plus et de faire passer l\u2019objet \u00e0 reconnaitre au travers du r\u00e9seau de neurones devenu ainsi statique. Et comme il s\u2019agit de logiciel, le co\u00fbt de r\u00e9plication et d\u2019ex\u00e9cution de la solution est en effet tr\u00e8s faible.<\/p>\n<p>Nous avons au bout du compte un entrainement laborieux et une ex\u00e9cution effectivement peu couteuse. Cela explique la pr\u00e9sence de noyaux neuromorphiques dans les derniers processeurs mobiles (Kirin 970 pour Huawei et A11 Bionic Neural Engine pour les iPhone 8 et X) : ils sont peu puissants (1 \u00e0 2 TFlops\/s) mais ne servent qu\u2019\u00e0 l\u2019ex\u00e9cution de r\u00e9seaux de neurones d\u00e9j\u00e0 entrain\u00e9s sur serveurs avec des moyens bien plus importants, comme pour la reconnaissance d\u2019images ou de la parole.<\/p>\n<p>On oublie aussi que la majorit\u00e9 des solutions d\u2019IA, comme celles de l\u2019exploitation d\u2019imagerie m\u00e9dicale, s\u2019appuie sur des bases de connaissances qui sont le r\u00e9sultat de longues recherches scientifiques r\u00e9alis\u00e9es par des milliers de sp\u00e9cialistes. Quand AlphaGo gagne contre le champion du monde, il exploite aussi 150 000 parties des meilleurs joueurs du monde. Cette connaissance d\u2019origine humaine a mis du temps \u00e0 se construire. L\u2019IA est souvent un \u201cfree rider\u201d qui exploite cette longue accumulation.<\/p>\n<p>Un jour peut-\u00eatre, certaines IA seront capables d\u2019interagir avec le monde physique et d\u2019accumuler des connaissances de haut niveau bas\u00e9es sur l\u2019exp\u00e9rimentation. Aujourd\u2019hui, ce principe commence \u00e0 \u00eatre op\u00e9rant avec des robots qui apprennent \u00e0 se mouvoir par apprentissage it\u00e9ratif. L\u2019\u00e9quivalent intellectuel n\u2019est pas encore l\u00e0, notamment dans la facult\u00e9 de raisonner par analogies. Mais des chercheurs et des startups y travaillent !<\/p>\n<p><strong>5) L\u2019IA serait quasiment gratuite<\/strong><\/p>\n<p>L\u2019IA serait aussi gratuite et abondante. Elle apparait gratuite dans les services en ligne grand public qui sont financ\u00e9s par la publicit\u00e9. Avec ou sans IA d\u2019ailleurs. C\u2019est le cas des mod\u00e8les \u00e9conomiques bifaces o\u00f9 l\u2019utilisateur n\u2019est pas l\u2019acheteur. Et ce n\u2019est pas sp\u00e9cifique \u00e0 l\u2019IA.<\/p>\n<p>De son c\u00f4t\u00e9, l\u2019IA en canc\u00e9rologie n\u2019est pas encore commercialis\u00e9e gratuitement ! Et pour cause, les soci\u00e9t\u00e9s qui en proposent doivent la mon\u00e9tiser et elles ne peuvent pas le faire directement aupr\u00e8s des patients car cela rel\u00e8verait d\u2019un exercice ill\u00e9gal de la m\u00e9decine. Qui plus est, comme nous le verrons plus loin, ces solutions ne font pas encore des miracles. Les questions de biologie ne se traitent pas uniquement avec des statistiques ! Ces solutions aident les sp\u00e9cialistes dans les diagnostics et les prescriptions mais ne les remplacent pas encore.<\/p>\n<p>Enfin, l\u2019IA n\u2019est pas du tout gratuite du c\u00f4t\u00e9 du cloud et des data centers qu\u2019elle n\u00e9cessite pour son fonctionnement. Un serveur Nvidia DGX1 coute la bagatelle de $129K ! Certes, ces machines b\u00e9n\u00e9ficient de la dimension \u00e9conomique de la loi de Moore et leur prix baisse r\u00e9guli\u00e8rement. Mais au gr\u00e9 de cette baisse, les besoins mat\u00e9riels des solutions d\u2019IA augmentent et l\u2019ensemble s\u2019\u00e9quilibre.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Nvidia-DGX1.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Nvidia DGX1\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Nvidia-DGX1_thumb.jpg\" alt=\"Nvidia DGX1\" width=\"507\" height=\"176\" border=\"0\" \/><\/a><\/p>\n<p>Par contre, lorsqu\u2019un logiciel ou une IA peut remplacer une activit\u00e9 humaine, il est fr\u00e9quent qu\u2019elle soit moins ch\u00e8re que cette derni\u00e8re et surtout dans les pays d\u00e9velopp\u00e9s o\u00f9 le cout du travail est \u00e9lev\u00e9. L\u2019IA n\u2019a pas besoin d\u2019\u00eatre gratuite pour \u00eatre comp\u00e9titive. Si elle est 10 fois moins ch\u00e8re qu\u2019un \u00e9quivalent humain, c\u2019est d\u00e9j\u00e0 une r\u00e9volution ! C\u2019est d\u2019ailleurs l\u2019argument marketing qui est utilis\u00e9 par les fournisseurs de solutions de Robotics Process Automation, qui visent \u00e0 automatiser les fonctions bureaucratiques qui font appel \u00e0 une multitude d\u2019applications m\u00e9tiers. Elles commencent \u00e0 \u00eatre \u00e9merger aux USA dans la banque et l\u2019assurance.<\/p>\n<p><strong>6) IBM Watson remplacerait les canc\u00e9rologues<\/strong><\/p>\n<p>En fait, pas encore ! IBM a beaucoup communiqu\u00e9 sur des d\u00e9ploiements d\u2019IBM Watson for Oncology, mais derri\u00e8re un marketing puissant qui a d\u00e9marr\u00e9 il y a quelques ann\u00e9es, les d\u00e9ploiements significatifs ne sont pas encore l\u00e0 pour permettre une mesure r\u00e9elle des b\u00e9n\u00e9fices. Et ceux-ci sont g\u00e9n\u00e9ralement sur\u00e9valu\u00e9s. Cf <a href=\"https:\/\/www.statnews.com\/2017\/09\/05\/watson-ibm-cancer\/\">IBM pitched its Watson supercomputer as a revolution in cancer care. It\u2019s nowhere close<\/a> de Casey Ross., septembre 2017, qui d\u00e9crit bien la situation.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/IBM-Watson-Cancer-hype.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"IBM Watson Cancer hype\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/IBM-Watson-Cancer-hype_thumb.jpg\" alt=\"IBM Watson Cancer hype\" width=\"507\" height=\"142\" border=\"0\" \/><\/a><\/p>\n<p>C\u2019est explicable par au moins trois ph\u00e9nom\u00e8nes :<\/p>\n<ul>\n<li>Les <strong>bases de connaissances sont biais\u00e9es <\/strong>! Dans <a href=\"http:\/\/journals.plos.org\/plosmedicine\/article\/file?id=10.1371\/journal.pmed.1001747&amp;type=printable\">How to Make More Published Research True<\/a>, John Ioannidis expliquaient en 2014 que 85% des ressources des chercheurs sont gaspill\u00e9es et leurs r\u00e9sultats publi\u00e9s sont faux ou exag\u00e9r\u00e9s. Dans <a href=\"https:\/\/www.nature.com\/nature\/journal\/v483\/n7391\/pdf\/483531a.pdf\">Raise standards for preclinical cancer research<\/a>, Glenn Begley et Lee Ellis indiquaient en 2012 que 90% des r\u00e9sultats de 53 \u00e9tudes majeures dans le domaine du cancer n\u2019\u00e9taient pas reproductibles. Donc, si elles sont utilis\u00e9es par Watson, il ne peut pas en sortir grand-chose d\u2019utile ! Voire, cela peut m\u00eame \u00eatre dangereux. Enfin, dans <a href=\"https:\/\/www.nature.com\/nrd\/journal\/v10\/n9\/pdf\/nrd3439-c1.pdf\">Believe it or not: how much can we rely on published data on potential drug targets?<\/a>, Florian Prinz, Thomas Schlange et Khusru Asadullah indiquaient en 2011 que 79% des r\u00e9sultats de 67 travaux de recherche en canc\u00e9rologie et cardiologie n\u2019\u00e9taient pas reproductibles chez Bayer. Qui plus est, les recherches qui donnent lieu \u00e0 des r\u00e9sultats n\u00e9gatifs sont bien moins publi\u00e9es que celles qui sont concluantes. Ce sont toutes ces \u00e9tudes qui alimentent Watson for Oncology ! Le biais statistique qu\u2019elles induisent n&#8217;est pas marginal. Il est potentiellement \u00e9norme et \u00e0 m\u00eame d&#8217;influer sur la qualit\u00e9 des r\u00e9sultats alors que des donn\u00e9es fausses \u00e0 quelques % n&#8217;auraient qu&#8217;un impact limit\u00e9 !<\/li>\n<\/ul>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Fake-research-stats.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Fake research stats\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Fake-research-stats_thumb.jpg\" alt=\"Fake research stats\" width=\"512\" height=\"136\" border=\"0\" \/><\/a><\/p>\n<ul>\n<li>Les cancers sont des <strong>maladies plurifactorielles complexes<\/strong>. Les \u00e9chantillons de patients pour lesquels on dispose du g\u00e9notype et du ph\u00e9notype complets ne sont pas toujours suffisamment repr\u00e9sentatifs d\u2019un point de vue statistique pour que l\u2019on puisse en tirer quelque chose pour chaque patient. L\u2019une des approches actuelles est de cr\u00e9er des immunoth\u00e9rapies cibl\u00e9es autologues, personnalis\u00e9es en fonction de chaque patient. Ce sont des approches tr\u00e8s couteuses, jusqu\u2019\u00e0 $400K par an de traitement. Et Watson ne contribue pas du tout \u00e0 en baisser le prix.<\/li>\n<li>Les <strong>projets \u00e0 base d\u2019IBM Watson d\u00e9marrent lentement <\/strong>en phase pilote. Le processus est laborieux, sachant que les praticiens ne sont pas bien rapides pour changer leurs habitudes, m\u00eame aux USA.<\/li>\n<\/ul>\n<p>Par contre, IBM Watson et de nombreux concurrents sont tr\u00e8s efficaces dans l\u2019analyse d\u2019imagerie m\u00e9dicale, qui ne requiert pas de maitriser des param\u00e8tres biologiques complexes comme en canc\u00e9rologie. Il faut donc faire la part des choses entre le diagnostic qui peut faire appel \u00e0 des analyses g\u00e9nomiques ou \u00e0 de l\u2019imagerie m\u00e9dicale et \u00e0 la prescription automatis\u00e9e et optimale au cas par cas qui est plus difficile \u00e0 automatiser compte-tenu des donn\u00e9es disponibles.<\/p>\n<p><strong>7) Les progr\u00e8s de l\u2019IA seraient plus qu\u2019exponentiels<\/strong><\/p>\n<p>Selon Laurent Alexandre (<a href=\"https:\/\/www.youtube.com\/watch?v=0RtEWhFaFGw\">UE MEDEF 2017<\/a>), l\u2019IA verrait sa productivit\u00e9 multipli\u00e9e par 100 chaque ann\u00e9e. Selon quelle unit\u00e9 de mesure ? Ni l\u2019IA ni la loi de Moore n\u2019\u00e9voluent aussi rapidement, m\u00eame avec les processeurs neuromorphiques et les GPU. Il en va de m\u00eame sur l\u2019aspect fonctionnel.<\/p>\n<p>Les progr\u00e8s dans le mat\u00e9riel sont pourtant bien significatifs. Entre les deux derni\u00e8res g\u00e9n\u00e9rations de GPU <strong>Nvidia <\/strong>(Pascal V100 de 2016 et Volta GV100 2017), le gain de performance brut dans les calculs li\u00e9s au deep learning vont d&#8217;un facteur 1,8 \u00e0 9,3. C\u2019est li\u00e9 \u00e0 l\u2019utilisation de multiplicateurs de matrices dans cette nouvelle g\u00e9n\u00e9ration de GPU, une technique que l\u2019on ne trouvait jusqu\u2019\u00e0 pr\u00e9sent que dans les processeurs neuromorphiques.<\/p>\n<p>Dans la pratique, l\u2019entrainement d\u2019un r\u00e9seau de neurones convolutionnel de type ResNet pour la reconnaissance d\u2019images est 2,4 fois plus rapide et son ex\u00e9cution en run-time est 3,7 fois plus rapide entre ces deux g\u00e9n\u00e9rations de GPU. C\u2019est tr\u00e8s bien mais on est loin d\u2019un facteur 100 qui permet d\u2019impressionner un auditoire ! Par contre, \u00e9videmment, si vous en alignez 40 en parall\u00e8le, l\u2019entrainement ira en effet 100 fois plus vite qu\u2019avec un GPU d\u2019ancienne g\u00e9n\u00e9ration dans la mesure o\u00f9 les frameworks de deep learning savent assez bien parall\u00e9liser l\u2019entrainement sur plusieurs GPU. Ce, d\u2019autant plus qu\u2019ils sont reli\u00e9s entre eux par des bus de donn\u00e9es tr\u00e8s rapides comme NVLink, qui p\u00e9dale \u00e0 300 Go\/s avec cette derni\u00e8re g\u00e9n\u00e9ration de GPU.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Evolution-performance-GPU-Nvidia.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Evolution performance GPU Nvidia\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Evolution-performance-GPU-Nvidia_thumb.jpg\" alt=\"Evolution performance GPU Nvidia\" width=\"523\" height=\"253\" border=\"0\" \/><\/a><\/p>\n<p>Par contre, des progr\u00e8s mat\u00e9riels et conceptuels pourront intervenir par \u00e0-coups dans le futur, notamment avec les processeurs neuromorphiques, les processeurs optiques (cf les <a href=\"https:\/\/www.nature.com\/nphoton\/journal\/v11\/n7\/abs\/nphoton.2017.93.html\">premi\u00e8res exp\u00e9rimentations<\/a> de r\u00e9seaux de neurones sur processeur photonique ainsi que ce que fait la startup fran\u00e7aise <strong>LightOn<\/strong>)\u00a0 et les processeurs quantiques qui pourront chacun faire progresser significativement la puissance de calcul et surtout d\u2019entrainement des IAs et ouvrir le champ des possibles dans des domaines vari\u00e9s comme la simulation du vivant, la d\u00e9couverte de nouvelles th\u00e9rapies cibl\u00e9es et la simulation dans la physique des mat\u00e9riaux et la chimie.<\/p>\n<p><strong>8) L\u2019AGI est la suite logique de l\u2019ANI<\/strong><\/p>\n<p>ANI (IA \u00e9troite), AGI (IA g\u00e9n\u00e9rale) puis ASI (IA sup\u00e9rieure) : c\u2019est la suite logique de l\u2019histoire de l\u2019IA \u00e0 venir, \u00e9rig\u00e9e comme un dogme.<\/p>\n<p>L\u2019un des travers de ce dogme est de s\u2019appuyer sur un pr\u00e9dicat erron\u00e9 qui positionne l\u2019intelligence humaine et celle des machines sur une seule dimension, celle de la puissance brute de calcul. On compare donc des capacit\u00e9s de calcul du cerveau humain (qui calcule peu et est massivement parall\u00e8le et maill\u00e9) et de machines (qui, pour faire simple, font des op\u00e9rations + \u2013 \/ * et des op\u00e9rations sur des matrices) en n\u00e9gligeant de nombreux points cl\u00e9s comme les entr\u00e9es-sorties.<\/p>\n<p>L\u2019AGI (Artificial General Intelligence) serait l\u2019aboutissement m\u00e9canique de l\u2019application b\u00eate de la loi de Moore. Tout au plus doit-on r\u00e9guli\u00e8rement en repousser l\u2019\u00e9ch\u00e9ance du fait des d\u00e9couvertes incessantes sur la complexit\u00e9 du cerveau. Et c\u2019est sans compter l\u2019av\u00e8nement de l\u2019ASI, une intelligence ultra-sup\u00e9rieure, incontr\u00f4lable et unique (ASI) qui serait quasiment instantan\u00e9 apr\u00e8s celui de l\u2019AGI.<\/p>\n<p>Les pr\u00e9visions oublient de mentionner ce que l\u2019on d\u00e9couvre r\u00e9guli\u00e8rement sur la complexit\u00e9 du cerveau et de la m\u00e9moire. On ne sait d\u2019ailleurs toujours pas d\u00e9crire avec pr\u00e9cision le fonctionnement de cette derni\u00e8re. Le fonctionnement des neurones pourrait \u00eatre bien plus complexe qu\u2019estim\u00e9 il y a 10 ou 15 ans.<\/p>\n<p>L\u2019intelligence humaine est complexe. Elle est li\u00e9e \u00e0 la sophistication du cerveau et aussi \u00e0 nos sens, \u00e0 notre v\u00e9cu et \u00e0 notre perception du monde. Les sens humains et m\u00eame ceux des mammif\u00e8res sont encore plus difficiles \u00e0 imiter par des machines que certaines capacit\u00e9s intellectuelles. On parle toujours du cortex qui g\u00e8re l\u2019intelligence mais on n\u00e9glige syst\u00e9matiquement le cervelet, cette partie du cerveau ultra-dense qui comprend quatre fois plus de neurones que le cortex et g\u00e8re les automatismes appris (marche, mouvements occulaires, conduite, v\u00e9lo, marche, danse, pr\u00e9hension, \u2026). Qui plus est, les mammif\u00e8res sont plut\u00f4t efficaces c\u00f4t\u00e9 consommation \u00e9nerg\u00e9tique : un humain consomme 100 W au repos et son cerveau 20 W, le double d\u2019un laptop d\u2019aujourd\u2019hui. Et les IA du moment sont bien plus consommatrices d\u2019\u00e9nergie, sans parler des robots.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/AGI-and-ASI.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"AGI and ASI\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/AGI-and-ASI_thumb.jpg\" alt=\"AGI and ASI\" width=\"514\" height=\"291\" border=\"0\" \/><\/a><\/p>\n<p>Les prospectivistes de l\u2019IA adoptent g\u00e9n\u00e9ralement une vision trop lin\u00e9aire de l\u2019histoire des technologies. Celle-ci suit plusieurs chemins en parall\u00e8le. Elle est diverse, m\u00eame dans les infrastructures mat\u00e9rielles. D\u2019ailleurs, m\u00eame le Skynet de Terminator n\u2019\u00e9tait pas centralis\u00e9 mais diss\u00e9min\u00e9 dans tous les ordinateurs, propag\u00e9 par un virus hostile !<\/p>\n<p>Qui plus est, les machines ont presque toujours besoin d\u2019interventions humaines. Leur intelligence m\u00e9canique est aliment\u00e9e par l\u2019exp\u00e9rience et l\u2019intelligence humaines. L\u2019exp\u00e9rience montre aussi que des IA coupl\u00e9es \u00e0 des hommes sont sup\u00e9rieures aux IA seules. Enfin, les Hommes et les machines n\u2019ont pas les m\u00eames capacit\u00e9s et se compl\u00e8tent. Les machines d\u00e9passent d\u00e9j\u00e0 tr\u00e8s largement l\u2019Homme dans un tas de domaines sans que cela rel\u00e8ve d\u2019une intelligence surhumaine.<\/p>\n<p><strong>9) Les prospectivistes de l\u2019IA seraient des sp\u00e9cialistes de l\u2019IA<\/strong><\/p>\n<p>En pratique, c\u2019est bien rare ! La plupart n\u2019ont jamais cod\u00e9 quoi que ce soit dans l\u2019IA, moi compris d\u2019ailleurs, m\u00eame si j\u2019ai examin\u00e9 de pr\u00e8s des exemples de code Torch ou TensofFlow de cr\u00e9ation de r\u00e9seaux de neurones convolutionnels.<\/p>\n<p>Nous en avons un bel exemple avec cette conf\u00e9rence parmi d\u2019autres sur laquelle je suis tomb\u00e9 par hasard : <a href=\"https:\/\/www.youtube.com\/watch?v=eOB-nmnugjY\">O\u00f9 va nous mener d\u2019intelligence artificielle<\/a>, d\u2019un certain Georges Mitaut, en d\u00e9cembre 2016, r\u00e9alis\u00e9e par un ing\u00e9nieur en t\u00e9l\u00e9communications retrait\u00e9, qui ressasse les lieux communs habituels sur l\u2019IA et la singularit\u00e9 sous forme d\u2019une revue de presse bien slidis\u00e9e. Au milieu de sa pr\u00e9sentation et \u00e0 propos de Google se trouve un logo de <strong>TensorFlow<\/strong>. Le conf\u00e9rencier indique alors que cela fait de l\u2019IA mais qu\u2019il n\u2019a aucune id\u00e9e de ce que cela peut bien faire et comment cela fonctionne ! Ce n\u2019est pas une exception ! La majorit\u00e9 des conf\u00e9renciers sur l\u2019IA font de la prospective alors qu\u2019ils ne connaissent m\u00eame pas les m\u00e9canismes de l\u2019IA et l\u2019\u00e9tat de la recherche fondamentale. C\u2019est consternant et tr\u00e8s courant !<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Counter-singularity-books.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Counter singularity books\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Counter-singularity-books_thumb.jpg\" alt=\"Counter singularity books\" width=\"589\" height=\"280\" border=\"0\" \/><\/a><\/p>\n<p>Il est d\u2019ailleurs tr\u00e8s difficile d\u2019avoir une bonne vue d\u2019ensemble des techniques de l\u2019IA tellement elles sont diverses et le savoir associ\u00e9 est fragment\u00e9. J\u2019y consacre une bonne partie de mon temps depuis des mois et plus j\u2019avance, plus j\u2019en sais et moins j\u2019en sais ! Une bonne approche consiste \u00e0 appr\u00e9hender les caract\u00e9ristiques et limites des techniques existantes, celles de ses connaissances et d\u2019avoir toujours en t\u00eate diverses interrogations. C\u2019est un tonneau des Dana\u00efdes que je remplis et vide perp\u00e9tuellement ! Il n\u2019y a pas de science sans questionnement.<\/p>\n<p>En mati\u00e8re de pr\u00e9visions, on se trouve confront\u00e9 \u00e0 une opposition classique entre ceux qui adoptent une vision macro et ceux qui en ont une vision micro, comme si la seconde \u00e9tait exclusive de la seconde. Pour sortir des mythes, il vaut mieux \u00e9couter ou lire les chercheurs <strong>Yann LeCun<\/strong>, <strong>Jean-Gabriel Ganascia<\/strong> (auteur du \u201cMythe de la singularit\u00e9\u201d), <strong>St\u00e9phane Mallat <\/strong>ou<strong> Piero Scaruffi\u00a0<\/strong>qui connaissent bien les arcanes scientifiques des r\u00e9seaux de neurones et ont une vision plus pos\u00e9e des potentialit\u00e9s de l\u2019IA.<\/p>\n<p>Face \u00e0 l\u2019argument du \u201ctout est possible\u201d, il est difficile d\u2019argumenter. Les capacit\u00e9s de pr\u00e9diction de Ray Kurzweil sont souvent enjoliv\u00e9es. Elles sont tr\u00e8s biais\u00e9es pour ce qui rel\u00e8ve du futur lointain. Elles peuvent \u00eatre correctes pour les sciences et technologies relevant de l\u2019univers possible de l\u2019\u00e9poque de la parution de ses ouvrages. Sa m\u00e9thode est assez simple : il fait une pige de la recherche au moment o\u00f9 il \u00e9crit ses bouquins et extrapole \u00e0 partir de l\u00e0. Quand ces travaux n\u2019aboutissent pas aussi rapidement que pr\u00e9vu, les pr\u00e9visions font choux blanc, comme dans les nano-technologies, dont le potentiel \u00e9tait nettement sur\u00e9valu\u00e9 il y a une quinzaine d\u2019ann\u00e9es.<\/p>\n<p><strong>10) Les GAFAMI vont tout d\u00e9vorer <\/strong><\/p>\n<p>Autre m\u00e9thode pour se faire peur, exag\u00e9rer la position strat\u00e9gique des GAFAMI (Google, Apple, Facebook, Amazon, Microsoft, IBM) et pr\u00e9voir qu\u2019ils vont occuper tous les pans de l\u2019\u00e9conomie, y compris ceux de la sant\u00e9, des transports et de la finance. Google deviendrait un laboratoire de pharmacie et un constructeur automobile, sorte de variante am\u00e9ricaine des chaebols cor\u00e9ens.<\/p>\n<p>Mais les AFAMI n\u2019ont pas trop de vell\u00e9it\u00e9s de s\u2019aventurer dans des m\u00e9tiers \u00e9loign\u00e9s des leurs, \u00e9tant d\u00e9j\u00e0 bien occup\u00e9s. <strong>Amazon<\/strong> a ainsi suffisamment de grain \u00e0 moudre pour se d\u00e9velopper dans toutes les facettes du retail, des contenus et du cloud. Et surtout, \u00e9tant parmi les soci\u00e9t\u00e9s les plus profitables du monde en % du CA, ces nouveaux m\u00e9tiers auraient un impact dilutif sur leur mod\u00e8le \u00e9conomique. Ils auront donc plut\u00f4t tendance \u00e0 se concentrer sur les plateformes technologiques num\u00e9riques alimentant ces m\u00e9tiers plut\u00f4t qu\u2019\u00e0 en assumer toute la co\u00fbteuse cha\u00eene de valeur.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Google-AI-First.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"Google AI First\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/Google-AI-First_thumb.jpg\" alt=\"Google AI First\" width=\"449\" height=\"254\" border=\"0\" \/><\/a><\/p>\n<p>Dans la pratique, <strong>Google<\/strong> a bien des pr\u00e9tentions dans la gestion de l\u2019information. Ses serveurs et logiciels sont utilis\u00e9s par des chercheurs dans les biotechs. Mais ce ne sont pas les quelques dizaines de chercheurs de Calico qui font de Google un leader des biotechs ! M\u00eame si ils planchent sur la lutte contre le vieillissement. Quand \u00e0 Verily, une autre filiale d&#8217;Alphabet, elle se positionne dans la gestion des donn\u00e9es. Ses <a href=\"https:\/\/verily.com\/projects\/\">deux projets<\/a>\u00a0de medtechs de mesure continue de la glyc\u00e9mie ont donn\u00e9 lieu \u00e0 une industrialisation, toujours en devenir, par deux pure players du secteur : Dexcom et Novartis. Tous ses autres projets de recherche ont donn\u00e9 lieu \u00e0 des &#8220;partenariats&#8221; avec des entreprises du secteur de la sant\u00e9, dont Sanofi, GSK, AstraZeneca, ainsi que Nikon (pour la d\u00e9tection optique de r\u00e9tinopathie, une application classique du deep learning en vision, aussi r\u00e9alis\u00e9e par <a href=\"https:\/\/www-03.ibm.com\/press\/us\/en\/pressrelease\/51671.wss\">IBM Watson <\/a>et diverses startups).<\/p>\n<p>Cette confusion est entretenue par la notion galvaud\u00e9e de \u201cpartenariat\u201d. De nombreuses annonces d\u2019un partenariat entre la soci\u00e9t\u00e9 X et Y rel\u00e8vent simplement du fait que la soci\u00e9t\u00e9 X utilise la technologie de la soci\u00e9t\u00e9 Y, rien de plus. Ainsi, lorsque Google est partenaire de D-Wave et de la NASA dans l\u2019informatique quantique, Google ne fait qu\u2019utiliser les ordinateurs de D-Wave pour mener des tests avec la NASA. Ensuite, peut-\u00eatre, d\u00e9cidera-t-il de concevoir ses propres ordinateurs quantiques si le besoin s\u2019en fait sentir et si les \u00e9conomies d\u2019\u00e9chelle le justifient.<\/p>\n<p>En 2014, Google avait fait coup sur coup l\u2019acquisition de huit startups dans la robotique, dont la fameuse <strong>Boston Dynamics <\/strong>mais aussi <strong>Schaft<\/strong>, <strong>Industrial Perception<\/strong>, <strong>Redwood Robotics<\/strong>, <strong>Meka Robotics<\/strong>, <strong>Holomni<\/strong>, <strong>Bot &amp; Dolly <\/strong>et <strong>Autofuss<\/strong>. Ca y \u00e9tait : Google allait devenir le roi de la robotique ! Les d\u00e9s \u00e9taient jou\u00e9s. Ils avaient aspir\u00e9 toutes les comp\u00e9tences du march\u00e9 dignes de ce nom ! Trois ans plus tard, Google a c\u00e9d\u00e9 Boston Dynamics et Schaft \u00e0 <strong>Softbank Robotics <\/strong>qui avait d\u00e9j\u00e0 gob\u00e9 le fran\u00e7ais <strong>Aldebaran Robotics <\/strong>en 2012. Et personne n\u2019avait remarqu\u00e9 que les autres startups \u00e9taient sp\u00e9cialis\u00e9es dans les bras robotis\u00e9s surtout utilis\u00e9s dans les voitures qui scannent les rues pour Google StreetView. Ce genre d\u2019entreprise est fluide. Google se lance ici et l\u00e0 et abandonne la mise si cela ne se passe pas comme pr\u00e9vu, comme avec <strong>Motorola<\/strong>. C\u2019est l\u2019application du fameux adage de l\u2019\u00e9chec formateur, un \u00e9chec d\u2019autant plus tol\u00e9r\u00e9 dans une soci\u00e9t\u00e9 qui croule sous le cash. Et les corrections de tirs sont rapides.<\/p>\n<p>Ces abus de langage sur les GAFAMI contribuent \u00e0 cr\u00e9er une impression selon laquelle l\u2019AI est r\u00e9serv\u00e9e \u00e0 une \u00e9lite technologique et pour les GAFA. Dans la pratique, l\u2019IA est exploitable par toutes les entreprises, notamment via les nombreuses ressources disponibles dans le cloud. Tout est en open source, les logiciels comme les m\u00e9thodes de l\u2019IA.<\/p>\n<p><strong>11) Avec OpenAI, les GAFAMI deviendraient responsables<\/strong><\/p>\n<p>Les dangers perceptibles de l\u2019IA sont \u00e0 l\u2019origine de la cr\u00e9ation d\u2019<b>OpenAI<\/b>, une initiative visant non pas \u00e0 cr\u00e9er une IA open source \u2013 les logiciels de l\u2019IA sont d\u00e9j\u00e0 presque tous open source &#8211; mais \u00e0 surveiller et analyser ses \u00e9volutions. Il s\u2019agit d\u2019une ONG cr\u00e9\u00e9e par Elon Musk qui veut s\u2019assurer de mani\u00e8re asez manich\u00e9enne que l\u2019IA fasse le bien et pas le mal. Elle est dot\u00e9e de $1B et doit faire de la recherche. C\u2019est un peu comme si une organisation patronale s\u2019\u00e9tait lanc\u00e9e dans une initiative visant \u00e0 rendre le capitalisme responsable. C\u2019est d\u2019ailleurs la mission que voudraient se donner diff\u00e9rents Etats en orientant la recherche et les investissements vers de l\u2019IA responsable dans la lign\u00e9e de la \u00ab tech for good \u00bb, la technologie pour le bien de l\u2019Humanit\u00e9 et pas celle qui sert \u00e0 la publicit\u00e9 cibl\u00e9e qui est sa contrapos\u00e9e la plus courante.<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/OpenAI.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"OpenAI\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/OpenAI_thumb.jpg\" alt=\"OpenAI\" width=\"461\" height=\"259\" border=\"0\" \/><\/a><\/p>\n<p>C\u2019est la forme que prend <b>Partnership on AI<\/b>, une initiative et association cr\u00e9\u00e9 en 2016 et rassemblant comme membres fondateurs un bon bout des GAFAMI : Google, Facebook, Amazon, Microsoft et IBM. Il manquait Apple qui les a rejoints en janvier 2017. Donc, ce sont bien exactement les GAFAMI au complet ! L\u2019association est pr\u00e9sid\u00e9e par Eric Horvitz, le patron de Microsoft Research et Mustafa Suleyman de Google, le co-fondateur de DeepMind. Elle doit d\u00e9battre des questions soulev\u00e9es par l\u2019IA et des meilleures pratiques \u00e0 adopter pour en mitiger les risques. Quand on y regarde de pr\u00e8s, cette association prend la forme d\u2019une organisation de lobbying avec les m\u00e9thodes associ\u00e9es : des th\u00e9matiques \u00e0 d\u00e9fendre, l\u2019appel \u00e0 des experts divers, l\u2019organisation de d\u00e9bats et un pied dans la porte des politiques pour \u00e9viter des d\u00e9rives r\u00e9glementaires g\u00eanant l\u2019innovation. Eric Horvitz promeut de son c\u00f4t\u00e9 l\u2019utilisation de l\u2019IA pour le bien de l\u2019humanit\u00e9.<\/p>\n<p>Une autre initiative associe deux fondatrices issus de Microsoft Research et Google : <b>ArtificialIntelligenceNow<\/b>, lanc\u00e9e mi 2016 par Kate Crawford (Microsoft Research) et Meredith Walker (Google Open Research Group). Bas\u00e9e \u00e0 New York, elle est est focalis\u00e9e sur l\u2019impact de l\u2019IA sur les droits civiques, sur l\u2019emploi, les biais et la s\u00e9curit\u00e9 des infrastructures. Elle a publi\u00e9 un premier rapport en 2016.<\/p>\n<p>Sous des couverts de bonne gestion du principe de pr\u00e9caution, ces initiatives des GAFAMI sont \u00e0 \u00e9valuer sous la loupe des pratiques habituelles du lobbying. Elles visent \u00e0 calmer les peurs et \u00e0 assurer les pouvoirs publics qu\u2019une autor\u00e9gulation de l\u2019IA est possible par les acteurs de l\u2019industrie. Cela vise surtout \u00e0 \u00e9viter que ces derniers s\u2019immiscent dans la strat\u00e9gie de ces grands acteurs. Et dans le cas o\u00f9 il viendrait \u00e0 l\u2019id\u00e9e des pouvoirs publics de r\u00e9guler l\u2019IA d\u2019une mani\u00e8re ou d\u2019une autre, d\u2019\u00eatre pr\u00eat avec des propositions compatibles avec leurs strat\u00e9gies. C\u2019est de bonne guerre mais il ne faut pas \u00eatre dupe ! Les GAFAMI ont plus peur des Etats et de l&#8217;utilisations qu&#8217;ils pourraient faire de l&#8217;AI que de leurs propres AIs.<\/p>\n<p><strong>12) La connexion cerveau \u2013 IA serait pour demain<\/strong><\/p>\n<p>Avec Neuralink, la derni\u00e8re startup cr\u00e9\u00e9e par Elon Musk, on va bient\u00f4t connecter les enfants \u00e0 l\u2019IA et l\u2019\u00e9ducation sera d\u00e9pass\u00e9e par l\u2019IA. Neuralink a en effet annonc\u00e9 en avril 2016 plancher sur des nano-\u00e9lectrodes permettant la connexion du cerveau \u00e0 un ordinateur. Facebook travaille de son c\u00f4t\u00e9 sur un casque de t\u00e9l\u00e9pathie de cerveau \u00e0 cerveau en 2019 alors qu\u2019au mieux, il permettra de dicter un texte, lettre par lettre. De son c\u00f4t\u00e9, la startup am\u00e9ricaine OpnWtr planche sur un bonnet dot\u00e9 de capteurs photos et de LED infrarouge permettant de scanner le contenu du cortex et m\u00eame de l\u2019influencer (cf ma s\u00e9rie de trois articles \u201c<a href=\"https:\/\/www.oezratty.net\/wordpress\/2017\/startups-bidouille-cerveau-neuralink\/\">Ces startups qui veulent bidouiller votre cerveau<\/a>\u201d).<\/p>\n<p><a href=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/OpnWatr.jpg\"><img loading=\"lazy\" decoding=\"async\" style=\"background-image: none; padding-top: 0px; padding-left: 0px; margin: 10px 0px 10px 10px; display: inline; padding-right: 0px; border-width: 0px;\" title=\"OpnWatr\" src=\"https:\/\/www.oezratty.net\/wordpress\/wp-content\/WindowsLiveWriter\/Les-mythes-de-lintelligence-artificielle_10EBE\/OpnWatr_thumb.jpg\" alt=\"OpnWatr\" width=\"414\" height=\"147\" border=\"0\" \/><\/a><\/p>\n<p>Va-t-on mettre les microprocesseurs de la technologie d\u2019Elon Musk dans les cerveaux des enfants ? Bien non. Neuralink ne fabrique pas des microprocesseurs \u00e0 implanter dans le cerveau mais de simples \u00e9lectrodes ! Qui sont plut\u00f4t parties pour traiter avec pr\u00e9cision des pathologies neurod\u00e9g\u00e9n\u00e9ratives diverses. Les entrepreneurs vendent du r\u00eave ou du cauchemar. Dans la pratique, ils se rabattent \u00e0 la fin sur des solutions technologiquement int\u00e9ressantes mais pas celles des prospectus de la science fiction.<\/p>\n<p>___________________________________<\/p>\n<p>So what ? En fait, tout ceci n\u2019\u00e9tait qu\u2019un teasing de la sortie en octobre 2017 de mon nouvel ebook sur l\u2019IA \u201c<a href=\"https:\/\/www.oezratty.net\/wordpress\/2017\/usages-intelligence-artificielle-ebook\/\"><strong>Les usages de l\u2019intelligence artificielle<\/strong><\/a>\u201d.<\/p>\n<p>C&#8217;est une mise \u00e0 jour de celui que j\u2019avais publi\u00e9 en <a href=\"https:\/\/www.oezratty.net\/wordpress\/2016\/avancees-intelligence-artificielle-ebook\/\">mai 2016<\/a>. J&#8217;y rentre dans le lard de ces mythes et d\u00e9cortique l\u2019IA d\u2019un point de vue pratique, sur les techniques utilis\u00e9es et leur \u00e9volution, sur le hardware de l\u2019IA, sur les applications horizontales et verticales de l\u2019IA et sur les m\u00e9thodes de d\u00e9veloppement de solutions logicielles et de gestion de projets de l\u2019IA. Bref, on passe de la science-fiction \u00e0 la r\u00e9alit\u00e9 d\u2019aujourd\u2019hui. C\u2019est plus pratique pour agir ! Et comme d\u2019habitude, cet ebook est en Creative Commons et gratuit.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Depuis 2015, la vague de l\u2019intelligence artificielle bat sont plein dans l\u2019\u00e9cosyst\u00e8me num\u00e9rique et bien au-del\u00e0. C\u2019est m\u00eame d\u00e9j\u00e0 devenu un sujet politique. Nous sommes bombard\u00e9s d\u2019annonces sensationnelles \u00e0 r\u00e9p\u00e9tition et des prospectivistes professionnels nous d\u00e9peignent un futur parfois utopique et le plus souvent dystopique \u00e0 l\u2019image d\u2019une bonne partie de la science fiction. La [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[19,2659,7,1570,25,5],"tags":[2833,2470,2657,2644,2832,2972],"class_list":["post-14988","post","type-post","status-publish","format-standard","hentry","category-google","category-intelligence-artificielle","category-logiciels","category-sante","category-sociologie","category-technologie","tag-deep-learning","tag-google","tag-ibm-watson","tag-intelligence-artificielle","tag-machine-learning","tag-system-experts"],"views":77540,"_links":{"self":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts\/14988","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/comments?post=14988"}],"version-history":[{"count":0,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/posts\/14988\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/media?parent=14988"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/categories?post=14988"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.oezratty.net\/wordpress\/wp-json\/wp\/v2\/tags?post=14988"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}