Opinions Libres - Le Blog d'Olivier Ezratty

Les propagandes de l’innovation – 3

Post de Olivier Ezratty du 9 mai 2014 - Tags : Technologie | 13 Comments

Dans les deux premiers articles de cette série sur les propagandes de l’innovation, j’avais commencé dans la première partie à poser le sujet en décrivant pourquoi le marketing de l’innovation était rentré dans le champ de la propagande, notamment parce que le numérique changeait profondément la société. Dans la seconde partie, nous avons couvert la manière dont les données de marché étaient souvent présentées en trompe l’œil.

Dans ce troisième épisode, nous allons passer en revue quelques exemples d’erreurs scientifiques, pratiques ou économiques. Chacun va en prendre pour son grade, de l’énergie à la santé en passant par l’impression 3D ! Certaines s’inscrivent dans le cadre d’une propagande sociétale, mais pas forcément. Il y a un peu de hors sujet, mais on peut sûrement étendre la discussion à des points qui m’échapperaient.

Les erreurs scientifiques : le numérique

Qu’en est-il du numérique du point de vue des erreurs scientifiques ? Il n’y en a pas tant que cela au niveau des sciences dures. Le hiatus se situe plutôt dans les sciences humaines car on n’appréhende pas encore très bien les changements sociétaux profonds qui sont induits par les outils numériques.

Nous avons les promesses lointaines des ordinateurs quantiques ou au graphène. Comme on n’en est pas encore à la commercialisation de quoi que ce soit, le bruit sur ces sujets reste encore raisonnable.

Certains vont extrapoler un peu rapidement la loi de Moore à un tas de domaine, notamment à l’impression 3D. En oubliant que la baisse des prix des matériels intégrant des pièces mécaniques est venue à l’origine de la délocalisation de la fabrication en Chine et du transfert de leur valeur vers les consommables comme dans les imprimantes à jet d’encre. Mais pas du tout grâce à la loi de Moore qui ne s’applique pour l’instant qu’aux semi-conducteurs voire au séquençage de l’ADN ! Qui plus est, le prix des imprimantes 3D ne peut être réduit par le mécanisme artificiel de la vente de consommables propriétaires puisque ceux-ci sont génériques et indépendant des marques d’imprimantes. Et l’on se demande aussi jusqu’à quand tiendra la loi de Moore compte-tenu des limites de la miniaturisation qui sont sur le point d’être atteintes. On va ainsi descendre en dessous du 10 nm pour les semi-conducteurs d’ici moins de 10 ans. La distance entre deux atomes dans un cristal est de 1 nm, on ne pourra pas descendre indéfiniment dans l’intégration. D’où les gros investissements depuis plus de 10 ans dans les architectures multi-cœurs et le parallélisme, le tout étant couplé à la distribution des traitements permise par les réseau à haut débit et le “cloud”.

Mahru Humanoid RobotTokyo Science Museum (49)

Il existe un domaine où les frontières de la science sont mal appréhendées : la robotique. Comme les objets connectés, elle recouvre des univers très différents, des automates de production dans les usines aux robots ménagers en passant par les robots conversationnels et les jouets. Comme les thérapies géniques que nous verrons plus loin, la robotique est une discipline dont les avancées concrètes se font plutôt lentement. C’est particulièrement vrai pour les robots humanoïdes. Ceux-ci font des choses parfois étonnantes (cf cet inventaire), notamment le Azimo de Honda. Mais la discipline progresse fonction par fonction, et pas encore de manière très intégrée : marche, préhension, reconnaissance de l’environnement, reproduction du visage (notamment au Japon, cf ci-dessus, le robot d’accueil Actroid vu au Musée des Sciences de Tokyo en octobre 2013).

D’autres comme Aldebaran Robotics avec Nao ont une approche de “SDK”, laissant un large écosystème de chercheurs et développeurs créer des capacités à partir de logiciels tiers. Avec pour conséquence que Nao est devenu le robot d’expérimentation probablement le plus utilisé au monde. Pas étonnant que le japonais Softbank soit devenu le premier investisseur dans la société, une information qui n’a d’ailleurs jamais été officialisée alors qu’elle est intervenue depuis deux ans maintenant… ou pas. La robotique a par contre percé dans des endroits inattendus comme avec les drones. Ceux-ci sont très souvent télécommandés et ne fonctionnent pas de manière entièrement autonome. Reste à appréhender la perspective de progrès apportée par les robots, un véritable sujet de société qui dépasse le cadre des sciences et des technologies.

Dans la photo, la recherche de solutions miracles existe aussi. Lorsque Lytro avait fait parler de lui en 2011 avec son premier appareil photo plénoptique permettant de faire la mise au point après la prise de vue, le procédé pouvait être décortiqué car il s’appuyait sur une thèse de doctorat publique et un corpus d’optique compréhensibles. Il n’y avait pas de supercherie, juste quelques limitations techniques qui ont été progressivement levées. La principale question à se poser était : est-ce vraiment utile, notamment face aux smartphones dont les photos sont nettes sur tous les plans, du fait de la faible taille de leur optique ? En filigrane, le déplacement du travail créatif du photographe de la prise de vue à la post-production, une tendance déjà bien entamée depuis l’arrivée de Photoshop.

Les erreurs scientifiques : la santé

La prospective sur la santé et notamment tout ce qui tourne autour des applications du séquençage de l’ADN génère de son côté des erreurs d’appréciation et surtout de timing. Elles témoignent d’une méconnaissance des sous-jacents scientifiques de la biologie moléculaire.

Fin 1999, Time Magazine faisait sa couverture sur les innovations à venir au 21ième siècle dans le domaine de la santé. Ils prévoyaient ainsi qu’en 2015 on pourrait guérir les cancers grâce à un traitement de thérapie génique personnalisé. Ce n’est pas impossible, mais on n’y est pas avant au moins une bonne quinzaine d’année. Et cela se fera cancer par cancer. Cela concerne aussi les pathologies d’origine génétique comme les dystrophies musculaires (maladie de Charcot et myopathies de Duchenne) où de nouveaux traitements issus de la thérapie génique seront bientôt testés.

Time 1999 2015 Gene Therapy Cure Predictions

On découvre régulièrement des méthodes nouvelles pour détruire les cellules cancéreuses de manière sélective : avec des anticorps monoclonaux bloquant l’assimilation de certaines protéines ou du fer dans les cellules malignes (chez Inathérys), des nano-machines les détruisant de manière ciblée sans toucher les cellules saines, etc. Puis on est déçu de leur efficacité et un grand nombre passent à la trappe, ou il faut en combiner plusieurs et de manière expérimentale pour obtenir des résultats, tout en évaluant les effets indésirables. L’innovation dans le domaine est très lente, sans compter la lourdeur de ces fameuses AMM (autorisations de mise sur le marché). Il y a cependant encore énormément d’espoirs d’en venir à bout un jour. D’année en année, on arrive à allonger la vie des patients atteints de nombreux cancers, sans pour autant les guérir entièrement.

Mais les techniques actuellement mises en œuvre et testées ne s’appuient pas encore sur la personnalisation à base de séquençage ADN ou de détection de SNP (single nucleotid polymorphisms), les variations de nos gènes par rapport à un modèle de référence. Les analyses de SNP telles que celles que réalisait 23andme jusqu’à fin 2013, avant d’être interdites par la FDA aux USA, permettaient d’avoir une idée des facteurs de risques génétiques de pathologies diverses (Alzheimer, etc). Mais ces facteurs se combinent à d’autres risques, notamment alimentaires et environnementaux. Sans compter la complexité du vivant et de l’ADN que l’on est encore loin de bien maitriser, notamment au niveau des séquences dites “non codantes” de l’ADN qui pourraient bien servir à coder de l’ARN influençant ensuite l’expression des gênes générés par l’ADN dite “codante”. Comme l’ADN humain contient 98% de séquences “non codantes”, cela donne une idée du champ restant à explorer !

L’impression 3D d’organes complets à partir de cellules souches est à loger à la même enseigne côté timing. Les premières expériences concernent la peau et des tissus homogènes. Là encore, la patience sera de rigueur avant d’imprimer un cœur, un rein ou un pancréas, notamment du fait de la difficulté à constituer le réseau sanguin et lymphatique de ces organes ! Même si la startup américaine Organovo anticipe de créer un foie artificiel dès cette année (2014), ce qui est probablement une promesse quelque peu exagérée, au moins similaire à celle d’un développeur annonçant un délai de finalisation d’un logiciel !

Les doutes scientifiques : l’énergie

C’est en dehors du numérique que l’on trouve le plus de bizarreries scientifiques. Et plus particulièrement dans le secteur de l’énergie qui alimente tous les fantasmes : et si on ne dépendait plus des énergies fossiles ni de ce capricieux soleil pour satisfaire nos besoins galopants en énergie ?

Je passe volontairement sur l’épineux sujet du nucléaire qui a ses propagandistes et contre-propagandistes depuis des décennies pour me consacrer aux sources d’énergie renouvelables. La promesse de nouvelles énergies miracles est régulièrement renouvelée par des inventeurs qui associent l’utopie, la paranoïa face à un complot des géants du pétrole qui tueraient leur invention et une propension à entourer leur procédé d’un voile de secret empêchant de le valider sérieusement !

Face à cela, la vox populi avancera que Galilée était incompris comme tant d’autres en leur temps et que les théories de la relativité restreinte et générale de Einstein n’ont pu être validées que des décennies après leur gestation. Il n’empêche que l’on fait souvent face à de simples escroqueries financières ou à de la fraude scientifique avérée ! Les utopies font toujours rêver et les contradicteurs ne sont que des empêcheurs de rêver en rond et des résistants conservateurs. Elles sont très porteuses et ont tendance à placardiser l’intelligence rationnelle ! Les mécanismes de la propagande s’appuient largement là-dessus en politique et en économie. Regardez ce qui se dit sur la dette, la compétitivité et l’Euro !!!

Au CES 2012 (voir le Rapport CES 2012, page 178), j’étais tombé sur la startup suédoise Inspiration Green et son chargeur Power Trekk fonctionnant “à l’eau” (ci-dessus). Elle évitait d’évoquer au moment du lancement le consommable chimique qui allait avec, le tout fonctionnant sur le principe de la pile à combustible (qui au passage, produit de l’eau, au lieu d’en consommer…) ! C’est un premier exemple de manipulation, assez rustique, portant sur la communication du fonctionnement du produit. Mais bon, le truc peut tout de même servir : c’est un chargeur de mobile ambulant pour les campeurs.

PowerTrekk

On a longtemps entendu parler du moteur à eau qui n’est qu’une technique d’amélioration des cycles thermodynamiques des moteurs à combustion classiques, utilisant de la vapeur d’eau. Mais son rendement incrémental est faible dans la pratique au regard des moteurs à combustion classique 2, 3 et 4 temps ou diésel. Donc, exit le moteur à eau.

Depuis quelques années, on entend parler d’une nouvelle source d’énergie : la fusion nucléaire froide nickel-hydrogène et notamment celle du procédé E-Cat HT d’Andrea Rossi. La fusion interviendrait à basse température, pour de la fusion nucléaire, soit environ 700°C. Elle génèrerait du fer et du cuivre comme résidus. Il n’y a en effet qu’un proton d’écart entre le cuivre et le nickel dans le tableau des éléments.

Une licence sur la technologie a été acquise par la société Industrial Heat LLC début 2014. Si des investisseurs y croient, c’est donc prometteur ? Industrial Heat LLC est une coquille vide créé par des investisseurs de la société Cherokee, spécialisée dans les green techs. C’est un hedge fund créé pour l’occasion et qui aurait misé $11m sur la fusion froide. Dès fois que !

La promesse est radicale : l’énergie Ni-H serait 100 000 fois plus dense, 1000 fois moins chère que celle issue du pétrole et les réserves de nickel permettraient de tenir 10 milliards d’année (cf le schéma ci-dessus, publié sur Forbes).

Energy Throughput

Du côté des sceptiques, on trouve quelques raisons de douter du procédé : il utilise un mélange de poudre de nickel, d’hydrogène et d’un catalyseur non documenté, le tout étant chauffé à quelques centaines de degrés. Et cela génèrerait une fusion nucléaire entre le proton de l’hydrogène et les atomes de nickel pour générer des atomes de cuivre, avec un rendement extraordinaire explicable par le fameux e=mc2. Le procédé aurait été décrit dans une publication datant de 2013, issue de chercheurs italiens de Bologne (comme Andrea Rossi) et suédois. L’expérience mesure l’énergie produite mais rien n’est fait au niveau de l’analyse du matériau en entrée et en sortie ni du cylindre où a lieu la combustion, ni des câbles qui alimentent le dispositif. Comme le catalyseur n’est pas identifié, le bilan énergétique du procédé ne peut-être réalisé de manière exhaustive. Bref, un gros doute s’installe ! Même si cela n’invalide pas pour autant le principe de la fusion froide qui a été visiblement expérimentée dans quelques laboratoires et entreprises par ailleurs.

Si le e-CAT HT fonctionnait, Industrial Heat ferait bien mieux que les investisseurs dans Whatsapp (Sequoia Capital, pour $58m, la société ayant été acquise par Facebook pour $19B). A ce tarif, nombreux sont ceux qui sont prêts à acheter un peu de rêve ! Comme pour les avions renifleurs dans les années 1970 !

Le procédé de fusion nickel-hydrogène a été aussi reproduit dans l’Université de l’Illinois en 2011. Des brevets sur le procédé ont même été déposés comme “Exothermic fusion” par un certain “Archie Lou Tengzelius” qui ne laisse que 303 Google Counts derrière lui. Andrea Rossi protégeait le secret de son procédé en s’abritant derrière son dépôt de brevet en cours. Manque de bol, celui-ci a été rejeté à la fois par l’USPTO et par l’EPO (European Patents Office) en mars 2014 (tout est ici) ! Pour tout un tas de raisons, la plus importante étant que le brevet n’indiquait pas précisément comment reproduire le procédé ! En gros, l’inventeur voulait protéger son procédé à la fois par un brevet et par le secret industriel alors qu’ils sont en temps normal exclusifs l’un de l’autre ! Mais il existe d’autres brevets plus sérieux sur la fusion froide, notamment issus d’une branche italienne de STMicroelectronics, et qui décrivent leur procédé avec beaucoup plus de détails.

Toute l’histoire de Rossi est abondamment documentée ici. Son auteur, Gary Wright, est un justicier comme on n’en trouve qu’aux USA ! Il dénonce en les documentant minutieusement cette fraude ainsi que les autres fraudes construites par Andrea Rossi. Elles consistent à créer un procédé pour gogos, à les tondre en vendant des licences, à monter prototypes sur prototypes, puis à se carapater. Avec le e-CAT, Andrea Rossi en est serait en fait à son troisième scam !

Le son de cloche est très différent sur ce site francophone “Fusion froide” où l’on apprend qu’un réacteur eCAT a été vendu à une organisation militaire secrète et fonctionnerait correctement. Agoravox a aussi relayé plusieurs fois la promesse du e-cat. Un journaliste suédois a aussi publié début 2014 un livre sur Andrea Rossi “An impossible invention“. On trouve aussi un endroit intéressant : la discussion liée à l’article sur le sujet dans Wikipedia. L’affaire Rossi dure depuis sept ans, ce qui est un “taux de survie” assez étonnant.

Mais la fusion froide avait démarré bien avant, en 1989, et de nombreuses expériences sur la fusion froide ont été conduites par divers scientifiques et réfutées par autant de scientifiques. Propagande scientifique contre leur propre contre-propagande ? Poids de l’establishment scientifique contre des inventeurs incompris ? Il est très difficile de les départager. Les néophytes ne peuvent qu’attendre sagement et voir les balles passer jusqu’à un verdict : cela ne marche pas où ça marche très moyennement, ou cela sauvera le monde !

L’affaire pose une autre question existentielle : supposons que l’invention soit valable. Ne serait-il pas criminel de faire perdre plusieurs années à la planète qui peine à réduire ses émissions de CO2, tout ça pour un brevet ? Entre sauver le monde et obtenir un brevet, que choisir ? Et peut-on sauver le monde sans bénéficier de retombées économiques indirectes ? Un certain Francesco Celani a répondu à cette question en proposant en “open source” sa solution dans le cadre du Martin Fleischmann Memorial Project.

Les sources d’énergie miracles ne sont pas nouvelles. Dans les années 1970, j’avais été marqué par une série d’articles publiés dans Science et Vie sur la synergétique du professeur Vallée. C’était beau : un système électrique d’apparence simple allait capter l’énergie électromagnétique ambiante et générer de l’électricité gratuite. Le tout reposait sur des théories battant en brèche tous les travaux d’Einstein et la limite théorique de la vitesse de la lumière. Tout ça à la fois !

Qui osera refuter la synergetique

Les titres de Science et Vie étaient éloquents avec notamment : “Qui osera réfuter la synergétique ?” (ci-dessus). Le tout associé à un schéma facilement reproductible dans le principe mais pas documenté au niveau des paramètres. Pas documenté car évidemment pas validé car sinon, cela se saurait ! L’article indiquait même “le premier générateurs synergétique vient de fonctionner”, ce qui relevait d’un autre tour de magie et d’une manipulation grossière. L’exposé de la théorie par le professeur René Louis Vallée ici et (décédé en 2007) est difficile à suivre car il nous largue dès le début avec force formules mathématiques.

Pile Synergétique 1975

Quand c’est vulgarisé, ce n’est pas mieux comme ici avec le sketch de la différence d’énergie entre un cube de 35 mètres de côté sur terre et sur le soleil qui représente une concentration d’énergie ne demandant qu’à être captée ! Pas facile de piger et gros piège à gogos ! Et les fréquences en jeu sont de 1015 GHz, à la limite haute du spectre lumineux visible. En mettant une cellule photovoltaïque, on pourrait bien capter l’énergie issue de ces fréquences, mais évidemment pas au niveau promis par la synergétique. A moins que ces fréquences du spectre lumineux ne soient pas des photons… !!! Dommage ! On aimerait pourtant bien que cela puisse fonctionner, ne serait-ce que pour alimenter nos mobiles et laptops ! Une sorte de recharge sans fil par induction utilisant de très hautes fréquences, pourquoi pas…

Pic et cube synergetique

C’était en 1976… !

L’histoire de la technologie est aussi remplie de vrais fraudeurs démasqués, tels l’américain John Ernst Worrell Keely qui avait inventé à la fin du 19ième siècle un procédé de génération d’énergie avec de l’air et de la vapeur, qui n’était qu’une supercherie dévoilée par une enquête d’une semaine réalisée par des journalistes et des professeurs de physique, et après la mort de l’inventeur. Cette fois-ci, il a fallu 15 ans pour que l’affaire soit élucidée !

La différence entre John EW Keely, la synergétique et le système de Rossi ? L’Internet et la circulation plus rapide des informations ! On en a plus, notamment dans la critique, pour le procédé de Rossi. Mais le doute existe toujours autant car chacun nourrit toujours l’espoir d’un miracle : et si l’énergie devenait abondante et facile à générer ? Face à cela, on est à la frontière de la science et de la croyance. Il est difficile de départager les véritables inventeurs en avance sur leur temps de plusieurs décennies des escrocs ou tout simplement des erreurs scientifiques involontaires.

Plus terre à terre et dans l’adoption des énergies renouvelables, on constate aussi que l’objectif louable au départ peut générer des effets indirects contraires à ceux-ci. Ainsi, l’Allemagne qui est très en avance dans les énergies renouvelables avec plus de 25% de l’électricité d’origine éolienne et solaire est par contre un très gros émetteur de CO2. Un allemand génère 9,32 tCO2 tandis qu’un français en génère 5,52 (source : Eurostat, reprise ici). D’où vient la différence ? 78% de notre électricité est d’origine nucléaire alors qu’une bonne moitié de l’électricité allemande est produite avec du charbon ou de la lignite.

Energie primaire Allemagne

Pour éviter cela, il faut intégrer dans le mix énergétique des énergies renouvelables facilement stockables, pour qu’elles puissent être exploitées n’importe quand et pas seulement quand il fait beau et/ou qu’il y a du vent ! Les allemands investissent aussi dans cette catégorie, notamment dans les énergies issues de la biomasse comme les biogaz (en vert foncé dans le graphe ci-dessus). Elles dépassent d’ailleurs le total éolien + solaire. La biomasse a un bilan carbone moins bon que le solaire et l’éolien, mais meilleur que les centrales à charbon ou lignite ! Nous reparlerons de la transition énergétique dans l’article 5 de la série, consacré à la création de nouveaux mythes tels que le “zero marginal cost”.

Les erreurs pratiques et économiques : le cas de l’impression 3D

L’impression 3D à la maison est un bon exemple de ce genre de perspective trompeuse. L’impression 3D est évidemment un progrès technologique majeur avec tout un tas d’applications industrielles. Elle démocratise le prototypage, elle s’applique à la production de certaines productions industrielles (notamment dans l’impression 3D de métaux et céramiques par frittage laser), à la fabrication de pièces impossibles à réaliser avec les techniques soustractives habituelles, à la conception de prothèses osseuses ou dentaires personnalisées ainsi qu’à la création artistique voire à la mode comme pour ces chaussures de Continuum Fashion présentées à Leweb en décembre 2013 (ci-dessous).

Mary Huang (Continuum Fashion) (1)

Le secteur de l’impression 3D couvre un spectre très large de machines allant de quelques centaines d’euros à des millions d’euros, avec une bonne demi-douzaine de technologies différentes et la capacité de créer des pièces dans différents matériaux : plastiques de solidité et souplesse variée, plastiques transparents, céramiques, métaux divers comme le titane, sable et même béton (pour de très gros modèles et le BTP).

C’est l’extrapolation de tout cela à l’impression 3D à la maison qui donne lieu à de la propagande des industriels et des médias. Alors que l’on en est encore très très loin d’un point de vue strictement pratique et économique.

Une imprimante 3D “domestique” actuelle ne sait imprimer que des objets ayant certaines caractéristiques très limitatives : en général, une seule matière à la fois, du plastique PLA ou ABS. De combien d’objets avons-nous besoin régulièrement qui ne sont réalisés que dans une seule matière de ce type ? Faites l’inventaire de vos courses pour voir ! Quel est leur coût habituel ? Comparez le prix d’une imprimante 3D “domestique” actuelle (entre 300€ et 2500€, la Makerbot Replicator 2 étant une référence, à $2000, ci-dessous) et le prix de ces produits et autres pièces détachées que vous achetez habituellement et que vous pourriez imprimer chez vous ! Vous verrez que le compte y sera très difficilement. Et que penser d’Autodesk qui se lance aussi dans “l’impression 3D grand public” avec un modèle très design, mais qui serait vendu à $5000 !

Makerbot Replicator 2

Il y existe plein de technologies dont le prix a baissé mais qui sont encore utilisées uniquement chez des professionnels et pas dans les foyers. C’est lié à des aspects pratiques : les économies d’échelle, la complexité de la mise en œuvre, la généricité de l’outil et la fréquence du besoin.

C’est la raison pour laquelle nous n’avons pas de machine à dupliquer les clés chez soi alors qu’elle est assez simple dans le principe. Le taux d’équipement des ménages en machines à coudre a aussi du baisser ces deux dernières décennies.

D’où l’existence de nombreux métiers de services de proximité comme les serruriers. Ce sont d’ailleurs probablement eux qui hébergeront les imprimantes 3D de service, en complément des Fablabs et autres Hacker Spaces. Par contre, nous avons souvent une perceuse : elle n’est pas chère, elle est assez facile à utiliser pour faire des trous dans les murs et y attacher quoi que ce soit. Par contre, peu de consommateurs utilisent des perceuses dites “perforatrices” qui dégagent plus de puissance et sont bien plus bruyantes, mais savent percer des trous dans des murs plus durs. Elles sont plus chères, plus difficiles à utiliser, et on en a besoin plus rarement ! Donc, elles sont plutôt utilisées par les professionnels du BTP (exemple ci-dessous chez Bosch).

Perceuse perforatrice Bosch

Il existe ainsi des centaines de catégories de produits qui, bien que disponibles dans la grande distribution, notamment dans les rayons bricolages, ont des taux d’équipement des ménages qui ne dépassent pas quelques %.

L’imprimante 3D pourrait très bien en faire partie quelques temps : ce n’est pas encore un produit universel comme peut l’être une imprimante papier couleur qui imprime n’importe quel contenu, de la feuille A4 en noir et blanc à la photo sur papier glacé, avec un besoin qui peut être facilement régulier. Surtout si elle est combinée à un scanner dans une tout-en-un. On n’a pas besoin d’imprimer des objets en plastique aussi fréquemment que du papier dans la vie courante !

Aujourd’hui, une imprimante 3D est plutôt lente, pas évidente à maintenir pour nettoyer les buses d’extrusion, se pilote avec des logiciels 3D et demande un certain savoir faire. Et elle n’imprime pas n’importe quoi. Cela changera certainement un jour avec des imprimantes à la fois plus simples à utiliser et capables d’intégrer des matériaux très différents. Pour l’instant, on en est à peu près à l’époque de l’Apple II et à la programmation en Basic pour prendre l’équivalent de la micro-informatique !

Il faut aussi prendre en compte les arbitrages réalisés par les consommateurs. Ils équilibrent le besoin, le choix, la possibilité de comparer, le prix, la dimension temps, le plaisir de l’acte d’achat et éventuellement la personnalisation du produit. Côté temps, il faut dissocier le temps passé dans l’acte d’achat et le délai de livraison. Le commerce en ligne a d’abord fait glisser la valeur en baissant le prix, en augmentant le choix et en réduisant le temps passé dans l’acte d’achat. Le tout en allongeant le délai d’obtention du produit par rapport à l’achat en magasin. Puis, des efforts ont été faits pour réduire les délais de livraison. La comparaison et l’évaluation est généralement meilleure en ligne. L’équilibre à l’arrivée est nettement favorable au commerce en ligne qui se développe naturellement au détriment du commerce de détail. Il faut se poser les mêmes questions pour l’impression 3D : comment peut-elle faire basculer un équilibre, ici à l’envers, en faisant migrer la valeur du produit manufacturé traditionnellement et de la distribution offline ou online vers le do-it-yourself.

L’impression 3D fait fantasmer bien au-delà de la fabrication à domicile d’une pièce détachée de remplacement pour son électroménager ! Certains annoncent ainsi la fin de la propriété intellectuelle sur les objets, suivants sur la liste après les logiciels et les contenus qui se sont vus dévaloriser économiquement via un tas de phénomène (l’open source, les app store, l’abondance de l’offre).

C’est une idéologie souvent défendue par ceux dont ce n’est pas le métier d’en produire, et notamment les fabricants d’imprimantes, même si ils font miroiter le fait que les imprimantes peuvent elles-même produire d’autres imprimantes 3D, … modulo l’électronique et les pièces métalliques comme les moteurs et les rails de guidage !

Au fait, quelle est la position de l’industrie française dans le secteur de l’impression 3D ? Contrairement aux objets connectés où l’on a quelques acteurs de poids réel ou symbolique (STMicroelectronics dans les capteurs, Withings, Netatmo, Parrot, Sense), il n’y a pas grand monde. Tout juste Sculpteo, certes judicieusement positionné dans les services d’impression avec un peu de savoir faire différentiant dans la production (et qui vient d’annoncer un repli sur le marché BtoB…). Il y a quelques acteurs spécialisés dans le monde professionnel sur des marchés de niche. Mais c’est à peu près tout ! Les leaders mondiaux sont américains et israéliens.

Nous avons toutefois le leader mondial de la CAO, avec Dassault Systèmes, qui pourrait jouer un rôle dans ce marché. Mais il leur faudrait sortir de leur marché btob, une chose qu’ils essayent de faire depuis une bonne décennie, mais sans avoir trouvé le ou les pivots permettant de le faire !

____________________________________

Dans les aspects pratiques, nous pouvons aussi citer !

  • Les habituelles erreurs de timing issues de la vision des grands industriels du secteur (vu dans “Le futur vu par les grandes entreprises” en 2011). Ces innovations bloquent le plus souvent pour des raisons non technologiques mais sociales et économiques. Ou tout simplement parce qu’il est difficile de bouger des professions éparpillées et conservatrices par nature ou de standardiser des industries entière, en particulier dans les services. Sinon, on prendrait tous rendez-vous avec son médecin généralise, son dentiste et son ophtalmo avec son smartphone ou son PC/Mac depuis au moins une bonne décennie !
  • Le cas des drones utilisés à tout bout de champ. Amazon avait marqué le coup fin 2013 en annonçant préparer la livraison de colis par drones d’ici quelques années. Cela soulève tout un tas de questions pratiques : l’encombrement du ciel, la sécurité tout comme l’autonomie des drones à partir des entrepôts. D’où les parodies qui sont sorties depuis avec la téléportation chez Ventes Privées et Netflix Drone to Home.
  • Le cas des outils de monitoring dans la e-santé qui sont souvent vantés avec une promesse intenable du genre “votre médecin va être prévenu en temps réel de votre tension artérielle ou de votre glycémie”, ce qui n’a aucun sens sauf dans le cas des urgences et des cas de vie ou de mort. Et encore, en cas d’urgence, il vaut mieux commencer par appeler les pompiers ou le Samu car ils ont plus de chances d’être disponibles et d’intervenir rapidement. Par contre, les outils de diagnostics automatiques peuvent avoir du sens d’un point de vue pratique pour certaines pathologies. Comme depuis la micro-informatique, l’un des bénéfices clés des nouvelles technologies est d’apporter de l’autonomie, pas d’augmenter la dépendance des patients. Le point clé est donc de permettre l’auto-surveillance.

L’innovation consiste à la fois à inventer des choses dont les gens n’expriment pas le besoin et à prendre des choses qui ne fonctionnent pas bien et à les faire fonctionner convenablement ! Dans les deux cas, il est possible d’introduire des innovations de rupture qui vont bouleverser les usages et le marché.

Les blocages d’innovations liés à des aspects pratiques et économiques ne sont pas éternels. Les innovations de rupture interviennent lors de déblocages de certains de ces aspects : par une baisse des couts radicale, par une automatisation poussée ou par une accélération significative du temps à fournir la solution.

Parfois, l’innovation va se révéler grâce à d’autres paramètres tels que la standardisation et l’interopérabilité. C’est leur absence qui bloque un nombre incroyable d’innovations latentes qui pourraient nous faire gagner beaucoup de temps, comme dans tout ce qui concerne la prise de rendez-vous ou l’accès aux données en général.

__________________________

Voilà pour ce troisième épisode. Le quatrième épisode fera siffler les oreilles des adeptes des Bitcoins.

RRR

 
S
S
S
S
S
S
S
img
img
img


Lien du blog Opinions Libres : https://www.oezratty.net/wordpress

Lien de l'article : https://www.oezratty.net/wordpress/2014/propagandes-innovation-3/

(cc) Olivier Ezratty - http://www.oezratty.net