La dérive des exponentielles 1/3

Publié le 6 avril 2015 et mis à jour le 12 avril 2015 - 5 commentaires -
PDF Afficher une version imprimable de cet article
  

Les prospectivistes qui sont nombreux dans les industries high-tech s’appuient souvent sur la notion de progrès exponentiel pour justifier leurs oracles. C’est notamment le cas de Ray Kurzweil, dans son fameux “The Singularity is Near” paru en 2005. Pour lui, le progrès scientifique et technique n’est pas linéaire mais exponentiel. On départ, quand les valeurs sont faibles, on ne le distingue pas du bruit ambiant. Puis à force de multiplications, il explose et transforme toutes les industries. Avec au centre de tout, le numérique.

Ces thèses du progrès exponentiel s’appuient sur la Loi de Moore et ses dérivés (Metcalfe, etc). Il y a en fait trois lois de Moore :

  • La première selon laquelle la densité des semiconducteurs double tous les ans à coût constant.
  • La seconde, la plus souvent évoquée, selon laquelle le nombre de transistors dans les microprocesseurs sur puce de silicium double tous les deux ans, et pas 18 mois comme souvent répété.
  • La troisième qui est son application à n’importe quel domaine avec une grandeur technique ou économique (coût, densité, rapidité, stockage, etc) qui double ou est divisée par période comprise généralement entre 18 et 24 mois.

Certains n’hésitent pas à extrapoler ces lois à d’autres secteurs d’activités et technologies alors qu’il ne s’agit que de conjectures dont la validité est tout à fait empirique. D’autres emploient les courbes exponentielles qui les arrangent car on peut jouer avec tout un tas de paramètres pour faire passer le message. Comme les courbes ne sont pas parfaites, certains analystes inventent des explications empiriques expliquant la non linéarité des progressions (ci-dessous) par les phases de croissance et de maturité des technologies. Il faudrait dans ce cas faire la distinction entre les technologies disponibles dans des produits courants et celles qui sortent des laboratoires de recherche. Le passage à l’industrialisation a souvent été un obstacle dans la généralisation de nouvelles technologies. Cela a notamment été longtemps le cas des écrans de TV en technologie OLED.

S-Curves2

Les lois exponentielles s’appliquent à tout un tas de domaines, comme le montre le tableau suivant qui liste le nombre de mois entre chaque facteur multiplicateur x2, une fois sur deux dans la dimension économique plus que dans la dimension technique. Et le tableau date un peu.

DoublingTimes

Cela aboutit à une vision très linéaire et prédictible de l’innovation technologique qui peut en fait aussi bien ralentir qu’accélérer brutalement. Certaines filières peuvent ainsi se satisfaire du respect de cette loi alors que le progrès pourrait être plus rapide. D’autres se font discrètes quand les progrès ne suivent plus cette loi. D’où l’intérêt d’y voir un peu plus près.

Je vais prendre ici trois exemples pour examiner ce phénomène : les microprocesseurs, le solaire photovoltaïque et le séquençage de l’ADN. Dans les trois cas, on peut constater que cette loi du progrès exponentiel connait des “hoquets” ou des dérives. Ces variations peuvent aussi bien ralentir les progrès que les accélérer au-delà de l’exponentielle. Elles donnent notamment lieu à des non linéarités liées aux variétés des techniques employées pour faire progresser l’état de l’art.

Dans le cours de cet argumentaire, je vais utiliser des courbes exponentielles récupérées à droite et à gauche. La plupart ne sont pas régulièrement actualisées, ce qui peut cacher parfois d’autres phénomènes de divergence dans les courbes. Mais elles font bien passer le message !

Je terminerai avec quelques autres exemples, moins scientifiques, tels que ceux qui concernent les prévisions de chiffre d’affaire des startups dans leurs business plans et la confusion qui existe entre deux courbes qui démarrent de la même manières : les exponentielles et les gaussiennes.

Semiconducteurs

Les progrès dans ce secteur sont continus depuis des décennies. Ils vont se poursuivre pendant au moins quelques décennies à venir, mais de manière probablement plus chaotique que jusqu’à présent. Les progrès dans les semiconducteurs et les microprocesseurs, qui sont les plus complexes d’entre eux, sont variables. Cela dépend de la grandeur que l’on mesure. La loi de Moore continue d’être vérifiée au niveau de la densité de transistors et du nombre de transistors par puce. Elle a cependant tendance à plafonner dans d’autres dimensions comme la vitesse d’horloge des processeurs.

CPU-Scaling

Plusieurs facteurs conditionnent tous ces progrès :

Le niveau d’intégration, qui change d’échelle environ tous les trois ans. Les microprocesseurs les plus intégrés en ce début 2015 sont fabriqués en technologie 14 nm, chez Intel avec sa série Core M et ses récents Atom x3, x5 et x7. Dans la mobilité, le Samsung Galaxy S6 annoncé au MWC de Barcelone serait basé sur un chipset Exynos 7420 construit en technologie FinFET 14 nm. Le processeur A8 de l’iPhone 6 lancé en septembre 2014 est produit chez Samsung en technologie 20 nm. Hors Intel, les générations de processeurs mobiles de 2013/2014 étaient en technologie 28 nm. La majorité des processeurs mobiles seront en 14 ou 16 nm d’ici la fin 2015 ou début 2016. On les retrouvera dans les smartphones et tablettes “mainstream” en 2016 et pas simplement dans le haut de gamme. A la clé : plus d’autonomie et de puissance.

Ce processus d’intégration prend du temps. Il demande notamment des systèmes de gravure à ultraviolet en phase liquide capables de limiter les effets de la diffraction de la lumière dans le dessin des transistors sur le silicium. Les systèmes dits EUV (Extreme Ultra Violet) doivent prendre le relais pour permettre d’affiner encore plus la gravure. Ils sont complexes à mettre au point et le leader du marché, le hollandais ASML, a plusieurs années de retard dans sa roadmap. Le processus d’amélioration du niveau d’intégration de la fabrication des microprocesseurs est très lent et itératif, comme décrit dans ma série d’articles sur la visite de l’unité de fabrication Crolles 300 de STMicroelectronics. Comme l’EUV n’est pas encore au point, les fondeurs utilisent le procédé du multi-patterning consistant à graver en plusieurs fois des sillons non adjacents dans le silicium. Limitant les risques de recouvrement entre sillons, cela reste cependant un pis-aller.

Depuis le 28 nm, Intel, TSMC et Samsung utilisent des transistors montés “verticalement” (les “FinFET”) et avec des portes en matériaux alternatifs comme le Silicium-Germanium. A ce niveau d’intégration, la mécanique quantique, les phénomènes de fuite de courant et les effets thermiques peuvent jouer des tours à la loi de Moore et bloquer la course à l’intégration. Quid des atomes ? On n’a pas encore atteint leur taille puisque 1 nm = 4 atomes de silicium cristallin. Mais on s’en rapproche ! Les roadmaps des fondeurs prévoient de descendre jusqu’à 5 nm.

La vitesse de commutation des transistors qui dépend notamment de la nature du diélectrique qui forme la grille d’un transistor. Elle commande le passage du courant entre la source et le drain. C’était historiquement de l’oxyde de silicium. On utilise aujourd’hui de l’oxyde de hafnium ou de zirconium. Dans un futur indéterminé, on pourra passer au graphène, des cristaux savamment arrangés d’atomes de carbone pur. Il présentent la particularité d’avoir des électrons très mobiles. Ceux-ci permettront d’augmenter la fréquence de commutation des transistors et de passer de 3 GHz à plus de 50 GHz, voire même d’atteindre 400 GHz. Le jour où l’on saura faire cela, on gagnera quelques années dans l’application de la loi de Moore du côté non pas de la densité mais de la puissance de calcul. Et on redémarrera un autre cycle, celui de la miniaturisation. L’autre axe de progrès réside dans l’optronique qui est aussi capable de commuter des circuits à 50 GHz et à faire transiter de très gros volumes d’information. L’optronique est pour l’instant en retard d’environ deux décennies au niveau de l’intégration par rapport aux transistors CMOS. Nous sommes ici aux tous débuts d’une autre exponentielle !

La consommation électrique qui peut baisser avec les deux techniques précédentes, éventuellement accompagnées du procédé du SOI (Silicon on Insulator) lancé par le français SOITEC et utilisé par STMicroelectronics et sous licence par Samsung. C’est un sujet critique où la loi de Moore n’a pas l’air de trop s’appliquer. On le voit à la difficulté qu’a Intel à baisser la consommation de ses processeurs. Il est difficile aujourd’hui de trouver un laptop avec plus de 10 heures d’autonomie, même avec un Core M ou un Atom x3/5/7 gravés en 14 nm. Baisse de consommation des processeurs aidant, le problème se déplace progressivement vers d’autres composants avec, en premier, les écrans LCD dont le rétroéclairage, même en LED, consomme encore pas mal d’énergie.

Le multicœur reste le moyen le plus utilisé d’augmenter la puissance des microprocesseurs. Ce n’est plus une question de gravure mais de logique. On répartit les traitements sur plusieurs cœurs ou bien génériques (dans le CPU) ou spécifiques (GPU pour le graphisme, codecs vidéo et audio, fonctions réseau ou sécurité). Le facteur limitant est lié aux logiciels qu’il est difficile de répartir automatiquement, surtout sur les cœurs du CPU. C’est ce qui explique la relative futilité de ces chipsets à CPU à huit cœurs que l’on trouve maintenant dans les smartphones alors que l’on n’est pas en mesure de répartir une application mobile courante sur plus de deux cœurs avec les outils de développement actuels. Et comme on n’utilise généralement qu’une application à la fois sur mobile, un bon nombre de cœurs restent inutilisés.

Reste à savoir si tous ces progrès technologiques sont perçus par les utilisateurs. Est-ce qu’un micro-ordinateur d’aujourd’hui est significativement plus rapide qu’un micro-ordinateur d’il y a 10 ou 20 ans ? On manque de repères pour s’en rendre compte. On peut juste noter que l’on gère plus de photos et de vidéos qu’avant avec et que tout est plus facile d’accès via les réseaux haut-débit. Même remarque sur les smartphones : le processeur d’un iPhone 6 est plus de cinquantaine fois plus rapide que celui des premiers iPhone. Le perçoit-on pour autant ? Pas forcément car si le matériel évolue bien, le logiciel a du mal à suivre. Ou tout du moins, il prend ses aises avec l’abondance de ressources matérielles. Les langages compilés ont été progressivement remplacés par des langages interprétés notamment dans l’Internet (PHP, JavaScript). Les micro-ordinateurs, les mobiles et les tuyaux se remplissent comme une baignoire à raz-bord quelle que soit la capacité disponible.

Une exponentielle est souvent présentée sous forme de droite. Pour ce faire, on utiliser une échelle logarithmique dans les ordonnées (Y), celle des abscisses restant linéaire pour les années (X). C’est le cas de la courbe ci-dessous qui fait un parallèle entre la puissance des processeurs au travers des âges et celle du cerveau humain. Ce genre de courbe n’a pas beaucoup de sens car on compare des puissances brutes et pas des architectures.

computer-power-future

Un cerveau ne fonctionne pas du tout comme un ordinateur actuel. Comparer les deux revient à mettre en regard la capacité de vol d’un porte-avions et des avions qu’il transporte. Même si on voit bien des porte-avions voler dans The Avengers ! Un cerveau est un ordinateur ultra-lent tournant à environ 100 Hz mais massivement parallèle et hyperconnecté, le tout avec 100 milliards de neurones et 1000 fois plus de synapses les reliant entre eux. Le tout est associé à une floraison de capteurs à faire pâlir n’importe quel objet connecté. Ils nous fournissent non pas cinq sens, mais 18. Si on ne prend que l’œil humain, il est connecté au cerveau par le nerf optique avec un million de connexions parallèles. Un capteur CMOS de smartphone est connecté au CPU via trois fils, avec une sérialisation totale de l’image (comme dans le bus SCCB chez Omnivision). Le cerveau parallélise donc massivement les liaisons avec les capteurs. Les capteurs du futur auront peut-être des architectures de bus complètement différentes des architectures sérialisées actuelles !

Bref, comparer la puissance d’un ordinateur avec celle du cerveau n’a pas beaucoup de sens car on ne compare pas des architectures équivalentes. La question est de savoir comment l’architecture du cerveau pourra être plus ou moins imitée dans des ordinateurs.

Aujourd’hui, on sait reproduire des fonctions isolées du cerveau, une par une et de manière limitée. On bute sur l’intégration et sur la gestion des ambiguïtés, un blocage classique dans la reconnaissance de la parole ou l’interprétation des images. Même si la dernière fonction de détection de sport joué dans les vidéos lancée par Facebook va en surprendre quelques-uns. Ce n’est pas de l’intelligence. Ce sont des morceaux d’algorithmes en pièces détachées que les logiciels ne savent pas encore bien intégrer.

Dans le même temps, les ordinateurs savent faire un tas de choses qui sont totalement inaccessibles au cerveau humain. Comme le calcul mental qui a ses limites chez nous et n’en a quasiment aucune dans l’ordinateur. Le calcul est-il une forme d’intelligence ? Qu’est-ce que l’intelligence d’ailleurs ? Question aussi bien technique que philosophique ! Si l’on ne rentre pas dans des considérations religieuses sur l’origine de l’âme et de la conscience, et en adoptant une vision “mécanique” et “chimique” de l’intelligence, on peut cependant anticiper que l’homme sera un jour capable de la reproduire avec des machines.

Les progrès “Kurzweiliens” qui verront les ordinateurs se rapprocher du cerveau humain devront cependant faire appel à des architectures nouvelles et à des combinaisons d’architectures complémentaires. Il y aura notamment les réseaux synaptiques pour imiter les connexions multiples des synapses dans le cerveau et les ordinateurs quantiques pour dépasser de très loin le cerveau humain dans la recherche de patterns par la force brute (décryptage, statistiques, moteurs de recherche, reconstitution de puzzles complexes comme dans le séquençage de l’ADN). On sortira alors de l’exponentielle dans laquelle on est un peu coincés, celle des microprocesseurs à transistors CMOS.

En résumé sur les semiconducteurs :

  • Les ralentisseurs de l’exponentielle sont les effets de la mécanique quantique, les effets thermiques et de fuite en dessous de 5 nm pour les technologies CMOS actuelles.
  • Les accélérateurs de l’exponentielle sont les grilles de transistor en graphène pour augmenter radicalement la “clock” des processeurs, les calculateurs utilisant l’optronique pour faire de même, les architectures massivement parallèles, les ordinateurs synaptiques, les réseaux neuronaux et les ordinateurs quantiques.

____________________

Dans la seconde partie de cet article, nous irons voir ce qu’il en est du côté du solaire photovoltaïque. Son coût a baissé très rapidement mais pas forcément du fait de progrès technologiques.

RRR

 
S
S
S
S
S
S
S
img
img
img

Publié le 6 avril 2015 et mis à jour le 12 avril 2015 Post de | Cleantechs, Composants, Santé | 40478 lectures

PDF Afficher une version imprimable de cet article     

Reçevez par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img

Les 5 commentaires et tweets sur “La dérive des exponentielles 1/3” :

  • [1] - Claude Riousset (@Riousset) a écrit sur Twitter le 6 avril 2015 :

    La dérive des exponentielles, autour de la Loi de Moore et ses dérivés (Metcalfe, etc)
    https://t.co/v0yAqfFVWW http://t.co/ejPgApM4lv

  • [2] - Jérôme a écrit le 7 avril 2015 :

    En tout cas, par définition, la dérivée d’une exponentielle reste une exponentielle… Quelque part, cela résume le fait que ces lois ne sont pas des lois de la nature mais bien des lois qui ne se réalisent que si l’on y travaille. Si la force au travail pour passer d’une génération à l’autre augmente de façon exponentielle, eh bien, il n’est pas illogique que les performances suivent.

  • [3] - JC Latournerie (@jclat) a écrit sur Twitter le 8 avril 2015 :

    RPprospective: La dérive des exponentielles 1/3 http://t.co/jMRpksCqek http://t.co/pIEyWsRJFp

  • [4] - RBB a écrit le 30 octobre 2016 :

    J’ai pu comprendre que lors du sommeil le cerveau consommait seulement 5% de moins qu’en plein eveil!donc pendant le sommeil le cerveau continue a bosser presqu’autant que pendant l’eveil.
    Cette activité serait due au fait que le cerveau met a jour ses programmes -comme si les inspecteurs(IBM) travaillaient la nuit sur les ordinateurs(comme par exemple appliquer les ptf ou les nouvelles mises a jour) pour permettre aux operateurs de travailler le jour.
    Intuitivement ,je sens que l’analyse des activites dans le sommeil devrait permettre de voir les ANOMALIES du cerveau un peu comme si on n’appliquait pas la maintenance dans un ordinateur.
    Je pense aussi que la recherche devrait impliquer les ingenieurs de type Inspecteurs soft IBM avec des ingenieurs systemes.En bref inclure dans les equipes de recerche des ingenieurs specialises maintenance des ordinateurs.
    NB : j’ai ete un bon IBM salesman avec 10 clubs 100%.




Ajouter un commentaire

Vous pouvez utiliser ces tags dans vos commentaires :<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> , sachant qu'une prévisualisation de votre commentaire est disponible en bas de page après le captcha.

Last posts / derniers articles

Free downloads

Understanding Quantum Technologies 2024, a free 1,554 pages ebook about all quantum technologies (computing, telecommunications, cryptography, sensing):

image

Understanding Quantum Technologies 2024 Short version, a 26 pages version with key takeaways from the eponymous book.

image

The Two-Spin Enigma: From the Helium Atom to Quantum Ontology, a quantum foundations paper coauthored with Philippe Grangier, Alexia Auffèves, Nayla Farouki and Mathias Van den Bossche (paper backstory).
image

Voir aussi la liste complète des publications de ce blog.

Derniers commentaires

“Bravo Olivier! Quel boulot tu m’épates totalement et je t’adresse mes plus sincères félicitations! Je ne suis pas sûr de tout lire car je suis maintenant 100% dans l’art et la poésie et mon seul rapport à la...”
“[…] to Olivier Ezratty, author of Understanding quantum technologies 2023, the challenge for Europe is to position itself outside of where the US and China are likely end up...”
“Désolé, je suis passé à l'anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d'une langue à l'autre est un travail herculéen, même avec des outils de traduction automatique. Sachant...”
“Je suis un artiste conceptuel, certes je garde la grande majorité de mon travail dans ma tête par défaut d'un grand mécène. Mon travail de base se situe sur le "mimétisme" qui mène aux itérations et de nombreux...”
“Better than a Harry Potter! Thanks Olivier...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
QFDN
Expo
791 photos
albth
Remise Légion d'Honneur Philippe Herbert Jul2021
2021
15 photos
albth
Vivatech Jun2021
2021
120 photos
albth
Visite C2N Palaiseau Mar2021
2021
17 photos
albth
Annonce Stratégie Quantique C2N Jan2021
2021
137 photos
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Elle circule dans différentes manifestations. J'ai réalisé entre 2011 et mi 2023 plus de 800 portraits photographiques de femmes du numérique avec une représentation de tous les métiers du numérique.

Les photos et les bios de ces femmes du numérique sont présentées au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Gaëlle Rannou
Gaëlle est étudiante à 42 Paris et tutrice de l’équipe pédagogique (en 2021).
flow
Jehanne Dussert
Jehanne est étudiante à l'école 42, membre d'AI For Tomorrow et d'Open Law, le Droit ouvert. Elle est aussi fondatrice de "Comprendre l'endométriose", un chatbot informant sur cette maladie qui touche une personne menstruée sur 10, disponible sur Messenger. #entrepreneuse #juridique #santé
flow
Chloé Hermary
Chloé est fondatrice d'Ada Tech School, une école d'informatique alternative et inclusive dont la mission est de former une nouvelle génération de talents diversifié à avoir un impact sur le monde. #entrepreneuse #formation
flow
Anna Minguzzi
Anna est Directrice de Recherche au CNRS au Laboratoire de Physique et Modélisation des Milieux Condensés (LPMMC) à Grenoble. #quantique
flow
Maeliza Seymour
Maeliza est CEO et co-fondatrice de CodistAI, qui permet de créer une documentation du code informatique par une IA.
flow
Candice Thomas
Candice est ingénieure-chercheuse au CEA-Leti, travaillant sur l’intégration 3D de bits quantiques au sein du projet Quantum Silicon Grenoble. #recherche #quantique
flow
Stéphanie Robinet
Stéphanie dirige un laboratoire de conception intégrée de circuits électroniques du CEA-Leti qui travaille sur des systèmes sur puces intégrés, des interfaces de capteurs, des interfaces de contrôle de qubits et de la gestion intégrée de l'énergie. #recherche #quantique
flow
Sabine Keravel
Sabine est responsable du business development pour l’informatique quantique chez Atos. #quantique #IT
flow
Céline Castadot
Céline est HPC, AI and Quantum strategic project manager chez Atos.
flow
Léa Bresque
Léa est doctorante, en thèse à l'institut Néel du CNRS en thermodynamique quantique, sous la direction d'Alexia Auffèves (en 2021). #quantique #recherche
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture. #création
flow
Elvira Shishenina
Elvira est Quantum Computing lead chez BMW ainsi que présidente de QuantX, l'association des polytechniciens du quantique. #quantique
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble. #recherche
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo. #création #jeuvidéo
flow
Alexandra Ferreol
Alexandra est étudiante d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020) #création #jeuvidéo
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020. #création #jeuvidéo