Ces startups qui veulent bidouiller le cerveau : les autres

Publié le 6 juin 2017 et mis à jour le 9 décembre 2017 - 2 commentaires -
PDF Afficher une version imprimable de cet article
  

Nous allons ici terminer cette petite série d’articles sur le bidouillage du cerveau après avoir passé en revue les deux grandes startups du domaine : Neuralink d’Elon Musk et OpnWatr de Mary Lou Jepsen. Ces deux sociétés bien visibles ne sont pas seules sur le créneau.

Vous remarquerez que je ne traite dans cette série d’articles que les plus extrêmes des projets entrepreneuriaux ou de recherche. Je n’y creuse pas la quantité de sociétés qui conçoivent depuis plusieurs années des casques d’électro-encéphalogrammes (EEG) classiques et les applications logicielles qui vont avec pour mesurer notre stress, nous endormir avec de la musique, piloter des dispositifs de commande simples, ou autres solutions “light” du genre !

Il s’agit par exemple des casques de Muse, Emotiv, Neurosky, Halo Neurosciences ou des français Dreem et aussi de Mensia Tech qui développe des solutions pour l’hyperactivité enfantine avec une technologie issue de l’INRIA, du projet Brain Machine Interface. Ces systèmes exploitent une boucle de rétroaction sur le cerveau utilisant les sens traditionnels. Ils peuvent notamment s’appuyer sur des briques logicielles telles que OpenVIBE, développée par l’INRIA, qui permettent d’interpréter les ondes cérébrales pour générer ensuite des mécanismes de neurofeeback.

Non, ici, je m’intéresse à ce qui est à la frontière plus ou moins ténue entre la science et la science-fiction !

Copier un cerveau mort dans un ordinateur

C’est un projet ultra-ambitieux dont les avancées sont notamment décrites dans “Whole brain emulation”, un ouvrage open source publié en 2008, rédigé par Anders Sandberg et Nick Bostrom. Il est plutôt bien documenté techniquement parlant. Il date d’il y neuf ans mais nombre de ses détails technologiques sont toujours d’actualité.

Whole Brain Emulation book

Il décrit les procédés qui peuvent être employés pour décortiquer un cerveau et récupérer l’état de l’ensemble de ses neurones pour le reproduire ensuite dans un ordinateur et en simuler le fonctionnement. C’est un projet amont de celui que nous examinons juste après et qui vise à émuler ensuite le fonctionnement d’un cerveau dans un ordinateur.

Pour commencer, il faut un cerveau bien frais d’un donneur qui vient de décéder. Il faut le congeler très rapidement et éviter l’explosion des cellules nerveuses. On va ensuite le découper en lamelles ultrafines et utiliser un moyen d’exploration photographique pour identifier toutes les cellules nerveuses ainsi que leur état chimique. On peut analyser la composition des tranches par différentes techniques : de la micro-IRM, de la microscopie optique, de la microscopie aux rayons X ou accompagnée d’une découpe laser. Ces différentes techniques de scanning ont des avantages et des inconvénients notamment en termes de résolution.

Brain Scanning Methods

Ca parait simple mais c’est évidemment très compliqué. A quel niveau de granularité faut-il descendre ? Faut-il aussi scanner les cellules gliales qui entourent les neurones et conditionnent leur fonctionnement en les alimentant, et en entourant les axones avec la myéline qui joue le rôle d’isolant ? Faut-il détecter l’état chimique de toutes les vésicules des synapses au bout des axones ainsi que des dendrites auxquelles elles sont reliées ? Idéalement oui, mais c’est plus que difficile. C’est une question importante car on ne sait toujours pas vraiment décrire où et comment la mémoire est stockée dans les neurones (au niveau du potentiel chimique dans les synapses, dans celui qui a lieu dans différentes partie des neurones, etc) ! Donc, tout scan est une approximation de l’état du cerveau au moment de la mort clinique du patient. On ne sait pas encore définir le niveau de granularité qui permettrait de capter l’état précis du cerveau d’un individu.

Brain emulation levels

Le document présente l’intérêt de faire un bel inventaire, toujours d’actualité presque 10 ans après, des techniques de scan. La meilleure résolution possible pour l’IRM serait de 3 microns sachant que l’on n’arrive pour l’instant qu’à 100 microns.

Il en va de même pour la microtomographie à rayons X. La MRFM qui combine l’IRM à la microscopie à force atomique (AFM) permettrait de descendre à 80 nm et d’analyser le vivant au niveau des protéines. La NSOM (near field optical microscopy) permet de descendre à 50 nm. La microscopie à détection de spin d’électron atteint 25 nm.

Il y a aussi la microscopie électronique, la spectromicroscopie Raman dans le proche infrarouge pour détecter les états chimiques, la fluorescence dans l’UV, l’array tomography qui permet de descendre à 70 nm et, enfin, le microscopie ionique à hélium. La quasi-totalité de ces méthodes est destructive et nécessite au préalable un saucissonnage du cerveau en couches aussi fines que la résolution de scan, le découpage le plus efficace étant celui que l’on réalise au laser. Dans le document, la dimension temporelle du scan n’est pas traitée. En effet, plus la résolution est basse, plus le scan prend du temps. Et à l’échelle des dizaines de nm, cela peut durer très très longtemps ! C’est un aspect des variantes des lois de Moore qui n’est pas toujours pris en compte dans ces prévisions !

Brain emulation and environment

Pour qu’un tel dispositif fonctionne, il faudrait d’abord que cela serve à quelque chose, ce qui est loin d’être évident. Pour faire croire au cerveau simulé qu’il “existe” bien, il faudrait aussi simuler tout le reste du corps qui génère les inputs au niveau des sens ainsi que l’environnement dans lequel ce corps est plongé. Rien que pour simuler le cerveau, il faudrait d’après les calculs des auteurs au minimum 10 000 To et dans le niveau de simulation le plus avancé, 10 puissance 8 To et 10 puissance 23 TFlops ! Bref, pas tout du suite. Et même, pas avant très longtemps ! Cela revient à créer un monde virtuel complet dans lequel le corps virtuel serait plongé. Le niveau de complexité de ce genre de simulation dépasse l’entendement. Mais cette initiative n’est pas un projet en tant que tel. C’est juste une conjecture plus ou moins scientifique.

Emuler un cerveau avec le Human Brain Project

Le Human Brain Project est un grand projet européen multifacettes qui vise notamment à simuler le cerveau de manière numérique. Il est piloté par un chercheur de l’EPFL Lausanne, Henri Markram, lancé dans la lignée de son propre projet suisse Blue Brain. Nous sortons temporairement du périmètre des startups mais cela met les choses en perspective sur les moyens scientifiques et techniques nécessaires aux progrès dans le domaine.

Lancé en 2013 et courant jusqu’en 2023, il est doté de 1,19 Md€ de financements publics, dans le cadre des projets européens Horizon 2020. C’est même l’un des deux seuls grands projets scientifiques de cette envergure, les projets Flagship Emerging Technology. L’autre de ces FET porte sur les nano-technologies à base de graphène. C’est plutôt étonnant que l’on aboutisse à un tel résultat alors que l’Europe aurait très bien pu financer un projet de même envergure sur les technologies et applications de l’IA plutôt que dans cette aventure technologique plus étroite, même si, nous le verrons, elle peut avoir des applications au-delà de son cadre initial. La compréhension du fonctionnement cerveau est en tout cas considérée comme étant un enjeu stratégique.

Human Brain Project

Le Human Brain Project qui est structuré en nombre de composantes et sous-projets a plusieurs objectifs techniques que l’on peut résumer en trois grandes parties :

  • Améliorer notre compréhension du fonctionnement du cerveau à l’échelle anatomique et cognitive. Anatomique, grâce principalement à de l’IRM fonctionnelle à haute résolution permettant de cartographier le cortex tout comme la matière blanche qui gère les communications entre parties, et les autres parties du cerveau, notamment limbique. L’un des objectifs est de comprendre comment se forme le cerveau pendant son développement lors de l’enfance. Cognitive, grâce à sa combinaison avec des expériences de neuropsychologie permettant d’identifier les circuits du cerveau qui s’activent en fonction des tâches cognitives ou sensorielles. Le projet vise à comprendre comment se forment les aires cérébrales, notamment dans le cortex préfrontal qui gère l’intelligence de plus haut niveau. ll a aussi en ligne de mire la compréhension du fonctionnement de la conscience. Le tout s’appuie sur un investissement dans des techniques avancées d’exploration du cerveau à fin d’en réaliser une cartographie aussi précise que possible. La littérature du HBP contient un aspect intéressant qui est la dimension temporelle. L’analyse du fonctionnement du cerveau nécessite une granularité temporelle très variable selon le niveau de finesse de l’exploration : au niveau cellulaire ou moléculaire. Cela rappelle aussi que la vitesse de fonctionnement de notre cerveau est limitée par celle des influx neuronaux, qui ne sont que des propagations relativement lentes de potentiels chimiques.
  • Créer des supercalculateurs de simulation du fonctionnement cerveau, qui vont s’appuyer sur les données collectées dans l’étape précédente. La simulation du cerveau pourrait en théorie démarrer au niveau moléculaire. Le HBP se contente de démarrer à l’échelle des neurones. Par contre, le Blue Brain project suisse démarre au niveau sous-cellulaire, à l’échelle de 100 nm. La modélisation doit permettre de comprendre les mécanismes de l’apparition et du développement de maladies neurodégénératives afin d’aider à la création de thérapies adaptées. L’ambition est de créer une sorte nouveau CERN dédié au cerveau. Le projet part des espèces vivantes les plus simples pour aller progressivement vers le plus compliqué, le cerveau humain. En 2015, l’équipe suisse du Blue Brain Project qui fait partie du HBP a déjà pu simuler un minuscule bout de cortex d’un tiers de mm3 de rat comprenant 31 000 neurones et 40 millions de synapses. Il y a du chemin pour aboutir à la simulation du fonctionnement de 85 milliards de neurones et du million de milliards de synapses du cerveau humain ! Et surtout, pour le faire sans que la consommation d’énergie associée ne deviennent délirante, la barre haute étant mise à 20 MW dans les supercalculateurs courants.

Brain Simulation Platform

  • Créer des plateformes neuromorphiques et neurorobotiques imitant le fonctionnement du cerveau, les applications pouvant aller au-delà des aspects thérapeutiques et couvrir de nouveaux besoins dans le domaine de l’intelligence artificielle. Deux technologies de processeurs neuromorphiques ont été créées pour ce projet. BrainScaleS mélange techniques analogiques et numérique pour émuler le fonctionnement de neurones et synapses. Le BrainScaleS NM-PM-1 est conçu sur des wafers de 8 pouces gravés en technologie 180 nm comprenant 50 millions de neurones plastiques et 200 000 neurones biologiquement réalistes. Le système fonctionne 10 000 fois plus vite qu’un système nerveux traditionnel. L’installation de Heidelberg en Allemagne exploite 4 millions de neurones et un milliard de synapses répartis sur 20 wafers au silicium. SpiNNaker s’appuie de son côté sur des chipsets à base de noyaux ARM. Le SpiNNaker NM-MC-1 comprend 30 000 chipsets comprenant 18 cœurs ARM, soient 500 000 cœurs. Un seul chipset peut simuler 16 000 neurones avec huit millions de synapses et en temps réel, et pour seulement 1W.  La machine est située à Manchester. A noter que le financement public européen de BrainScaleS s’est arrêté en 2015 et que celui de SpinNNaker pourrait être remis en cause par la sortie programmée de l’Union Européenne du Royaume Uni.

Spinntaker and Brainscales

Le HBP affiche des objectifs finaux qui relèvent majoritairement de la santé, focalisés sur la lutte contre les maladies neurodégénératives. Leurs porteurs n’évoquent pas d’intelligence artificielle généralisée, de vie consciente transposée dans un supercalculateur ou de vie virtuelle. Il a malgré cela été la cible de nombreuses critiques de chercheurs, notamment 2015. Celles-ci portaient sur la nature du projet lui-même, sur son orientation, sur son ambition et les choix techniques réalisés. Ils peuvent venir de chercheurs sceptiques sur l’ambition du projet ou de ceux qui sont déçus de ne pas avoir pu accéder à la manne du financement d’Horizon 2020. Les critiques ont eu pour conséquence d’altérer l’orientation du projet, notamment autour des neurosciences cognitives.

Dans la pratique, le HBP finance des dizaines de projets (liste), essentiellement liés à la compréhension du fonctionnement des neurones biologiques. Le projet se veut très collaboratif et international. Il rassemble des dizaines d’équipes de recherche en Europe et même aux USA et au Japon. Des équipes de chercheurs en France coordonnent trois des grandes dimensions du projet : la théorie des réseaux neuronaux (avec Alain Destexhe pour le CNRS), les neurosciences cognitives (avec Stanislas Dehaene, de l’INSERM et du CEA, aussi professeur au Collège de France, Inserm, CEA), et la dimension éthique (avec Jean-Pierre Changeux, de l’Institut Pasteur et aussi professeur au Collège de France).

Les entités de recherche publiques françaises impliquées sont le CNRS, l’Institut Pasteur, l’INSERM, l’ENS, l’UMPC et l’INRIA. Du côté du privé, nous avons Thales (qui contribue au développement d’ordinateurs massivement parallèles exploitant le processeur neuromorphique SpiNNaker), Integragen (un spécialiste de l’analyse du génome) et Pharnext (qui cherche à combiner à faible dose plusieurs médicaments pour traiter des pathologies notamment neurologiques).

Il faut aussi compter avec le CEA et son laboratoire d’imagerie médicale Neurospin installé à Saclay, qui exploite l’IRM fonctionnelle pour analyser le fonctionnement du cerveau aussi bien du côté cognitif que pour comprendre le développement de maladies neurodégénératives comme Alzheimer. L’IRM fonctionnelle permet par exemple de comprendre comment se développe le cerveau des mathématiciens !

Neurospin Image Types

Neurospin est en train d’installer à Saclay le système franco-allemand Iseult, le scanner d’IRM corporel le plus puissant du monde, équipé d’un aimant record de 11,7 Telsas et 132 tonnes, et dont le bobinage supraconducteur en niobium-titane refroidi par cryogénisation à l’hélium pèse 45 tonnes (ci-dessous, source). Il complètera l’IRM dotée d’un aimant de 7 tonnes qui est opérationnelle chez Neurospin depuis 2008. Plus l’aimant est puissant, plus on augmente la résolution de l’IRM. L’aimant a été conçu avec le concours du CEA-Irfu, l’Institut de Recherche sur les lois Fondamentales de l’Univers, qui a réutilisé ses acquis issus de la création des aimants supraconducteurs du Large Hadrons Collider du CERN de Genève. Il est fabriqué par Alstom-GE à Belfort, l’intégration du scanner étant réalisée par l’allemand Siemens, l’un des leaders mondiaux de l’IRM médicale. Y contribue également la société française Guerbet, spécialisée dans la production d’agents de contraste utilisés dans l’imagerie médicale.

Ce système va servir à générer des images 3D de plus haute résolution, descendant en-dessous  du mm3 de l’IRM traditionnelle. Elle descendrait au niveau du dixième de mm (100 microns). Il est pour l’instant difficile d’aller en-deçà avec des techniques non invasives. Iseult permettra d’identifier plusieurs types de molécules au-delà de l’eau, comme le glucose ou divers neurotransmetteurs, notamment via l’injection de marqueurs à base de molécules magnétisées. La mise en service est prévue pour 2018, en retard de plusieurs années sur le calendrier initial. A terme, on pourra aller jusqu’à observer le fonctionnement des neurones à l’échelle individuelle. Ce projet rappelle qu’une autre exponentielle a court : plus on veut observer l’infiniment petit, plus l’instrument est grand et cher. Comme pour les accélérateurs de particule et le LHC pour la découverte du boson de Higgs ! Plus on augmente la résolution de l’IRM fonctionnelle, plus il faut augmenter la fréquence de scan et la puissance de l’aimant, donc sa taille. D’où l’intérêt de la solution légère et, en apparence, très élégante, de OpnWatr évoquée dans l’article précédent, mais qui n’a pas encore fait ses preuves. Elle pourrait sortir du gué dès 2018, au même moment qu’Iseult. La confrontation sera des plus intéressante !

Neurospin IRM geante

Dans le cadre du HBP, la France héberge aussi l’Institut Européen des Neurosciences Théoriques (EITN), lancé en 2014 et installé près de l’Institut de la Vision et de la Fondation Voir & Entendre à Paris. Cet établissement sert de pont entre différentes facettes du HBP, faisant notamment le lien entre les résultats d’IRM fonctionnelle de Neurospin et la création d’outils de simulation du cerveau dans les processeurs neuromorphiques du projet, le tout en liaison avec les équipes anglaises et allemandes qui planchent sur ces processeurs.

Vu de haut, le HBP fera certainement avancer les connaissances scientifiques sur le fonctionnement du cerveau et probablement également, la contribution à la création de nouvelles thérapies de pathologies neurodégénératives voire même des troubles psychiatriques.

La branche neuromorphique de l’initiative HBP pose des questions de stratégie industrielle. Comment les processeurs BrainScaleS et SpiNNaker se comparent-ils aux processeurs neuromorphiques IBM TrueNorth, aux Google TPU ainsi qu’aux GPUs de Nvidia ? Ils sont conçus pour imiter de très près le fonctionnement du cerveau tandis que ces derniers sont adaptés aux techniques actuelles des réseaux de neurones du deep learning. BrainScaleS et SpiNNaker sont structurés comme des projets de recherche. Ils ne sont pas adossés à des acteurs industriels des semi-conducteurs. Certes, ARM fait partie du projet SpiNNaker, mais c’est une société qui ne vend que de la propriété intellectuelle, pas des processeurs comme Qualcomm ou Nvidia qui exploitent sous licence des coeurs ARM. On ne trouve ni de fournisseur de chipsets ni de supercalculateurs (HPC) dans la liste des contributeurs à BrainScales et SpiNNaker.

On risque donc de se retrouver dans une situation familière avec, d’un côté, une excellence scientifique européenne qui a du mal à s’industrialiser et de l’autre, un pragmatisme technologique américain, moins sophistiqué scientifiquement parlant, mais avec une approche industrielle massive, comme en témoignent les investissements de Google dans l’IA et dans ses datacenters à base de processeurs neuromorphiques TPU (Tensor Processing Units) qui sont déjà déployés dans le cloud. La même question risque de se poser rapidement pour les ordinateurs quantiques.

BRAIN Initiative

Le HBP n’est pas seul dans son domaine. Les USA ont lancé l’initiative BRAIN en 2013 en même temps que le HBP. Annoncée par Barack Obama à la Maison Blanche, elle est financée par le NIH à hauteur de $4,5B sur 12 ans. Tout du moins, sous Obama, car le budget 2018 de la présidence Trump prévoit une baisse de 18% du budget du NIH, l’INSERM américain. La DARPA fait aussi partie du projet. L’ambition de BRAIN recouvre celle de la première partie du HBP : la compréhension des mécanismes du cerveau. Elle exclue la création d’outils de simulation. BRAIN comprend notamment l’initiative privée américaine de l’Allen Brain Atlas qui s’est spécialisée dans la cartographie du cerveau, qui contribue aussi au projet HBP, et qui ambitionne de simuler un cerveau de souris, dans la lignée du HBP. Il y a aussi le Human Connectome Project qui planche comme le HBP sur la cartographie anatomique et fonctionnelle du cerveau (un exemple ci-dessous des connexions internes du cerveau).

Human Connectome Project

BRAIN MINDS Logo

En Asie, les japonais du projet Brain/MINDS ont des objectifs voisins de ceux de l’américain BRAIN. Ils veulent développer la compréhension du cerveau et des maladies neurodégénératives. Ils y sont encore plus sensibilisés que les Européens et les Américains du fait de la plus grande longévité de leur population. Ils se focalisent sur l’analyse du fonctionnement de cerveaux de primates, et particulièrement du ouistiti qui présente l’avantage d’être très léger (seulement 8g). Comme de nombreuses initiatives japonaises, celle-ci est japono-japonaise et n’ouvre visiblement pas la porte à la collaboration internationale même si nombre de travaux européens et américains sont partagés en “open source”.

Enfin, le China Brain Project cible la compréhension des maladies neurodégénératives. Les chinois profitent de leur règlementation “assouplie” pour créer la plus grande banque d’échantillons biologiques de cerveau et d’utiliser massivement des singes pour leurs tests. Le projet s’étale sur trois plans quinquennaux (15 ans !) et a été lancé en 2016.

Traiter les troubles de la mémoire avec Kernel

Repassons du côté des startups. Créée par Bryan Johnson, Kernel s’attaque au traitement de la dépression et d’autres pathologies neurologiques. La société a été créée en 2016 avec l’apport de $100m de son fondateur, issus de la vente de son entreprise précédente, Braintree, à Paypal pour $800m. On retrouve dans la mission de l’entreprise la même bivalence que pour les précédentes : d’un côte traiter des pathologies et de l’autre, prévoir à plus long terme d’augmenter les capacités cognitives de personnes saines. En y regardant de près, cela n’a rien de magique.

Bryan Johnson (Kernel)

La société travaille sur la création d’un dispositif électronique non invasif de nature non précisée pour la stimulation du fonctionnement de l’hippocampe, une partie du cerveau qui gère l’alimentation de la mémoire corticale. Elle doit traiter dans un premier temps les personnes dont l’hippocampe ne fonctionne pas bien, comme les personnes atteintes de la maladie d’Alzheimer, de démence ou d’épilepsie, ces pathologies n’étant d’ailleurs pas liées spécifiquement à des lésions de l’hippocampe. Dans son principe, la solution n’agit pas directement sur la mémoire mais seulement sur l’état du robinet qui permet son alimentation.

La startup s’appuie sur les travaux de Theodore Berger, qui avait planché en 2002 sur la simulation de l’hippocampe (source) puis en 2011 sur une prothèse de restitution de ses fonctions chez des rats (source). La société a aussi acquis en 2016 la startup KRS (Kendall Research Systems), un spin-off du MIT qui travaille sur des interfaces neuronales. L’histoire ne dit pas encore comment implanter cet appareil de manière non invasive. De toutes les startups analysées pour cette série d’articles, il s’agit de la plus floue concernant la description de ses procédés techniques (exemple dans The Verge en février 2017).

On est ici très loin d’un bidouillage du cerveau à l’échelle sémantique comme pour OpnWatr ou Neuralink ! Ce dont nous ne nous plaindrons pas !

Les scalpels non invasifs de Focused Ultrasound Foundation

Il existe aussi une autre technique de réparation du cerveau qui n’est pas destinée à le connecter à quoi que ce soit ou à lire et écrire dedans : celle de Neal Kassell, de la Focused Ultrasound Foundation.

Il s’agit d’une technique de projection focalisée d’ultrasons qui a diverses applications. C’est une sorte de scalpel non invasif doté d’une précision de l’ordre du millimètre-cube. Il permet de détruire des tissus non sains et de délivrer des traitements de manière ciblée. Dans le cerveau, cette technique permet surtout de détruire des tumeurs cancéreuses ou pas et de manière non invasive.

Focused Ultrasound Foundation

La technique a plein d’usages dans d’autres parties du corps. Elle est commercialisée sous licence par quelques dizaines d’industriels des medtechs dont une belle brochette de sociétés françaises : Eye Tech Care, pour le traitement des glaucomes, CarThera pour le traitement de tumeurs du cerveau, EdapTMS pour le traitement du cancer de la prostate et en urologie, Image Guided Therapy pour des ablations de tumeurs cancéreuses diverses et Theraclion qui associe échographie et scalpel à ultrasons, exploités de concert pour l’ablation de tumeurs bénignes comme les adénofibromes du sein ou les nodules thyroïdiens.

Avec cela, on ne risque pas non plus d’écrire dans le cerveau et fort heureusement ! On peut cependant potentiellement l’utiliser pour détruire des parties ciblées du cerveau pour désactiver des fonctions spécifiques. Ce qui peut avoir des applications dans certaines pathologies psychiatriques aigues. Ce qui relève donc aussi du “bidouillage”.

Sommes-nous en fait déjà dans un monde virtuel ?

Lors de la dernière Echappée Volée organisée par Brightness près de Chantilly en mai 2017, une sorte de TEDx en résidentiel, j’ai beaucoup entendu parler de “The Age of Em Work, Love and Life when Robots Rule the Earth” de Robin Hanson. Publié début 2016, c’est devenu un ouvrage de prospective intrigant à la mode. Il décrit par le menu toutes les composantes sociale, économiques, éthiques et géopolitiques d’un monde, une fois que nos vies, ou certaines d’entre elles, seraient transposées dans des machines. C’est en fait un mélange de science-fiction et d’économie fiction.

The Age of Hem

Seulement voilà, c’est de la singularité au carré, prise un peu trop pour argent comptant par ceux qui imaginent inéluctable un monde où l’on pourrait transposer son cerveau dans un ordinateur et devenir immortel, baigné dans un monde entièrement virtuel. Le transfert du cerveau dans un ordinateur est un fantasme, rien de plus à ce stade de nos connaissances, même en extrapolant les trucs les plus dingues vus dans cette série d’articles. Mais ce genre d’ouvrage permet de prendre du recul sur notre vie actuelle, déjà très numérisée, avec son impact et son économie associée. Nous sommes souvent déjà les moutons de Facebook, Twitter ou plus simplement de notre email, réagissant aux petites doses régulières de dopamine, liées à la réception de messages et like divers.

On voit enfin apparaitre une nouvelle forme d’explication de ce que l’on n’arrive pas à expliquer. Nous serions en fait les jouets d’une gigantesque simulation. C’est une hypothèse – certes faiblement probable – notamment mise en avant par Elon Musk. Elle complète une observation des lois de la physique selon lesquelles notre libre arbitre serait un mythe, ce que met notamment en avant Moran Cerf (comme dans TEDxAix en 2015). Le libre arbitre est en effet une vision de l’esprit, celui-ci étant conditionné par tout un tas de paramètres que nous ne maitrisons pas. Et à l’échelle nanoscopique, nous ne sommes que de la poussière d’étoile animée par de la mécanique quantique qui ajoute sa dose d’aléatoire plus que de libre arbitre.

Donc, si nous sommes dans un gros simulateur de l’univers, ce que nous en observons n’en est qu’une simulation. Par qui, comment et pourquoi, ce sont des détails. Cela explique peut-être le mystère de la matière et de l’énergie noires : elles sont indispensables pour justifier la cohésion des galaxies mais ont n’en trouve pas encore la trace ! C’est donc un bug de la simulation (ou de nos équations…) ! Comme dans Men in Black, l’univers n’est peut-être qu’un atome d’un supra-univers encore plus grand. Et si nous dupliquons nos cerveaux dans un supercalculateur simulant le monde, cela nous fera rentrer dans une étonnante récursivité. On commence à être perdus ! Mais je ne faisais que délirer !

Après ce petit tour en trois partie du bidouillage du cerveau qui est probablement très incomplet malgré sa longueur, je reste perplexe. J’y vois d’un côté des startups telles que Neuralink et OpnWatr qui ont des prétentions quelque peu exagérées sachant que OpnWatr semble plus disruptive et prometteuse que Neuralink, modulo la résolution opérationnelle de son astucieux système à base de petites écrans. De l’autre, nous avons des initiatives de recherche internationales très bien financées et qui planchent sur des fondamentaux. Notamment, au niveau de l’IRM et de la cartographie détaillée du fonctionnement du cerveau comme ce que fait le Neurospin du CEA en France. Nous aurons surtout en bout de course de nouveaux traitements de maladies diverses bien plus que des liaisons entre une IA en silicium et nos cerveaux. Tout du moins dans un futur proche. Et une bonne part des progrès scientifiques viendront plus des chercheurs financés par les deniers publics que de startups un peu tape à l’œil qui interviendront plutôt en bout de course, pour la démocratisation de solutions à grande échelle.

Pour ce qui est de l’éthique des solutions de bidouillage du cerveau, j’ai bien peur que les garde-fous ne soient que des illusions pour nous rassurer. L’histoire montre que, pour nombre de technologies, on en découvre les effets collatéraux négatifs un peu tardivement après leur déploiement à grande échelle. Et que cela ne change pas grand chose aux usages, sauf pour la petite minorité de ceux qui y résistent ou se lancent dans des cures de digital detox pour se rassurer, avant de replonger. Pour ce qui est du bidouillage du cerveau, les effets collatéraux pervers sont un peu plus faciles à imaginer en amont. Mais l’innovation ne s’arrête pas d’un coup de claquettes de comité d’éthique ou de lois préventives. Elle vient de partout dans le monde. Elle se diffuse, qu’on le veille ou non. Les mécanismes de régulation de sa diffusion sont bien plus économiques et émotionnels qu’éthiques ou liés à la régulation dans la pratique. Il n’y a qu’à observer la consommation de drogues légales et illégales au travers des âges. Le bidouillage du cerveau pourrait devenir à la fois une thérapie et une nouvelle drogue dure, comme la morphine et ses produits dérivés !

________________________

Je me rend compte a posteriori que lors de la conférence USI 2017 qui a lieu les 19 et 20 juin à Paris, de nombreuses personnes citées dans mes trois articles seront parmi les intervenants : Nick Bostrom “Super Intelligence”, Kevin Kelly “The inevitable”, Tim Urban “Wait but why”, Laurent Alexandre “La mort de la mort” et Moran Cerf. Ce qui fait un beau quinté !

RRR

 
S
S
S
S
S
S
S
img
img
img

Publié le 6 juin 2017 et mis à jour le 9 décembre 2017 Post de | Actualités, Intelligence artificielle, Startups | 28393 lectures

PDF Afficher une version imprimable de cet article     

Reçevez par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img

Les 2 commentaires et tweets sur “Ces startups qui veulent bidouiller le cerveau : les autres” :




Ajouter un commentaire

Vous pouvez utiliser ces tags dans vos commentaires :<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> , sachant qu'une prévisualisation de votre commentaire est disponible en bas de page après le captcha.

Last posts / derniers articles

Free downloads

Understanding Quantum Technologies 2023, a free 1,366 pages ebook about all quantum technologies (computing, telecommunications, cryptography, sensing) also available in paperback edition on Amazon:

image

Free downloads

Understanding Quantum Technologies 2023 Short version, a 24 pages with key takeaways from the eponymous book.

image

Voir aussi la liste complète des publications de ce blog.

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
QFDN
Expo
791 photos
albth
Remise Légion d'Honneur Philippe Herbert Jul2021
2021
15 photos
albth
Vivatech Jun2021
2021
120 photos
albth
Visite C2N Palaiseau Mar2021
2021
17 photos
albth
Annonce Stratégie Quantique C2N Jan2021
2021
137 photos
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Elle circule dans différentes manifestations. L'initiative rassemble près de 800 femmes du numérique (en janvier 2022) et elle s'enrichit en continu. Tous les métiers du numérique y sont représentés.

Les photos et les bios de ces femmes du numérique sont présentées au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Gaëlle Rannou
Gaëlle est étudiante à 42 Paris et tutrice de l’équipe pédagogique (en 2021).
flow
Jehanne Dussert
Jehanne est étudiante à l'école 42, membre d'AI For Tomorrow et d'Open Law, le Droit ouvert. Elle est aussi fondatrice de "Comprendre l'endométriose", un chatbot informant sur cette maladie qui touche une personne menstruée sur 10, disponible sur Messenger. #entrepreneuse #juridique #santé
flow
Chloé Hermary
Chloé est fondatrice d'Ada Tech School, une école d'informatique alternative et inclusive dont la mission est de former une nouvelle génération de talents diversifié à avoir un impact sur le monde. #entrepreneuse #formation
flow
Anna Minguzzi
Anna est Directrice de Recherche au CNRS au Laboratoire de Physique et Modélisation des Milieux Condensés (LPMMC) à Grenoble. #quantique
flow
Maeliza Seymour
Maeliza est CEO et co-fondatrice de CodistAI, qui permet de créer une documentation du code informatique par une IA.
flow
Candice Thomas
Candice est ingénieure-chercheuse au CEA-Leti, travaillant sur l’intégration 3D de bits quantiques au sein du projet Quantum Silicon Grenoble. #recherche #quantique
flow
Stéphanie Robinet
Stéphanie dirige un laboratoire de conception intégrée de circuits électroniques du CEA-Leti qui travaille sur des systèmes sur puces intégrés, des interfaces de capteurs, des interfaces de contrôle de qubits et de la gestion intégrée de l'énergie. #recherche #quantique
flow
Sabine Keravel
Sabine est responsable du business development pour l’informatique quantique chez Atos. #quantique #IT
flow
Céline Castadot
Céline est HPC, AI and Quantum strategic project manager chez Atos.
flow
Léa Bresque
Léa est doctorante, en thèse à l'institut Néel du CNRS en thermodynamique quantique, sous la direction d'Alexia Auffèves (en 2021). #quantique #recherche
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture. #création
flow
Elvira Shishenina
Elvira est Quantum Computing lead chez BMW ainsi que présidente de QuantX, l'association des polytechniciens du quantique. #quantique
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble. #recherche
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo. #création #jeuvidéo
flow
Alexandra Ferreol
Alexandra est étudiante d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020) #création #jeuvidéo
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020. #création #jeuvidéo

Derniers commentaires

“[…] to Olivier Ezratty, author of Understanding quantum technologies 2023, the challenge for Europe is to position itself outside of where the US and China are likely end up...”
“Désolé, je suis passé à l'anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d'une langue à l'autre est un travail herculéen, même avec des outils de traduction automatique. Sachant...”
“Je suis un artiste conceptuel, certes je garde la grande majorité de mon travail dans ma tête par défaut d'un grand mécène. Mon travail de base se situe sur le "mimétisme" qui mène aux itérations et de nombreux...”
“Better than a Harry Potter! Thanks Olivier...”
“J'ai bien aimé le commentaire sur le film Openheiner avec l'interrogation du chercheur sur l'utilisation de ses découvertes. En continuation de ces propos, je propose d'écouter le débat suivant qui m'a semblé...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img