ActualitéBusinessHealthcareLes ExpertsOlivier EzrattyStartupTech

Ces start-up qui veulent bidouiller le cerveau: les autres

Nous allons ici terminer cette petite série d’article sur le bidouillage du cerveau après avoir passé en revue les deux grandes start-up du domaine: Neuralink d’Elon Musk et OpnWatr de Mary Lou Jepsen. Ces deux sociétés bien visibles ne sont pas seules sur le créneau.

Vous remarquerez que je ne traite dans cette série d’articles que les plus extrêmes des projets entrepreneuriaux ou de recherche. Je n’y creuse pas la quantité de sociétés qui conçoivent depuis plusieurs années des casques d’électro-encéphalogrammes (EEG) classiques et les applications logicielles qui vont avec pour mesurer notre stress, nous endormir avec de la musique, piloter des dispositifs de commande simples, ou autres solutions «light» du genre!

Il s’agit par exemple des casques de MuseEmotiv, NeuroskyHalo Neurosciences ou des Français Dreem et aussi de Mensia Tech qui développe des solutions pour l’hyperactivité enfantine avec une technologie issue de l’INRIA, du projet Brain Machine Interface. Ces systèmes exploitent une boucle de rétroaction sur le cerveau utilisant les sens traditionnels. Ils peuvent notamment s’appuyer sur des briques logicielles telles que OpenVIBE, développée par l’INRIA, qui permettent d’interpréter les ondes cérébrales pour générer ensuite des mécanismes de neurofeeback.

Non, ici, je m’intéresse à ce qui est à la frontière plus ou moins ténue entre la science et la science-fiction!

Copier un cerveau mort dans un ordinateur

C’est un projet ultra-ambitieux dont les avancées sont notamment décrites dans «Whole brain emulation», un ouvrage open source publié en 2008, rédigé par Anders Sandberg et Nick Bostrom. Il est plutôt bien documenté techniquement parlant. Il date d’il y neuf ans mais nombre de ses détails technologiques sont toujours d’actualité.

livre

Il décrit les procédés qui peuvent être employés pour décortiquer un cerveau et récupérer l’état de l’ensemble de ses neurones pour le reproduire ensuite dans un ordinateur et en simuler le fonctionnement. C’est un projet amont de celui que nous examinons juste après et qui vise à émuler ensuite le fonctionnement d’un cerveau dans un ordinateur.

Pour commencer, il faut un cerveau bien frais d’un donneur qui vient de décéder. Il faut le congeler très rapidement et éviter l’explosion des cellules nerveuses. On va ensuite le découper en lamelles ultrafines et utiliser un moyen d’exploration photographique pour identifier toutes les cellules nerveuses ainsi que leur état chimique. On peut analyser la composition des tranches par différentes techniques: de la micro-IRM, de la microscopie optique, de la microscopie aux rayons X ou accompagnée d’une découpe laser. Ces différentes techniques de scanning ont des avantages et des inconvénients notamment en termes de résolution.

1

Ca parait simple mais c’est évidemment très compliqué. A quel niveau de granularité faut-il descendre? Faut-il aussi scanner les cellules gliales qui entourent les neurones et conditionnent leur fonctionnement en les alimentant, en entourant les axones avec la myéline qui joue le rôle d’isolant? Faut-il détecter l’état chimique de toutes les vésicules des synapses au bout des axones ainsi que des dendrites auxquelles elles sont reliées? Idéalement oui, mais c’est plus que difficile. C’est une question importante car on ne sait toujours pas vraiment décrire où et comment la mémoire est stockée dans les neurones (au niveau du potentiel chimique dans les synapses, dans celui qui a lieu dans différentes partie des neurones, etc)! Donc, tout scan est une approximation de l’état du cerveau au moment de la mort clinique du patient. On ne sait pas encore définir le niveau de granularité qui permettrait de capter l’état précis du cerveau d’un individu.

2

Le document présente l’intérêt de faire un bel inventaire, toujours d’actualité presque 10 ans après, des techniques de scan. La meilleure résolution possible pour l’IRM serait de 3 microns sachant que l’on n’arrive pour l’instant qu’à 100 microns.

Il en va de même pour la microtomographie à rayons X. La MRFM qui combine l’IRM à la microscopie à force atomique (AFM) permettrait de descendre à 80 nm et d’analyser le vivant au niveau des protéines. La NSOM (near field optical microscopy) permet de descendre à 50 nm. La microscopie à détection de spin d’électron atteint 25 nm.

Il y a aussi la microscopie électronique, la spectromicroscopie Raman dans le proche infrarouge pour détecter les états chimiques, la fluorescence dans l’UV, l’array tomography qui permet de descendre à 70 nm et, enfin, le microscopie ionique à hélium. La quasi-totalité de ces méthodes est destructive et nécessite au préalable un saucissonnage du cerveau en couches aussi fines que la résolution de scan, le découpage le plus efficace étant celui que l’on réalise au laser. Dans le document, la dimension temporelle du scan n’est pas traitée. En effet, plus la résolution est basse, plus le scan prend du temps. Et à l’échelle des dizaines de nm, cela peut durer très très longtemps! C’est un aspect des variantes des lois de Moore qui n’est pas toujours pris en compte dans ces prévisions!

4

Pour qu’un tel dispositif fonctionne, il faudrait d’abord que cela serve à quelque chose, ce qui est loin d’être évident. Pour faire croire au cerveau simulé qu’il «existe» bien, il faudrait aussi simuler tout le reste du corps qui génère les inputs au niveau des sens ainsi que l’environnement dans lequel ce corps est plongé. Rien que pour simuler le cerveau, il faudrait d’après les calculs des auteurs au minimum 10 000 To et dans le niveau de simulation le plus avancé, 10 puissance 8 To et 10 puissance 23 TFlops! Bref, pas tout du suite. Et même, pas avant très longtemps! Cela revient à créer un monde virtuel complet dans lequel le corps virtuel serait plongé. Le niveau de complexité de ce genre de simulation dépasse l’entendement. Mais cette initiative n’est pas un projet en tant que tel. C’est juste une conjecture plus ou moins scientifique.

Emuler un cerveau avec le Human Brain Project

Le Human Brain Project est un grand projet européen multifacettes qui vise notamment à simuler le cerveau de manière numérique. Il est piloté par un chercheur de l’EPFL Lausanne, Henri Markram, lancé dans la lignée de son propre projet suisse Blue Brain. Nous sortons temporairement du périmètre des start-up mais cela met les choses en perspective sur les moyens scientifiques et techniques nécessaires aux progrès dans le domaine.

Lancé en 2013 et courant jusqu’en 2023, il est doté de 1,19 milliard d'euros de financements publics, dans le cadre des projets européens Horizon 2020. C’est même l’un des deux seuls grands projets scientifiques de cette envergure, les projets Flagship Emerging Technology. L’autre de ces FET porte sur les nano-technologies à base de graphène. C’est plutôt étonnant que l’on aboutisse à un tel résultat alors que l’Europe aurait très bien pu financer un projet de même envergure sur les technologies et applications de l’IA plutôt que dans cette aventure technologique plus étroite, même si, nous le verrons, elle peut avoir des applications au-delà de son cadre initial. La compréhension du fonctionnement cerveau est en tout cas considérée comme étant un enjeu stratégique.

5

Le Human Brain Project qui est structuré en nombre de composantes et sous-projets a plusieurs objectifs techniques que l’on peut résumer en trois grandes parties:

  • Améliorer notre compréhension du fonctionnement du cerveau à l’échelle anatomique et cognitive. Anatomique, grâce principalement à de l’IRM fonctionnelle à haute résolution permettant de cartographier le cortex tout comme la matière blanche qui gère les communications entre parties, et les autres parties du cerveau, notamment limbique. L’un des objectifs est de comprendre comment se forme le cerveau pendant son développement lors de l’enfance. Cognitive, grâce à sa combinaison avec des expériences de neuropsychologie permettant d’identifier les circuits du cerveau qui s’activent en fonction des tâches cognitives ou sensorielles. Le projet vise à comprendre comment se forment les aires cérébrales, notamment dans le cortex préfrontal qui gère l’intelligence de plus haut niveau. ll a aussi en ligne de mire la compréhension du fonctionnement de la conscience. Le tout s’appuie sur un investissement dans des techniques avancées d’exploration du cerveau à fin d’en réaliser une cartographie aussi précise que possible. La littérature du HBP contient un aspect intéressant qui est la dimension temporelle. L’analyse du fonctionnement du cerveau nécessite une granularité temporelle très variable selon le niveau de finesse de l’exploration: au niveau cellulaire ou moléculaire. Cela rappelle aussi que la vitesse de fonctionnement de notre cerveau est limitée par celle des influx neuronaux, qui ne sont que des propagations relativement lentes de potentiels chimiques.
  • Créer des supercalculateurs de simulation du fonctionnement cerveau, qui vont s’appuyer sur les données collectées dans l’étape précédente. La simulation du cerveau pourrait en théorie démarrer au niveau moléculaire. Le HBP se contente de démarrer à l’échelle des neurones. Par contre, le Blue Brain project suisse démarre au niveau sous-cellulaire, à l’échelle de 100 nm. La modélisation doit permettre de comprendre les mécanismes de l’apparition et du développement de maladies neurodégénératives afin d’aider à la création de thérapies adaptées. L’ambition est de créer une sorte nouveau CERN dédié au cerveau. Le projet part des espèces vivantes les plus simples pour aller progressivement vers le plus compliqué, le cerveau humain. En 2015, l’équipe suisse du Blue Brain Project qui fait partie du HBP a déjà pu simuler un minuscule bout de cortex d’un tiers de mm3 de rat comprenant 31 000 neurones et 40 millions de synapses. Il y a du chemin pour aboutir à la simulation du fonctionnement de 85 milliards de neurones et du million de milliards de synapses du cerveau humain ! Et surtout, pour le faire sans que la consommation d’énergie associée ne deviennent délirante, la barre haute étant mise à 20 MW dans les supercalculateurs courants.

 

6

  • Créer des plateformes neuromorphiques et neurorobotiques imitant le fonctionnement du cerveau, les applications pouvant aller au-delà des aspects thérapeutiques et couvrir de nouveaux besoins dans le domaine de l’intelligence artificielle. Deux technologies de processeurs neuromorphiques ont été créées pour ce projet. BrainScaleS mélange techniques analogiques et numérique pour émuler le fonctionnement de neurones et synapses. Le BrainScaleS NM-PM-1 est conçu sur des wafers de 8 pouces gravés en technologie 180 nm comprenant 50 millions de neurones plastiques et 200 000 neurones biologiquement réalistes. Le système fonctionne 10 000 fois plus vite qu’un système nerveux traditionnel. L’installation de Heidelberg en Allemagne exploite 4 millions de neurones et un milliard de synapses répartis sur 20 wafers au silicium. SpiNNaker s’appuie de son côté sur des chipsets à base de noyaux ARM. Le SpiNNaker NM-MC-1 comprend 30 000 chipsets comprenant 18 cœurs ARM, soient 500 000 cœurs. Un seul chipset peut simuler 16 000 neurones avec huit millions de synapses et en temps réel, et pour seulement 1W.  La machine est située à Manchester. A noter que le financement public européen de BrainScaleS s’est arrêté en 2015 et que celui de SpinNNaker pourrait être remis en cause par la sortie programmée de l’Union Européenne du Royaume Uni.

 

7

Le HBP affiche des objectifs finaux qui relèvent majoritairement de la santé, focalisés sur la lutte contre les maladies neurodégénératives. Leurs porteurs n’évoquent pas d’intelligence artificielle généralisée, de vie consciente transposée dans un supercalculateur ou de vie virtuelle. Il a malgré cela été la cible de nombreuses critiques de chercheurs, notamment 2015. Celles-ci portaient sur la nature du projet lui-même, sur son orientation, sur son ambition et les choix techniques réalisés. Ils peuvent venir de chercheurs sceptiques sur l’ambition du projet ou de ceux qui sont déçus de ne pas avoir pu accéder à la manne du financement d’Horizon 2020. Les critiques ont eu pour conséquence d’altérer l’orientation du projet, notamment autour des neurosciences cognitives.

Dans la pratique, le HBP finance des dizaines de projets (liste), essentiellement liés à la compréhension du fonctionnement des neurones biologiques. Le projet se veut très collaboratif et international. Il rassemble des dizaines d’équipes de recherche en Europe et même aux USA et au Japon. Des équipes de chercheurs en France coordonnent trois des grandes dimensions du projet : la théorie des réseaux neuronaux (avec Alain Destexhe pour le CNRS), les neurosciences cognitives (avec Stanislas Dehaene, de l’INSERM et du CEA, aussi professeur au Collège de France, Inserm, CEA), et la dimension éthique (avec Jean-Pierre Changeux, de l’Institut Pasteur et aussi professeur au Collège de France).

Les entités de recherche publiques françaises impliquées sont le CNRS, l’Institut Pasteur, l’INSERM, l’ENS, l’UMPC et l’INRIA. Du côté du privé, nous avons Thales (qui contribue au développement d’ordinateurs massivement parallèles exploitant le processeur neuromorphique SpiNNaker), Integragen (un spécialiste de l’analyse du génome) et Pharnext qui cherche à combiner à faible dose plusieurs médicaments pour traiter des pathologies notamment neurologiques).

Il faut aussi compter avec le CEA et son laboratoire d’imagerie médicale Neurospin installé à Saclay, qui exploite l’IRM fonctionnelle pour analyser le fonctionnement du cerveau aussi bien du côté cognitif que pour comprendre le développement de maladies neurodégénératives comme Alzheimer. L’IRM fonctionnelle permet par exemple de comprendre comment se développe le cerveau des mathématiciens !

8

Neurospin est en train d’installer à Saclay le système franco-allemand Iseult, le scanner d’IRM corporel le plus puissant du monde, équipé d’un aimant record de 11,7 Telsas et 132 tonnes, et dont le bobinage supraconducteur en niobium-titane refroidi par cryogénisation à l’hélium pèse 45 tonnes (ci-dessous, source). Il complètera l’IRM dotée d’un aimant de 7 tonnes qui est opérationnelle chez Neurospin depuis 2008. Plus l’aimant est puissant, plus on augmente la résolution de l’IRM. L’aimant a été conçu avec le concours du CEA-Irfu, l’Institut de Recherche sur les lois Fondamentales de l’Univers, qui a réutilisé ses acquis issus de la création des aimants supraconducteurs du Large Hadrons Collider du CERN de Genève. Il est fabriqué par Alstom-GE à Belfort, l’intégration du scanner étant réalisée par l’allemand Siemens, l’un des leaders mondiaux de l’IRM médicale. Y contribue également la société française Guerbet, spécialisée dans la production d’agents de contraste utilisés dans l’imagerie médicale.

Ce système va servir à générer des images 3D de plus haute résolution, descendant en-dessous  du mm3 de l’IRM traditionnelle. Elle descendrait au niveau du dixième de mm (100 microns). Il est pour l’instant difficile d’aller en-deçà avec des techniques non invasives. Iseult permettra d’identifier plusieurs types de molécules au-delà de l’eau, comme le glucose ou divers neurotransmetteurs, notamment via l’injection de marqueurs à base de molécules magnétisées. La mise en service est prévue pour 2018, en retard de plusieurs années sur le calendrier initial. A terme, on pourra aller jusqu’à observer le fonctionnement des neurones à l’échelle individuelle. Ce projet rappelle qu’une autre exponentielle a court: plus on veut observer l’infiniment petit, plus l’instrument est grand et cher. Comme pour les accélérateurs de particule et le LHC pour la découverte du boson de Higgs ! Plus on augmente la résolution de l’IRM fonctionnelle, plus il faut augmenter la fréquence de scan et la puissance de l’aimant, donc sa taille. D’où l’intérêt de la solution légère et, en apparence, très élégante, de OpnWatr évoquée dans l’article précédent, mais qui n’a pas encore fait ses preuves. Elle pourrait sortir du gué dès 2018, au même moment qu’Iseult. La confrontation sera des plus intéressante!

9

Dans le cadre du HBP, la France héberge aussi l’Institut Européen des Neurosciences Théoriques (EITN), lancé en 2014 et installé près de l’Institut de la Vision et de la Fondation Voir & Entendre à Paris. Cet établissement sert de pont entre différentes facettes du HBP, faisant notamment le lien entre les résultats d’IRM fonctionnelle de Neurospin et la création d’outils de simulation du cerveau dans les processeurs neuromorphiques du projet, le tout en liaison avec les équipes anglaises et allemandes qui planchent sur ces processeurs.

Vu de haut, le HBP fera certainement avancer les connaissances scientifiques sur le fonctionnement du cerveau et probablement également, la contribution à la création de nouvelles thérapies de pathologies neurodégénératives voire même des troubles psychiatriques.

La branche neuromorphique de l’initiative HBP pose des questions de stratégie industrielle. Comment les processeurs BrainScaleS et SpiNNaker se comparent-ils aux processeurs neuromorphiques IBM TrueNorth, aux Google TPU ainsi qu’aux GPUs de Nvidia? Ils sont conçus pour imiter de très près le fonctionnement du cerveau tandis que ces derniers sont adaptés aux techniques actuelles des réseaux de neurones du deep learning. BrainScaleS et SpiNNaker sont structurés comme des projets de recherche. Ils ne sont pas adossés à des acteurs industriels des semi-conducteurs. Certes, ARM fait partie du projet SpiNNaker, mais c’est une société qui ne vend que de la propriété intellectuelle, pas des processeurs comme Qualcomm ou Nvidia qui exploitent sous licence des coeurs ARM. On ne trouve ni de fournisseur de chipsets ni de supercalculateurs (HPC) dans la liste des contributeurs à BrainScales et SpiNNaker.

On risque donc de se retrouver dans une situation familière avec, d’un côté, une excellence scientifique européenne qui a du mal à s’industrialiser et de l’autre, un pragmatisme technologique américain, moins sophistiqué scientifiquement parlant, mais avec une approche industrielle massive, comme en témoignent les investissements de Google dans l’IA et dans ses datacenters à base de processeurs neuromorphiques TPU (Tensor Processing Units) qui sont déjà déployés dans le cloud. La même question risque de se poser rapidement pour les ordinateurs quantiques.

10

Le HBP n’est pas seul dans son domaine. Les USA ont lancé l’initiative BRAIN en 2013 en même temps que le HBP. Annoncée par Barack Obama à la Maison Blanche, elle est financée par le NIH à hauteur de $4,5B sur 12 ans. Tout du moins, sous Obama, car le budget 2018 de la présidence Trump prévoit une baisse de 18% du budget du NIH, l’INSERM américain. La DARPA fait aussi partie du projet. L’ambition de BRAIN recouvre celle de la première partie du HBP: la compréhension des mécanismes du cerveau. Elle exclue la création d’outils de simulation. BRAIN comprend notamment l’initiative privée américaine de l’Allen Brain Atlas qui s’est spécialisée dans la cartographie du cerveau, qui contribue aussi au projet HBP, et qui ambitionne de simuler un cerveau de souris, dans la lignée du HBP. Il y a aussi le Human Connectome Project qui planche comme le HBP sur la cartographie anatomique et fonctionnelle du cerveau (un exemple ci-dessous des connexion internes du cerveau).

11

12

En Asie, les japonais du projet Brain/MINDS ont des objectifs voisins de ceux de l’américain BRAIN. Ils veulent développer la compréhension du cerveau et des maladies neurodégénératives. Ils y sont encore plus sensibilisés que les Européens et les Américains du fait de la plus grande longévité de leur population. Ils se focalisent sur l’analyse du fonctionnement de cerveaux de primates, et particulièrement du ouistitis qui présente l’avantage d’être très léger (seulement 8g). Comme de nombreuses initiatives japonaises, celle-ci est japono-japonaise et n’ouvre visiblement pas la porte à la collaboration internationale même si nombre de travaux européens et américains sont partagés en «open source».

Enfin, le China Brain Project cible la compréhension des maladies neurodégénératives. Les chinois profitent de leur règlementation «assouplie» pour créer la plus grande banque d’échantillons biologiques de cerveau et d’utiliser massivement des singes pour leurs tests. Le projet s’étale sur trois plans quinquennaux (15 ans!) et a été lancé en 2016.

Traiter les troubles de la mémoire avec Kernel

Repassons du côté des startups. Créée par Bryan JohnsonKernel s’attaque au traitement de la dépression et d’autres pathologies neurologiques. La société a été créée en 2016 avec l’apport de $100m de son fondateur, issus de la vente de son entreprise précédente, Braintree, à Paypal pour $800m. On retrouve dans la mission de l’entreprise la même bivalence que pour les précédentes: d’un côte traiter des pathologies et de l’autre, prévoir à plus long terme d’augmenter les capacités cognitives de personnes saines. En y regardant de près, cela n’a rien de magique.

13

La société travaille sur la création d’un dispositif électronique non invasif de nature non précisée pour la simulation du fonctionnement de l’hippocampe, une partie du cerveau qui gère l’alimentation de la mémoire corticale. Elle doit traiter dans un premier temps les personnes dont l’hippocampe ne fonctionne pas bien, comme les personnes atteintes de la maladie d’Alzheimer, de démence ou d’épilepsie, ces pathologies n’étant d’ailleurs pas liées spécifiquement à des lésions de l’hippocampe. Dans son principe, la solution n’agit pas directement sur la mémoire mais seulement sur l’état du robinet qui permet son alimentation.

La start-up s’appuie sur les travaux de Theodore Berger, qui avait planché en 2002 sur la simulation de l’hippocampe (source) puis en 2011 sur une prothèse de restitution de ses fonctions chez des rats (source). La société a aussi acquis en 2016 la startup KRS (Kendall Research Systems), un spin-off du MIT qui travaille sur des interfaces neuronales. L’histoire ne dit pas encore comment implanter cet appareil de manière non invasive. De toutes les startups analysées pour cette série d’articles, il s’agit de la plus floue concernant la description de ses procédés techniques (exemple dans The Verge en février 2017).

On est ici très loin d’un bidouillage du cerveau à l’échelle sémantique comme pour OpnWatr ou Neuralink! Ce dont nous ne nous plaindrons pas!

Les scalpels non invasifs de Focused Ultrasound Foundation

Il existe aussi une autre technique de réparation du cerveau qui n’est pas destinée à le connecter à quoi que ce soit ou à lire et écrire dedans: celle de Neal Kassell, de la Focused Ultrasound Foundation.

Il s’agit d’une technique de projection focalisée d’ultrasons qui a diverses applications. C’est une sorte de scalpel non invasif doté d’une précision de l’ordre du millimètre-cube. Il permet de détruire des tissus non sains et de délivrer des traitements de manière ciblée. Dans le cerveau, cette technique permet surtout de détruire des tumeurs cancéreuses ou pas et de manière non invasive.

14

La technique a plein d’usages dans d’autres parties du corps. Elle est commercialisée sous licence par quelques dizaines d’industriels des medtechs dont une belle brochette de sociétés françaises: Eye Tech Care, pour le traitement des glaucomes, CarThera pour le traitement de tumeurs du cerveau, EdapTMS pour le traitement du cancer de la prostate et de en urologie, Image Guided Therapy pour des ablations de tumeurs cancéreuses diverses et Theraclion qui associe échographie et scalpel à ultrasons exploité pour l’ablation de tumeurs bénignes comme les adénofibromes du sein ou les nodules thyroïdiens.

Avec cela, on ne risque pas non plus d’écrire dans le cerveau et fort heureusement! On peut cependant potentiellement l’utiliser pour détruire des parties ciblées du cerveau pour désactiver des fonctions spécifiques. Ce qui peut avoir des applications dans certaines pathologies psychiatriques aigues. Ce qui relève donc aussi du «bidouillage».

Sommes-nous en fait déjà dans un monde virtuel?

Lors de la dernière Echappée Volée organisée par Brightness près de Chantilly en mai 2017, une sorte de TEDx en résidentiel, j’ai beaucoup entendu parler de «The Age of Em Work, Love and Life when Robots Rule the Earth» de Robin Hanson. Publié début 2016, c’est devenu un ouvrage de prospective intrigant à la mode. Il décrit par le menu toutes les composantes sociale, économiques, éthiques et géopolitiques d’un monde, une fois que nos vies, ou certaines d’entre elles, seraient transposées dans des machines. C’est en fait un mélange de science-fiction et d’économie fiction.

15

Seulement voilà, c’est de la singularité au carré, prise un peu trop pour argent comptant par ceux qui imaginent inéluctable un monde où l’on pourrait transposer son cerveau dans un ordinateur et devenir immortel, baigné dans un monde entièrement virtuel. Le transfert du cerveau dans un ordinateur est un fantasme, rien de plus à ce stade de nos connaissances, même en extrapolant les trucs les plus dingues vus dans cette série d’articles. Mais ce genre d’ouvrage permet de prendre du recul sur notre vie actuelle, déjà très numérisée, avec son impact et son économie associée. Nous sommes souvent déjà les moutons de Facebook, Twitter ou plus simplement de notre email, réagissant aux petites doses régulières de dopamine liée à la réception de messages et like divers.

On voit enfin apparaitre une nouvelle forme d’explication de ce que l’on n’arrive pas à expliquer. Nous serions en fait les jouets d’une gigantesque simulation. C’est une hypothèse – certes faiblement probable – notamment mise en avant par Elon Musk. Elle complète une observation des lois de la physique selon lesquelles notre libre arbitre serait un mythe, ce que met notamment en avant Moran Cerf (comme dans TEDxAix en 2015). Le libre arbitre est en effet une vision de l’esprit, celui-ci étant conditionné par tout un tas de paramètres que nous ne maitrisons pas. Et à l’échelle nanoscopique, nous ne sommes que de la poussière d’étoile animée par de la mécanique quantique qui ajoute sa dose d’aléatoire plus que de libre arbitre.

Donc, si nous sommes dans un gros simulateur de l’univers, ce que nous en observons n’en est qu’une simulation. Par qui, comment et pourquoi, ce sont des détails. Cela explique peut-être le mystère de la matière et de l’énergie noires: elles sont indispensables pour justifier la cohésion des galaxies mais ont n’en trouve pas encore la trace! C’est donc un bug de la simulation (ou de nos équations…)! Comme dans Men in Black, l’univers n’est peut-être qu’un atome d’un supra-univers encore plus grand. Et si nous dupliquons nos cerveaux dans un supercalculateur simulant le monde, cela nous fera rentrer dans une étonnante récursivité. On commence à être perdus! Mais je ne faisais que délirer!

Après ce petit tour en trois partie du bidouillage du cerveau qui est probablement très incomplet malgré sa longueur, je reste perplexe. J’y vois d’un côté des startups telles que Neuralink et OpnWatr qui ont des prétentions quelque peu exagérées sachant que OpnWatr semble plus disruptive et prometteuse que Neuralink, modulo la résolution opérationnelle de son astucieux système à base de petites écrans. De l’autre, nous avons des initiatives de recherche internationales très bien financées et qui planchent sur des fondamentaux. Notamment, au niveau de l’IRM et de la cartographie détaillée du fonctionnement du cerveau comme ce que fait le Neurospin du CEA en France. Nous aurons surtout en bout de course de nouveaux traitements de maladies diverses bien plus que des liaisons entre une IA en silicium et nos cerveaux. Tout du moins dans un futur proche. Et une bonne part des progrès scientifiques viendront plus des chercheurs financés par les deniers publics que de startups un peu tape à l’œil qui interviendront plutôt en bout de course, pour la démocratisation de solutions à grande échelle.

Pour ce qui est de l’éthique des solutions de bidouillage du cerveau, j’ai bien peur que les garde-fous ne soient que des illusions pour nous rassurer. L’histoire montre que, pour nombre de technologies, on en découvre les effets collatéraux négatifs un peu tardivement après leur déploiement à grande échelle. Et que cela ne change pas grand chose aux usages, sauf pour la petite minorité de ceux qui y résistent ou se lancent dans des cures de digital detox pour se rassurer, avant de replonger. Pour ce qui est du bidouillage du cerveau, les effets collatéraux pervers sont un peu plus faciles à imaginer en amont. Mais l’innovation ne s’arrête pas d’un coup de claquettes de comité d’éthique ou de lois préventives. Elle vient de partout dans le monde. Elle se diffuse, qu’on le veille ou non. Les mécanismes de régulation de sa diffusion sont bien plus économiques et émotionnels qu’éthiques ou liés à la régulation dans la pratique. Il n’y a qu’à observer la consommation de drogues légales et illégales au travers des âges. Le bidouillage du cerveau pourrait devenir à la fois une thérapie et une nouvelle drogue dure, comme la morphine et ses produits dérivés!

[tabs] [tab title= « L’expert »]

Olivier-Ezratty

Olivier Ezratty est consultant et auteur. Il conseille les entreprises pour l’élaboration de leurs stratégies d’innovation, et en particulier dans le secteur des objets connectés et l’intelligence artificielle. Très actif dans l’écosystème des startups qu’il accompagne comme consultant, advisor, conférencier et auteur, il est apprécié pour les articles fouillés de son blog Opinions Libres dans des domaines très divers. Il y publie le « Guide des Startups » ainsi que le « Rapport du CES de Las Vegas » chaque année depuis 2006. Olivier est expert pour FrenchWeb qui reprend de temps à autres la publication des articles de son blog.

 

[/tab] [/tabs]

Lire aussi: Start-up scientifiques: génomique et analyses biologiques

 

Tags
Microsoft Experiences les 3 et 4 octobre 2017

Les Experts

Les Experts sont des contributeurs indépendants de FrenchWeb.fr.

Sur le même sujet

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Sur le même sujet

Close
Share This