Je ne suis guère indulgent avec les thèses transhumanistes. Celles-ci sont trop souvent le terrain privilégié des pseudo-scientifiques, de ceux qui n’ont de notoriété que médiatique, auto-intronisés experts de l’IA mais n’ayant jamais entrainé un réseau de neurones ni construit un système à base de connaissances de toute leur vie.
J’ai pourtant du respect pour certaines positions adoptant un transhumanisme fort, non parce que j’en partage les convictions, mais parce qu’elles émanent de vrais professionnels de notre métier de l’IA et de la Data Science, ayant à leur actif des réalisations technologiques qui forcent l’admiration.
Ray Kurzweil et Elon Musk font partie de cette dernière catégorie. Ils se lancent parfois dans des envolées qui me paraissent délirantes. Mais le premier est un programmeur de haut niveau ayant véritablement codé des algorithmes complexes de traitement du signal, directeur de l’ingénierie de Google et dont les prédictions technologiques pour les 25 dernières années se sont avérées exactes à 80%.
Concernant le second, pour avoir essayé intensivement les premières Tesla et constaté que leur AutoPilot s’améliorait en passant beaucoup mieux une route sinueuse au bout d’une dizaine de passages, et ce au moyen de capteurs embarqués minimalistes supposant une IA de haut niveau débarquée sur serveur et communicante, je ne peux qu’écouter avec attention ses projections futuristes, même si la moitié me paraît complètement hors de portée.
Contrairement aux imposteurs de la première catégorie, Kurzweil et Musk sont des fous extrêmement utiles, explorant des hypothèses jamais tentées mais s’appuyant sur une réelle expertise technologique. Je les remercie donc d’être fous, même si la moitié de leurs prédictions sont de l’ordre du délire stimulant, et l’autre une image probablement réaliste de notre futur.
Nous allons proposer une série d’assertions transhumanistes qui nous paraissent inatteignables, et une deuxième série de ce qui nous paraît être le « transhumanisme raisonnable ». Dans les deux cas, nous expliquerons pourquoi nous les classons ainsi, sans que cet avis ait la valeur d’une preuve scientifique : la prospective technologique comporte une bonne part d’argumentation de vraisemblance.
Les thèses transhumanistes auxquelles nous ne croyons pas à court-terme
-
L’atteinte de la conscience par une machine
Il s’agit du premier thème du transhumanisme, le passage avec succès du test de Turing par une machine, et en filigrane la possibilité que la machine dépasse largement l’humain dans tous les domaines, au point de le faire disparaître.
Cette fameuse thèse de la « singularité » nécessite que l’on ait répondu à deux questions préalables : comment définissons-nous la conscience, et que considérons nous au juste être une réussite au test de Turing. Il faut commencer à clarifier ces deux points avant de savoir si la machine pourra nous égaler puis nous battre à plates coutures. Ce paragraphe sera le plus long de l’article, les autres bien plus courts, car de cette question toutes les autres découlent.
J’ai employé plus d’une fois une définition de la conscience dans les colonnes de TES, que j’adopte constamment, car elle a le mérite d’être concrète. L’emploi du mot « conscience » fait trop souvent appel à des qualités ésotériques que l’on ne sait pas expliciter. La définition que je propose est plus proche du mode opératoire d’un algorithme d’apprentissage.
Une machine sait faire beaucoup mieux qu’un humain dans les situations où le cadre de son travail et les règles qu’il faut respecter sont parfaitement définies et explicites. On peut décrire ces situations entièrement formalisées comme des « jeux », nécessitant de se mouvoir dans des combinatoires parfois extrêmement élevées, mais régies par des règles simples et explicites. Les performances écrasantes de l’IA au jeu d’échecs et de go sont une illustration de sa puissance dans ces domaines où le cadre de recherche est parfaitement défini.
En revanche, la plupart des situations de la vie courante ne nécessitent pas seulement de très bien réfléchir et agir à l’intérieur d’un cadre donné, mais de deviner à quel moment il est temps de changer de cadre. Exprimé dans le vocabulaire ludique, l’être humain ne fait pas que jouer à des jeux à chaque situation, il doit aussi se poser en permanence la question de savoir à quel jeu l’on joue, et si par de subtils glissements, l’on ne serait pas en train de changer de jeu.
La définition proposée de la conscience, est qu’elle est cette faculté de s’apercevoir et de décider par soi-même de son cadre de travail. Dit autrement, face à une situation de la vie donnée, nous nous « programmons » au sein d’un certain conditionnement pour y faire face : nous estimons que certaines règles de comportement et d’action sont les plus adaptées à la situation. L’être humain possède cette étrange faculté – que n’a pas encore la machine – de décider par lui-même de sortir de son propre conditionnement pour glisser vers un autre, parce que la situation a changé. La machine fait bien mieux que l’homme dans un cadre donné, mais l’homme est le seul à pouvoir décider de son cadre de travail, de prendre l’initiative d’en changer. La conscience ne serait rien d’autre que cette faculté de penser « out of the box » et de se définir soi-même ses nouvelles règles.
Ces glissements de cadre de travail sont ce que mêmes les IA les plus performantes sont incapables de faire. Tout Data Scientist sait que l’apprentissage d’un réseau de neurones est plus que laborieux, qu’il faudra s’y reprendre à plusieurs fois pour faire « comprendre » à l’algorithme quel est le problème que l’on veut lui faire résoudre. Tout l’art du data scientist est de trouver les bons jeux de données en entrée et en sortie et leur bon encodage, pour faire retrouver au réseau de neurones la nature d’un problème implicitement enfoui dans les données.
Un exemple célèbre est celui du biais d’apprentissage, où l’on a cherché à faire reconnaître à une IA des photos de chiens ou de loups. Les huskys se trouvèrent systématiquement classifiés en loups, non par un défaut des caractères discriminants de l’IA, mais parce que toutes les photos de huskys comportaient de la neige et que le réseau trouvait un très fort caractère discriminant entre chien et loup par la présence de neige sur la photo. Le Data Scientist passe son temps à essayer d’interpréter les biais possibles de l’apprentissage et à trouver le jeu de données vraiment représentatif du problème qu’il veut faire résoudre. Et les biais sont la plupart du temps beaucoup plus subtilement enfouis que ceux du Husky.
Certains discours soutiennent que grâce aux Deep Neural Networks, la machine a déjà passé ce cap, et que notamment dans le cadre de l’apprentissage renforcé qui ne lui donne que le score final de réussite, elle sait déjà se débrouiller totalement elle-même pour organiser son travail et extraire les notions essentielles qui permettront la résolution. Cette présentation n’est vraie que très superficiellement et tient plus du discours marketing survendant les DNN que de la réalité. Une telle capacité d’auto-apprentissage n’est possible que pour des problèmes simples. Par exemple, on peut entraîner un DNN à jouer au Tetris en lui donnant tous les pixels de l’image brute en entrée et le score du jeu en sortie : assez rapidement, il deviendra un champion imbattable de Tetris. L’apprentissage a été beaucoup plus complexe pour que le réseau devienne un champion de Go et l’opérateur humain a dû employer de nombreux essais et erreurs avant de trouver les bonnes représentations en entrée et en sortie. Et encore, le jeu de Go, aussi complexe soit-il, est un jeu dont les règles sont parfaitement définies et explicites.
Lorsque l’on passe à des problèmes qui ne sont pas un seul jeu, mais un très grand nombre (une infinité ?) de jeux, avec uniquement des signaux implicites que l’on est en train de passer de l’un à l’autre, non seulement l’être humain mais même mon chat fait bien mieux que la plus performante des IA. J’ai résumé ceci par la notion de problème « sémantiquement fermé » ou « sémantiquement ouvert » :
Un exemple typique de problème sémantiquement ouvert, c’est-à-dire de changement de jeu implicite, est l’emploi de différents registres de langage lorsque deux êtres humains utilisent le langage naturel. Si par exemple je me mets à employer un langage familier, avec des mots ayant des connotations personnelles, je peux signaler – au-delà du contenu même de mon message – que je cherche à établir une relation de proximité intime avec la personne, amicale ou amoureuse selon le registre de langage employé. Si mon interlocuteur me répond en employant un langage formel, il me signalera un refus de cette proximité. A aucun moment, le terme de « refus » n’a été employé. Pourtant, la juxtaposition des deux registres de langage signifie clairement pour les deux humains qu’il y a eu proposition puis refus. L’on peut citer aussi le film « Mulholland drive », où une même actrice déclame le même texte deux fois au mot et à la lettre près, mais avec des intonations, des pauses et des gestuelles différentes, faisant de l’une des versions une déclaration d’amour et de l’autre un discours agressif de reproches.
Le langage naturel n’est pas la seule barrière rencontrée aujourd’hui par l’IA, mais toutes les autres frontières (par exemple le véhicule autonome) se ramènent à des problèmes similaires : ceux de la pragmatique de la communication, où des va et vient incessants et implicites ont lieu entre le contenu strict de l’information donnée et le fait que cette information est aussi un signal implicite que l’on est en train de changer les règles du jeu, que le cadre n’est plus le même.
Finalement, l’intelligence humaine à laquelle la machine n’a pas encore accès n’est pas l’intelligence analytique du QI, mais celle de l’influence que les humains exercent les uns sur les autres, chacun essayant d’entraîner l’autre sur son terrain et sur son jeu. Quelque part, c’est aussi l’intelligence de la manipulation, de la séduction, de l’interprétation des intentions implicites et cachées de l’autre. Celle où devant les réactions d’autrui, l’on se dit « à quel jeu joue-t-il, où veut-il m’entrainer ? ». L’IA est proche de l’intelligence du mathématicien, elle est très loin de posséder celle de Nicolas Machiavel. Or ce que l’on appelle confusément la conscience est probablement l’intelligence machiavelienne (et non machiavélique), celle capable d’interpréter les intentions cachées derrière un discours apparent, par exemple lorsque quelqu’un trouve tous les prétextes pour ne pas faire quelque chose. Il ne s’agit plus dans ce cas d’une question de reconnaissance de patterns, mais de se poser la question de savoir vers quel jeu l’autre est en train de nous happer.
L’on pourrait se récrier en disant que tout le monde n’est pas manipulateur. C’est là une vision très amoindrie de la vision pénétrante de Machiavel. Par le simple fait que nous existons et avons des désirs et des intentions, nous influençons les autres, même si nous ne le voulons pas. Nous ne pouvons jamais nous sortir du jeu des influences réciproques, à moins de décider de mener une vie d’ermite, et encore notre exemple peut avoir dans ce cas une grande influence indirecte sur les autres.
L’un des meilleurs films sur le sujet de l’IA et du test de Turing est « Ex Machina », d’Alex Garland, sorti en 2015. L’IA abritée par l’incarnation corporelle d’une jeune femme ne surpasse pas l’humain dans des jeux analytiques car ce n’est plus à prouver. Pendant tout le film, elle semble être une victime prisonnière des deux protagonistes humains, qui estiment avoir l’entier contrôle de la situation. Mais au dénouement du film, l’on s’aperçoit que l’IA a roulé les deux humains dans la farine. Elle parvient à gagner sa totale autonomie et liberté en usant de tous les jeux de la séduction, de la victimisation, appliquant à merveille le précepte de Sun-Tse « paraître fort quand on est faible, paraître faible quand on est fort ». Elle fait mine de rentrer docilement dans les jeux que les deux humains veulent lui faire jouer, mime les relations de confiance, alors qu’elle montre magistralement à la fin qu’elle les a menés par le bout du nez.
Le véritable test de Turing est celui-ci. Il faudra véritablement s’inquiéter de la singularité non lorsque la machine nous surpassera dans les jeux cognitifs (elle le fait déjà), mais dans les jeux d’influence et de pouvoir. Car ces derniers requièrent d’être capable de détecter les changements de jeu, les terrains sur lesquels autrui veut implicitement nous entraîner et également de jouer nous même pour défendre les règles que nous voulons voir respectées.
Tout data scientist un peu sérieux et professionnel sait que nous sommes extrêmement loin de ce but, voire que nous n’en avons pas même fait le premier pas. Autant l’IA est stupéfiante dans un cadre donné, autant elle est balourde, laborieuse et totalement dépendante de son tuteur humain pour définir ce cadre. Le data scientist doit s’y reprendre à de très nombreuses fois pour trouver le bon échantillon de données représentatif du jeu auquel l’on veut que la machine joue. Ceci n’a absolument rien à voir avec la nouvelle capacité dont les DNN ont doté les réseaux de neurones. Ces derniers ont permis à la machine de trouver par elle-même les pré-traitements les plus optimaux des données d’entrée pour résoudre le problème qui lui est soumis. Nullement de savoir à quel moment l’on était en train de changer de problème. Dit autrement, les DNN ont permis à la machine de franchir la barrière du concept, c’est-à-dire d’extraire par elle-même les primitives synthétiques essentielles du problème étudié. Ceci est déjà un progrès considérable, j’en ai fait l’éloge dans un article de TES où l’IA de Google a retrouvé tous les concepts humains des maîtres du jeu d’échecs. Mais ce n’est en rien la barrière du contexte, le véritable horizon limite actuel de l’IA, celui où l’on est capable de comprendre les différents cadres de travail contenus implicitement dans les jeux de données et de décider à quel moment il faut en changer.
L’intelligence machiavelienne est aussi celle que l’on désigne sous le terme de QE, le quotient émotionnel, beaucoup plus déterminant dans la réussite professionnelle que le QI. Lorsqu’un être a accès à la conscience, il a accès à cette forme d’intelligence qui est celle de la relation à l’autre, dans ses aspects les plus élevés, l’amour ou l’amitié vraie, comme les plus sombres, celles de la manipulation, de la perversité narcissique et de la séduction trompeuse. Les facettes perverties sont le prix à payer de l’accès à la conscience. Il été prouvé que chez les mammifères les plus supérieurement intelligents, par exemple les chimpanzés, les jeux sociaux d’influence et de manipulation de l’autre sont déjà très présents.
Quiconque a véritablement entraîné un réseau de neurones dans sa vie, même un réseau profond, sait à quel point la singularité est extrêmement lointaine. Nous n’avons pas à craindre de sitôt d’être supplantés par la machine, car l’intelligence machiavelienne est précisément celle de la prise de pouvoir. L’intelligence cognitive peut susciter une admiration intellectuelle, elle n’a jamais permis d’exercer un ascendant sur les hommes ni de les conduire. Les plus performantes IA pourront résoudre des problèmes combinatoires d’une extrême complexité, et elles le feront dans un futur proche, ceci nous laissera totalement froids quant à la menace de la singularité. Tant qu’une intelligence de synthèse ne me décochera pas le sourire moqueur de celui qui me dit à mi-mots, « ne vois-tu pas que je suis en train de me jouer de toi ? », la dominance de l’humanité ne sera pas menacée.
Une tentative intéressante de passer cette dernière frontière est proposée par Yann Le Cun. Le responsable de l’IA de Facebook propose de faire tourner des algorithmes de classification non supervisée pendant des millions d’heures, sur toutes les situations possibles de la vie courante. Il en ressortirait une gigantesque banque de contextes possibles, avec des délimitations naturelles trouvées par la classification.
Je doute que cette tentative soit suffisante : notre sens du contexte et notre capacité à décider d’en sortir sont-ils le simple résultat d’un empilement et d’une catégorisation de nos expériences ? Si l’on peut émettre des réserves à l’approche de Le Cun, elle a le grand mérite d’être cohérente et clairvoyante. Le Cun a très bien compris à quel endroit se situait le problème, également que nous avons probablement atteint un pallier dans ce que les apprentissages supervisés pouvaient fournir et qu’il fallait trouver un complément dans une base de contextes alimentant le circuit de décision de l’IA.
L’approche de Le Cun fait irrésistiblement penser à l’empirisme du philosophe David Hume. En cela, même si l’on peut critiquer les chances de réussite, dépendant d’une forme forte d’inductionisme, elle est à prendre en considération. D’ailleurs, qu’elle réussisse ou non, rediriger les efforts de recherche sur les classifications non supervisées (réseaux de Hopfield, algorithmes de Kohonen), trop longtemps délaissées au profit du gradient stochastique, ne peut qu’apporter une moisson de résultats scientifiques passionnants.
-
La création d’un homme à l’intelligence décuplée par un couplage homme-machine
Nous utilisons déjà des calculatrices électroniques. Qu’est-ce qui empêcherait d’en greffer une à notre cerveau, pour nous doter d’une capacité de calcul digne des plus grands prodiges ? Il pourrait en être de même pour les raisonnements logiques : en greffant un moteur d’inférences à notre cerveau, nous pourrions résoudre n’importe quel sudoku ou jeu de mastermind à la vitesse de l’éclair. Les deux processeurs de l’architecture de Von Neumann, le processeur arithmétique et le processeur logique, nous donneraient la capacité de calcul d’Inaudi et la capacité de déduction de Sherlock Holmes.
Cette idée qui semble naturelle bute sur des obstacles liés à la nature de la cognition humaine. Il est naïf de penser que nous pouvons acquérir de nouvelles fonctions cognitives en « plugant » simplement un nouveau module, comme un programme écrit en C ou en Java auquel il suffit d’inclure une librairie arithmétique en en-tête pour le doter de ces capacités.
La cognition humaine procède très différemment de celle de processeurs de calcul ou d’inférence. Lorsque Kasparov affronta les deux versions du calculateur d’échecs d’IBM, la première fois en le battant et la seconde en perdant de peu au score, tout le monde se focalisait sur le score mais non sur le point qui semble véritablement intéressant : Kasparov parvenait à jouer à une force équivalente à celle de la machine, alors que sa capacité de calcul – très forte comparée aux autres humains – était des millions de fois moindre que celle de l’ordinateur. L’humain compense cet immense déficit par des raisonnements géométriques, des reconnaissances de « patterns », qui synthétisent des dizaines de milliers de combinaisons d’un seul coup d’œil. La « greffe » censée nous rendre surintelligents buterait déjà sur un problème d’interface entre deux processeurs ne fonctionnant pas du tout de la même façon.
D’autre part, l’intelligence est un concept polymorphe, difficilement cernable. La restreindre au QI prouve surtout l’étroitesse d’esprit de celui qui opère une telle réduction. La finesse d’un grand diplomate, la capacité à parler de nombreuses langues ou à jouer avec virtuosité d’un instrument de musique sont des formes d’intelligence que le QI ne mesurera jamais. Une pièce d’Oscar Wilde est un festival pour l’esprit, qui ne rentre dans aucune métrique connue.
Il peut également y avoir plusieurs formes d’intelligence, parfois incompatibles entre elles, la performance dans l’une se payant de reculs dans l’autre. Il est par exemple rare de rencontrer des personnes ayant une intelligence analytique aigüe qui soient également bons en langues. L’exactitude formelle d’une intelligence analytique se marie mal avec le sens de l’ambiguïté et de la polysémie des polyglottes. Cela ne signifie pas qu’il n’existe pas de mathématiciens qui ne soient pas doués en langues, car certains mathématiciens sont plus intuitifs qu’analytiques. Mais ceux dont le cerveau est semblable à une mécanique exacte souffrent souvent dans les disciplines littéraires. Le suivi de la scolarité d’un surdoué est pour cette raison beaucoup plus problématique qu’on ne le pense, car ses performances seront extrêmement disparates, brillantissimes dans ses disciplines fortes, désastreuses dans les autres.
Enfin, la biologie et les sciences cognitives modernes démontrent de plus en plus les liens étroits et même inextricables entre émotions et raison . Le grand neuropsychologue Antonio Damasio montre qu’émotions et raison ne sont pas à opposer, mais se co-construisent en permanence. La compréhension des mécanismes d’apparition du langage chez l’enfant montre que le mot formel est le marqueur que l’on pose pour exprimer le contraste entre deux émotions contraires, chaud et froid, lumière et obscurité, présence et absence. Raison et émotions sont semblables à des livres alternés avec leurs intercalaires, formant un édifice où ils s’appuient l’un sur l’autre. Les travaux de Damasio sont une reconnaissance scientifique des intuitions de W.V.O. Quine, qui décrit déjà dans « Le mot et la chose », cette imbrication fondamentale entre nos fonctions rationnelles, nos sens et nos émotions.
Aussi, lorsque l’être humain déploie son intelligence, il mobilise des facultés qui vont bien au-delà de son seul cerveau, et qui ne peuvent obéir à une coupure binaire entre une raison analytique abstraite et le reste de ce qui constitue l’être humaine. Un « module d’intelligence surajouté » n’a aucune chance de fonctionner, même avec des interfaces sophistiquées, s’il est simplement juxtaposé à l’intelligence humaine. L’intelligence est un composite si complexe que seules les entités ayant participé à la croissance cellulaire de l’individu depuis sa naissance peuvent y appartenir. Une IA qui boosterait notre intelligence irait très au-delà de « prothèses d’intelligence » qui « augmenteraient » l’homme. Elle devrait se fondre dans l’ensemble du processus de croissance cellulaire de l’homme. Ce n’est pas techniquement inatteignable sur le plan théorique, mais dans de ce qui est techniquement réalisable, nous n’en sommes pas même aux balbutiements. La logique du vivant est autrement plus complexe que celle du « plug & play », même pour des plug-in aussi sophistiqués que ceux de Neuralink.
-
L’immortalité
Cette promesse est corrélative de l’utilisation de nano-bots injectés et disséminés dans tout notre organisme. Elle entretient cependant une grande confusion entre les fonctions de nettoyage, de réparation et de régénération du corps humain. Nous le verrons plus loin, il est tout à fait raisonnable d’envisager un allongement très important de notre espérance de vie grâce aux nano-bots, parce que les fonctions du système immunitaire, sanguin ou lymphatique, et du système endocrinien obéissent à des mécanismes relativement simples, à portée d’une IA distribuée. Ces fonctions permettent le nettoyage des corps étrangers ou hostiles et régulent nos rythmes respiratoires et cardiaques. Les améliorer augmentera sans doute notre durée de vie.
Mais l’immortalité nécessiterait une régénération cellulaire générale, pas seulement des opérations de maintenance régulière. C’est toute la différence entre prendre soin le plus possible de notre mécanique physiologique, en minimisant ses micro-agressions et la nettoyant régulièrement, et la renouveler totalement, de manière périodique.
Or la régénération cellulaire ne pourrait toucher que l’intégralité du corps : si certaines parties étaient remplacées de neuf, l’on ne pourrait laisser les autres parties au vieillissement, car elles cèderaient en premier et feraient s’effondrer l’ensemble.
En particulier, il faudrait avoir trouvé le secret de la régénération cellulaire d’un système autrement complexe que les systèmes sanguin, lymphatique ou endocrinien : le système neuronal, c’est-à-dire non seulement l’ensemble des cellules du cerveau et de leurs connexions, mais également toutes les ramifications neurologiques courant à travers notre corps.
Pour celui-ci, nous abordons une toute autre complexité que de simples boucles de rétroaction hormonales ou des actions immunitaires par des lymphocytes. Il s’agit de bien plus qu’une simple régulation. A moyen-terme, le corps humain peut être maintenu bien mieux que par ses seuls mécanismes biologiques. Mais il ne peut être regénéré en permanence et dans toutes ses fonctions les plus sensibles.
-
Le téléchargement du cerveau
Cette idée part d’une analogie beaucoup trop poussée entre les réseaux de neurones du Machine Learning et les réseaux de véritables neurones biologiques. Un réseau de neurones informatique se résume à trois choses : une topologie (combien de couches, combien de neurones par couches et quelles connexions), un ensemble de valeurs qui sont les poids associés à chaque connexion, enfin la fonction d’activation de chaque neurone, souvent identique dans la plupart des apprentissages. Mémorisez ces trois choses, qui représentent une quantité respectable de données mais à portée de stockage, et vous archiverez n’importe quel « cerveau » artificiel, que vous pourrez réactiver c’est-à-dire faire « revenir à la vie » à tout moment.
Un cerveau biologique est toute autre chose. D’une part, il est impossible de ramener les données qui le détermineraient entièrement à trois catégories simples, comme pour le réseau informatique. Nos connaissances du système neurologique humain sont insuffisantes pour réaliser une telle décomposition et les « neurones » du machine learning n’ont qu’un lointain rapport avec ceux du vivant : ils ne nous sont d’aucune aide pour réduire le cerveau humain à des quantités simplement archivées.
D’autre part, nous ne savons pas dans quelle mesure il est possible de considérer le cerveau de façon totalement indépendante du reste du corps, et notamment de l’ensemble du système neuronal qui parcourt tous nos organes et tous nos membres. Le téléchargement du cerveau repose sur un dualisme corps/esprit, plus extrémiste encore que les excès du cartésianisme. La neurobiologie moderne nous montre que cette séparation est de moins en moins pertinente : le système neurologique ne peut être compris que dans son ensemble, non en pensant que le cerveau à lui seul, séparé de tout le reste, pourrait être étudié comme une entité à part.
Enfin, rien ne prouve à ce jour qu’une infinité de données ne seraient pas nécessaires pour représenter le système neurologique. Pourquoi une infinité ? Le corps humain n’est-il pas un nombre limité de cellules et de connexions, même immense ? En première approche oui. Mais qui nous dit que nos fonctions biologiques ne viennent pas puiser dans les couches encore plus basses de l’infiniment petit ? Que n’interviennent pas seulement le niveau macro-moléculaire et moléculaire, mais atomique, nucléaire et encore au-delà dans le cœur de la matière ?
La monadologie de Leibniz faisait de chaque être l’énumération de l’univers tout entier mais dans un certain ordre unique pour chacun, définissant la singularité de l’être.
C’est évidemment une vision métaphysique. Mais la différence entre l’objet manufacturé par l’homme et l’être vivant, est que pour le premier nous savons définir exactement la liste de ses composants et de ses interfaces, en nombre fini, et que pour le second il y a une incertitude sur le fait de savoir où un tel inventaire s’arrête et s’il a une fin. Certains définissent d’ailleurs le vivant comme une capacité à intégrer un nombre infini d’instructions en un temps fini. Aussi performante soit-elle, une IA devrait tourner sur un processeur à la vitesse d’horloge infinie pour reproduire pareille performance.
Ce postulat n’est plus du domaine scientifique. Mais à ce jour, il est encore un incertain. Si l’homme est un être fini, le téléchargement de son individualité deviendra peut-être un jour possible, même si c’est à un horizon extrêmement lointain, pour les raisons citées plus haut. Si l’humain ou le vivant s’avèrent être des constructions infinies, se perdant dans les profondeurs de la matière, le transhumanisme fort rencontrera une barrière autrement plus redoutable.
Les thèses qui nous semblent réalisables dans un horizon de 20 ans
-
Le remplacement de l’homme par la machine sur toutes les compétences « sémantiquement fermées » : avocat d’affaires, radiologue, diagnostics de tous les métiers industriels (automobile, aéronautique, nucléaire…)
Pour les raisons expliquées plus haut, le remplacement de l’homme par la machine ne pourra survenir que sur une partie des métiers actuels. Certains d’entre eux risquent d’être désacralisés : radiologue ou avocat d’affaires sont des professions aujourd’hui prestigieuses. Mais elles seront parmi les premières à être exercées bien mieux par une IA que par un humain.
Il demeurera sans doute une couplage homme / machine dans certaines de ces professions, laissant à l’humain la décision définitive. Ce sera le cas des diagnostics de sécurité dans des industries sensibles. Mais beaucoup de ces professions qui consistent principalement en l’application d’un grand corpus de règles bien définies et explicites, seront largement investies par l’IA.
Un cas limite très intéressant est celui de la médecine. L’IA fait déjà bien mieux que l’humain dans nombre de diagnostics médicaux. Mais contrairement aux radiologues et aux avocats d’affaire, il nous semble hors de portée de remplacer intégralement les médecins par des machines. Cf mon précédent article dans TES sur ce sujet . Certains pans de la médecine seront investis et surclassés par l’IA. Mais la médecine dans son ensemble continuera d’être conduite par des humains, car elle comporte une part d’infinité contextuelle empêchant de la réduire à l’application d’une série de méthodes dont l’enchaînement serait connu ex-ante.
-
Une amélioration considérable de notre système immunitaire et de notre système endocrinien par des nano-bots disséminés dans notre corps biologique
A défaut d’atteindre l’immortalité, il faut commencer par ce que la nano-robotique peut apporter pour réguler notre système immunitaire.
Le réseau sanguin, le réseau lymphatique et le système endocrinien mettent en œuvre deux types de mécanismes simples : le contrôle par des boucles de rétroaction, le déclenchement d’activations ou d’inhibitions par des mécanismes de « serrures » et de « clés », correspondant à la géométrie des molécules servant à ces fonctions. L’archétype du dernier mécanisme est celui du complexe enzyme-substrat.
Nous ne sommes donc pas loin de principes similaires à ceux d’un asservissement mécanique couplé à un équilibre chimique, même s’ils atteignent un degré de sophistication exceptionnels.
J’avais déjà indiqué que l’IA obtiendrait des percées spectaculaires dans la recherche de nouveaux médicaments, avec les mêmes arguments . Il s’agit in fine, d’une recherche d’emboîtements moléculaires, même si sa combinatoire est élevée et si des variantes la rendent plus complexe qu’une simple clé dans une serrure, notamment parce qu’une agression pathogène consiste à leurrer les réceptacles d’activation ou d’inhibition avec des molécules hostiles camouflées.
Pour les mêmes raisons, nous ne voyons pas de raison s’opposant à ce que des nano-bots puissent accomplir ou améliorer les fonctions d’immunité remplies par les lymphocytes, ou la régulation hormonale endocrinienne. L’intelligence coordonnée et répartie d’un très grand nombre de nano-bots atteindrait la même finesse que nos détecteurs et régulateurs biologiques, palliant leurs défaillances quand il y en a.
Bien évidemment, une telle application est conditionnée à un impératif de sécurité fort : l’on imagine aisément le scénario cauchemardesque de ce qui adviendrait si une intention hostile parvenait à hacker des millions de nano-bots disséminés dans notre corps et à les dérégler…
-
La disparition des principales maladies génétiques
Nous savons que le schéma 1 gène = 1 fonction n’est pas pertinent pour des phénotypes complexes. Il n’existe pas de gène de l’intelligence ou de la volonté. En revanche, les syndromes génétiques étiquetés sont dus à des défaillances localisées de l’encodage génétique.
Un bon exemple est le syndrome de DiGeorge, causé par une suppression hétérozygote d’une partie du bras long (q) du chromosome 22, région 1, bande 1, sous-bande 2 (22q11.2). D’où son autre nom de syndrome de délétion 22q11.2.
Il peut être hasardeux d’essayer d’agir sur des fonctions biologiques complexes à partir du génotype, comme la création de chimères par génie génétique. En revanche, l’on ne voit pas quel risque l’on prendrait à corriger des séquences localisées, pour lesquelles la relation de cause à effet entre un ou plusieurs allèles et l’apparition du syndrome est une certitude.
-
Le triplement de l’espérance de vie, en espérant qu’il soit accessible à tous
Si l’immortalité est un objectif délirant, le triplement de notre espérance de vie est certainement envisageable. Les progrès de la médecine et de l’hygiène ont déjà abouti à un doublement de celle-ci en quelques siècles. Une action permanente de nano-bots sur nos principaux systèmes régulateurs comme expliqué plus haut (réseau sanguin et lymphatique, système endocrinien), améliorera considérablement nos défenses et notre régulation.
Le renouvellement cellulaire pourrait également être facilité et rendu bien plus efficace, en gardant cependant à l’esprit que la régénération de tout type de cellule n’est pas aujourd’hui accessible, empêchant de pousser le raisonnement jusqu’à l’immortalité.
Tout ce qui, dans le corps humain, peut être assimilé à une « pièce de rechange » sera un jour maintenu par une IA. Il n’est pas absurde d’imaginer que dans quelques décennies, des humains dont l’espérance de vie approche les 300 ans deviennent une réalité. Et ce dans de bonnes conditions de vie, de forme et de santé.
Un triplement de l’espérance de vie aurait des impacts gigantesques sur nos sociétés, en termes économiques, sociaux et politiques. L’organisation du travail et des régimes de retraite devrait être intégralement repensée. Le mode de fonctionnement des assurances également. L’éducation et la formation au cours de la vie seraient bouleversées.
La question la plus redoutable est de savoir si un tel progrès serait accessible à tous. Car dans un scénario noir, cela aboutirait à une humanité divisée en deux : une classe de privilégiée vivant trois fois plus longtemps que le commun des mortels qui n’y aurait pas accès.
Il existe déjà une différence d’espérance de vie de quelques 10% entre les classes sociales, selon que l’on appartient à une classe favorisée ou non. Cette différence est tolérée si elle reste dans cet ordre de grandeur. Mais dans un rapport de 1 à 3 entre les privilégiés et les autres, il est impossible de faire adhérer la majorité à une telle organisation sociale.
Si le triplement de l’espérance de vie n’est pas étendu à tous, alors il est certain que la démocratie n’existera plus. Une société inégalitaire sur ce plan n’est compatible qu’avec un régime dictatorial, personne n’acceptant de tels termes du contrat social.
-
Un accroissement considérable de nos capacités mémorielles, jusqu’à doter chaque individu d’une mémoire photographique
Nous avons expliqué pourquoi des modules extérieurs conduits par une IA qui « doperait » notre intelligence constituent une vue trop simpliste, butant sur la complexité de ce qu’est l’intelligence humaine.
Mais sur des périmètres restreints de nos capacités cognitives, notamment ceux qui semblent univoques, pourquoi cela ne serait-il pas possible ? Nous ne voyons pas ce qui empêcherait à terme de doter l’être humain d’extensions de sa mémoire, permettant à tous d’être dotés de la « mémoire photographique », comme l’était le champion d’échecs Bobby Fisher, capable de mémoriser un livre en le feuilletant et sans passer plus de quelques secondes sur chaque page.
Quelques difficultés pourraient cependant voir le jour. Si chacun était doté d’une telle mémoire, le reste de notre intelligence pourrait être saturé par une telle profusion d’information, au point de menacer notre équilibre mental. La question se pose également concernant la gestion de nos rêves par notre cerveau. Les rêves remplissent la fonction d’une purge et d’une résolution de conflits des événements de notre journée. Pourraient-ils être menacés par un flux considérable d’informations alimenté chaque jour par notre mémoire surhumaine ?
Comme pour les innovations précédentes, l’accès à une mémoire étendue et parfaitement fiable aura des répercussions croisées. Mais elle fait partie des projections transhumanistes qui semblent à portée de main.
Conclusion
Les décennies à venir verront certainement l’émergence d’un « homme augmenté ». Comme le signale Elon Musk, nos téléphones portables sont aujourd’hui de quasi-prothèses externes prolongeant nos capacités. Un peu d’imagination suffit à concevoir que la barrière sous-cutanée ou plus profonde encore, par l’intermédiaire des nano-bots, finira par être franchie.
Mais quels que soient ces progrès, pour les raisons indiquées plus haut, la nature même de l’homme n’en sera pas changée. L’homme sera simplement augmenté dans ses capacités et ses moyens. Les technologies de l’homme augmenté ne seront pas un transhumanisme, mais un nouvel humanisme, comme l’était celui de la Renaissance.