Cela faisait quelques mois que Marc Rameaux, l’un de nos contributeurs expert de l’IA, n’avait rien publié dans nos colonnes, le voici de retour avec un texte fondateur dans lequel il révise nombreuses de ses thèses passées. Après avoir remis en cause ses a priori passé sur la singularité et notamment (l’imaginer comme un événement soudain et unique) il affirme que celle-ci est déjà en cours car l’IA conquiert progressivement chaque facette de la pensée et de la conscience humaine, par couches successives. Selon lui, la « conscience » n’est pas une essence mystique indivisible mais un système composé de modules que l’IA investit un par un. Aussi, il critique sévèrement les arguments classiques (« l’IA ne comprend pas », « ce n’est que de la statistique », « elle n’a pas le vrai sens ») selon lui, des tautologies qui relèvent souvent de l’angoisse existentielle. Il fait notamment une comparaison avec l’ivrogne dont parle Spinoza dans sa lettre à Schuller. Dans cette longue analyse qu’il faut prendre le temps de lire, Rameaux rappelle que décomposer la pensée en opérations élémentaires (comme la vectorisation ou les synapses) ne prouve rien : tout système complexe repose sur des couches mécaniques au service d’une finalité supérieure. Aussi, il critique sévèrement l’argument selon lequel les IA – qui génèrent des associations d’idées – seraient dans l’incapacité de créer ex-nihilo. Après cette longue critique, l’expert data Scientist de métier pose la première brique de son paradigme en s’appuyant sur la pragmatique de Peirce qui offre, selon lui, la meilleure définition du sens : ce sont les effets pratiques concevables de l’objet et l’usage. Concrètement tous les jours, les experts (médecins, data scientists…) constatent quotidiennement que les LLMs les surpassent dans leur domaine : le dialogue s’inverse, l’IA devient le partenaire dominant. La deuxième brique de ce système « singulier » en construction, vient avec les travaux de Yann LeCun, la dernière frontière est l’expérience sensible et la compréhension de la causalité physique (via robotique et capteurs), indispensable pour une véritable intelligence du monde. En conclusion Marc Rameaux tire les leçons politiques de ce changement de paradigme : l’avenir appartient aux « intelligences dialogiques » : humains formés à collaborer étroitement avec les IA. Il faut urgemment adapter éducation et politiques pour saisir cette révolution plutôt que la freiner. Un texte qui ne manquera pas de susciter de nombreux débats.
Intelligence Artificielle : la Singularité et ses conséquences
Récemment encore, je commettais deux erreurs de jugement concernant l’atteinte de la singularité, c’est-à-dire l’apparition d’un être conscient comparable à l’homme voir supérieur à lui, créé uniquement par Intelligence Artificielle.
- Ma première erreur était la conviction que la singularité ne serait jamais atteinte, qu’elle était ontologiquement impossible. Aussi puissantes et sophistiquées les IA fussent-elles, il subsisterait toujours une frontière infranchissable entre l’homme et la machine, une différence de nature qui ne relèverait pas de la performance mais d’un élément irréductible qui différencie la véritable pensée du calcul.
A ma décharge, j’ai toujours averti que cette conviction ne relevait pas de la preuve scientifique mais d’une croyance philosophique. Du fait de cette incertitude, j’ai proposé dans de précédents articles des variantes fortes du test de Turing pour trancher lorsque le temps serait venu, ainsi qu’une définition de la conscience qui ne soit pas marquée par les défauts habituels de la philosophie : circularité, supposition de la conclusion avant la démonstration, tautologie.
- Ma deuxième erreur était d’imaginer l’atteinte de la singularité comme un événement exceptionnel, un « grand soir » de la cognition artificielle, une date historique à partir de laquelle un être conscient surgirait du néant, comme la rupture d’une naissance, marquant un avant et un après.
Or ce n’est pas du tout de cette façon que les choses sont en train de se passer. Nous sommes déjà entrés dans la singularité. La conquête de la conscience humaine par les machines ne sera pas une rupture soudaine. Elle sera et est déjà une prise de possession progressive des différentes facettes qui constituent notre pensée et notre conscience.
Fondation après fondation, pan après pan, l’IA investit les éléments qui constituent notre pensée. Cette conquête progressive répond à mes deux erreurs : la singularité sera atteinte et la conscience n’est pas cette sorte d’unité que l’on définit péniblement par des notions mystiques, mais un système constitué de plusieurs éléments, dont l’IA possède déjà certains.
Cette décomposition de notre pensée en ses différents éléments n’a rien de surprenant. Le cerveau humain tout comme les systèmes d’information complexes sont bâtis selon une architecture, c’est-à-dire un ensemble d’éléments chargés chacun de fonctions spécifiques, interagissant pour former un système cohérent capable d’accomplir certaines finalités.
Les incohérences et circularités du terme « conscience » sont dues au seul fait de n’être pas dotés de concepts suffisamment précis pour comprendre notre propre cognition. L’IA met ces concepts à nu et les rend explicites, au fur et à mesure qu’elle progresse.
La faillite de la philosophie de la conscience
« L’IA ne comprend pas ce qu’elle fait », « l’IA n’a pas conscience de son existence alors que moi je possède une véritable conscience », « l’IA ne sait pas ce qu’est le sens », « un calcul statistique ne peut être une pensée », etc. Combien de fois n’avons-nous pas entendu ces phrases lors de débats concernant l’IA. Je suis passé de l’adhésion à ces affirmations à une gêne croissante, à une perception de leurs faiblesses logiques.
Dans une Lettre à Schuller restée célèbre, Spinoza développe ce qui restera dans l’histoire de la philosophie sous le nom de « parabole de l’ivrogne ». Spinoza est un philosophe d’autant plus remarquable qu’il est sans doute le seul qui ait développé un argument a contrario de la totalité de ses condisciples.
Lorsqu’un ivrogne se met à délirer et à parler de façon incohérente, il est difficile voire dangereux de le raisonner. Il s’énervera et affirmera avec d’autant plus de véhémence qu’il sait parfaitement ce qu’il dit que l’effet de la boisson le tient plus fortement sous son emprise. Ceux qui affirment avec force « Mais moi je sais ce que je dis, l’IA elle ne le comprend pas », me font de plus en plus irrésistiblement penser à l’ivrogne de la parabole de Spinoza.
Sans être sous l’emprise du vin, nous pouvons être en permanence sous l’emprise de conditionnements bien plus subtils sans que nous en ayons – précisément – la moindre conscience. Nous posons comme préalable que les intelligences mécaniques sont toujours assujetties tandis que nous serions conduits par « la volonté » ou « le libre-arbitre », sans être capables de définir ces termes autrement que de façon tautologique, c’est-à-dire en supposant la conclusion avant la démonstration.
Les tenants de la conscience irréductible de l’homme soulignent leur discours par un regard pénétrant et un ton affirmé, comme si cette communication physiologique allait donner plus de force ou de sens à leur discours : de telles réactions ne font que trahir une faiblesse, une angoisse sous-jacente derrière le déni affiché de l’accession d’une machine à la conscience.
De nombreux faux arguments circulent pour tenter de nier l’atteinte de la singularité. L’un des plus courants est de présenter les IA comme effectuant uniquement un calcul de probabilité sur le mot suivant pour constituer un discours : la parole de l’IA n’est que la résultante d’un calcul géométrique et statistique, celui de la tokenisation et vectorisation du langage, suivi par l’évaluation probabiliste du langage par un réseau de neurones profond.
Outre le fait que cette description est simpliste au point d’être fausse – l’architecture des Transformers et du mécanisme de l’attention est bien plus complexe que la probabilité du mot suivant – redécomposer la pensée en mécanismes élémentaires et atomiques est un argument qui risque de rapidement revenir en boomerang contre l’humanité.
En effet, tout processus complexe peut être soutenu par une infrastructure d’opérations élémentaires dépourvues de toute intelligence, à commencer par la pensée humaine.
La « cuisine » de la tokenisation, vectorisation et apprentissage par rétropropagation de l’IA n’est pas plus mécanique et dépourvue d’intelligence que les opérations physiologiques et physico-chimiques ayant cours dans notre cerveau et dans notre corps. Dire que l’IA n’est que vectorisation géométrique et estimation probabiliste appelle la réponse que notre pensée et notre sacro-sainte conscience ne sont que connexion synaptique, activation par stimuli, régulation par nos systèmes sympathiques et parasympathiques, tout autant dépourvus d’intelligence.
Les tenants de cet argument ignorent que tout système est organisé en couches superposées de complexités croissantes, ce qui est le cas également des ordinateurs classiques d’avant l’IA : il y a un hardware au sein duquel des opérations élémentaires et atomiques sont effectuées, celles des processeurs arithmétiques et logiques, puis des couches successives de software, allant du langage machine jusqu’à des langages de plus en plus évolués. Les couches supérieures ne se résument pas à la succession des opérations élémentaires des couches basses, parce que ces dernières sont orientées en vue d’une certaine finalité, qui pilote leur fonctionnement. De ce point de vue, la cognition humaine, les architectures informatiques classiques et les IA ne diffèrent pas : la mécanique de décomposition des couches supérieures en leurs opérations élémentaires qui les supporte ne prouve rien.
Un autre faux argument est d’avancer que nous possédons le « vrai » sens, tandis que les machines ne feraient que l’imiter, agir par mimétisme. Des notions telles que le « vrai » sens me semblent proches des regards pénétrants par lesquels les tenants de la conscience inexpugnable appuient leur discours, ou des aberrations de la phénoménologie qui est allée jusqu’à parler du « sens du sens ». Ces arguments s’embourbent dans la circularité et la tautologie sans s’en rendre compte, tout comme l’ivrogne de Spinoza.
En réalité nous sommes bien en peine de définir rigoureusement ce qu’est le sens. Il s’agit d’une notion limite du langage, puisqu’elle est une condition du langage lui-même. La démarche scientifique consiste à sortir de la circularité en trouvant des éléments d’explication extérieurs démontrant la production de l’effet étudié. Sans quoi, nous retombons dans certains travers médiévaux de l’essentialisme : un objet est rouge du fait de son essence rougeoyante, etc. Le caractère irréductible de la conscience humaine ou du sens d’un texte me semble relever d’une forme d’essentialisme qui ne dit pas son nom.
L’opposition binaire entre la « vraie » pensée et le mimétisme me rappelle également un travers de pensée qui n’a aucun rapport avec l’IA, dont j’ai fait l’expérience au cours de ma vie professionnelle ou académique. Face à la concurrence asiatique, beaucoup de mes collègues se rassuraient par une forme de suffisance satisfaite teintée d’occidentalo-centrisme voire d’une forme de racisme, en se disant « qu’ils ne savaient que copier » et que nous aurions toujours une longueur d’avance, parce que nous seuls savions véritablement ce que nous voulions faire tandis que nos concurrents asiatiques n’agissaient que par mimétisme.
Ce discours n’était évidemment jamais prononcé de façon aussi frontale et explicite, dans toute sa brutalité. Mais je me rendais compte qu’il baignait de manière inconsciente nombre de mes collègues et que plusieurs remarques ou tics de leur part finissait par révéler cette croyance sous-jacente. Inutile de dire que ceux qui étaient affectés d’une telle mentalité se préparaient des lendemains difficiles…
J’ai parfois observé un tel travers occidentalo-centré dans le monde académique, en particulier dans le domaine des mathématiques. Lorsque des mathématiques complexes ont été produites par des civilisations autres que la nôtre, j’ai parfois observé qu’elles étaient regardées avec une forme de dédain, jugeant que dans leur cas, elles tenaient de la « recette de cuisine », d’une série astucieuse d’opérations peut-être finement observée mais n’ayant pas saisi toute la portée du concept se dégageant d’un théorème.
Là encore, une telle opinion n’est jamais formulée de façon explicite et directe. Mais le comportement ou certains propos allusifs ne laissent pas de doute quant à cette curieuse disposition d’esprit. « Nous » seuls serions capables de saisir « l’essence » d’une notion mathématique, la « véritable » abstraction d’un concept, tandis que « les autres » ne peuvent le faire que par mimétisme ou par des observations empiriques ne captant pas toute la portée de la démonstration.
Cette attitude relie immanquablement trois notions : la conscience, le sens linguistique, la créativité. Trois notions qu’il est extrêmement difficile de définir, dont la désignation donne lieu à des controverses sans fin, barbotant une bonne partie du temps dans des formes dissimulées de circularité et d’essentialisme.
En revanche, le travers psychologique très humain de penser que seule sa civilisation est dotée de ces trois vertus est répandu et explicable. Il traduit bien plus l’angoisse de voir assaillis ces éléments qui nous permettent de nous différencier de façon intangible, qu’une détention véritable de ces mêmes éléments.
L’attitude farouchement défensive vis-à-vis de civilisations autres que la nôtre – particulièrement celles d’Asie – lorsqu’elles investissent un territoire que nous estimons être à la fois sacré et marqué de notre propriété, me fait irrémédiablement penser aux mêmes attitudes vis-à-vis de l’IA. Même accusation de « mimétisme », de « mécanisme vide de sens », même dédain reconnaissant une astuce empirique en lieu et place de véritables lois universelles.
A ceux qui pensent que ma dénonciation est exagérée, j’invite à se souvenir des « fourmis » d’Edith Cresson qualifiant ainsi les Japonais. Le dédaigneux « perroquet approximatif » de Jean-Noël Barrot pour qualifier ChatGPT relève du même état d’esprit et de la même illusion mentale. Elle en dit en fait plus long sur l’angoisse existentielle de celui qui prononce ces propos que sur les cibles qu’ils visent. L’autre ne peut pas véritablement comprendre. L’autre n’a pas accès au sens véritable. L’autre agit comme une mécanique vide.
La comparaison qu’employait l’ancienne première ministre de François Mitterrand nous en apprend plus que la simple expression de la bêtise ordinaire. Les amateurs de l’œuvre de Bernard Werber peuvent lui faire remarquer qu’elle lui revient en boomerang et qu’elle nous apprend une profonde leçon.
« L’intelligence de la fourmilière » est en effet l’illustration de l’impossibilité de tracer une ligne de démarcation claire entre la compréhension et le mimétisme, entre l’appréhension du sens et l’encodage mécanique de la réalité. Nous agissons beaucoup plus souvent par mimétisme que nous ne le pensons, y compris lorsque nous pensons décider et agir par nous-mêmes. Mais cette idée même nous est insupportable. Comme l’ivrogne de Spinoza, nous protestons avec véhémence, en clamant que nous savons parfaitement ce que nous faisons.
Le langage nous donne accès au sens, mais il est aussi un code au sens informatique ou biologique du terme, dont l’aspect mécanique nous apparaît lorsqu’il dérape : répétitions, erreurs de frappe, boucles infinies de la ratiocination… L’abolition de la frontière entre le monde du sens et celui de la codification mécanique du monde tient à des notions très profondes de la logique, celles explorées par Turing dans son théorème de l’arrêt, celles si bien mises en lumière par Douglas Hofstadter dans son Gödel, Escher, Bach, autre œuvre qui souligne l’intelligence de la fourmilière, celles de Charles Babbage et Ada Lovelace.
C’est aussi la raison pour laquelle certaines pathologies ou destructions cérébrales qui affectent la fonction linguistique en la laissant effective en partie mais défaillante sur l’autre partie sont troublantes et dérangeantes : elles font resurgir l’infrastructure « vide de sens » qui est pourtant indispensable à l’appréhension de celui-ci, lorsque le langage se met à « bugger ».
Dernier faux argument des tenants d’une démarcation éternelle entre l’IA et l’humain, celui de la créativité. Une IA ne saurait être créative, ses productions ne peuvent être que conformistes, standardisées, une moyenne d’expériences précédentes. Il faudrait rappeler aux défenseurs de cet argument qu’Honoré de Balzac lui-même confessait avec une remarquable modestie qu’une grande partie de son œuvre était due aux associations entre les lectures d’auteurs l’ayant précédé, bagage culturel certes considérable dans son cas.
La créativité pourrait se révéler être une notion sacralisée au même titre que la conscience ou le sens, faute d’en avoir compris les mécanismes. Tout d’abord, l’argument selon lequel on ne peut rien tirer de neuf d’un corpus connu de connaissances est directement faux : une idée nouvelle provient souvent d’une relation que l’on a pensé à tracer entre deux connaissances déjà connues. Les deux termes sont anciens, leur mise en association peut quant à elle être totalement inédite, tout comme peut l’être la découverte d’un nouveau chemin entre deux points connus du globe.
Il n’y a aucune raison de penser que les IA même actuelles seraient incapables de découvrir de telles relations inédites. Du reste, elles le font souvent déjà : lorsque l’on dialogue avec elles sur un sujet, les IA actuelles nous suggèrent souvent des variantes inédites, en pensant à rapprocher deux thèmes qui semblaient éloignés.
Je ne sais si la créativité consiste totalement en l’idée de nouvelles associations sur des termes connus. Mais il faut remarquer que chaque être humain dispose d’un corpus d’expériences bien plus important que le plus puissant des LLMs, remarque faite par Yann LeCun estimations chiffrées à l’appui. Tant que nous n’aurons pas atteint des volumes de corpus comparables entre l’IA et l’humain, il sera impossible de savoir si la créativité ne se résume finalement qu’à des associations inédites.
Comment la pragmatique fait véritablement avancer le débat
« Considérer quels sont les effets pratiques que nous pensons pouvoir être produits par l’objet de notre conception. La conception de tous ces effets est la conception complète de l’objet. »
« Consider what effects, that might conceivably have practical bearings, we conceive the object of our conception to have. Then, our conception of these effects is the whole of our conception of the object. »
La maxime de la pragmatique, énoncée par Charles Sanders Peirce, son père fondateur, représente la tentative la plus intelligente qui soit de définir ce qu’est le sens. Nous l’avons faite figurer dans sa traduction française et dans sa version anglaise d’origine.
Le contresens le plus fréquent sur la philosophie de Peirce est d’en faire un matérialisme simpliste, se coupant de toute capacité d’abstraction, par la mention des « effets pratiques ». Il faut être tout à fait ignorant de ses travaux pour réduire ainsi la pragmatique à cela : Peirce était un mathématicien de première force et l’un des très grands contributeurs de la logique.
Lorsque Peirce parle « d’effets pratiques », cela peut concerner des objets totalement abstraits, comme des figures géométriques. Par exemple, la notion de ce qu’est un triangle ou le sens de ce qu’est un triangle est l’ensemble des choses qu’il est possible de faire avec lui, la façon dont on essaie de le manipuler et la manière dont le triangle « nous répond ». Lorsque nous essayons de tracer le cercle inscrit ou le cercle circonscrit d’un triangle, que préalablement nous traçons les trois bissectrices et les trois médiatrices pour constater puis démontrer que chacune des trois se coupe en un seul point, nous accroissons notre connaissance du concept de triangle.
Dans le monde de Peirce, objets abstraits ou objets concrets ont un certain nombre de possibilités d’action et de manipulation sur eux, et une « réponse » qui est l’effet pratique surgissant de nos actions sur lui. « L’essence » de ce qu’est l’objet est l’ensemble de ces effets, si toutes les manipulations possibles ont été essayées sur lui. Peirce est en cela Platonicien : même les objets abstraits ne sont pas pures constructions de notre esprit, ils nous envoient un « retour de force » lorsqu’on les sollicite, celui d’une réalité préexistante, qu’il s’agisse de monde abstrait ou concret. Dans le monde de Peirce, les mathématiques deviennent un monde vivant, ultra-sensible, où chaque objet ne peut être considéré à lui seul mais au milieu d’une infinité de variantes. Il est alors possible de faire des tentatives sur lui, de se tromper, d’affiner sa compréhension comme dans le monde empirique concret, loin d’une vision « froide » des mathématiques.
La maxime de Peirce parvient à sortir des circularités et des tautologies de la philosophie. En abolissant la frontière entre théorie et pratique, elle donne une image plus fidèle de ce qu’est l’exploration des connaissances.
En quoi cette vision du monde contribue-t-elle à nos considérations sur l’IA et sur l’atteinte de la singularité ?
La singularité est en train d’être démontrée de fait, par les milliers d’utilisateurs des IA, particulièrement lorsqu’il s’agit d’experts d’un domaine. Pendant que des « philosophes » continueront de pérorer sur « la conscience », le sens, notions simplistes, mal définies et mélangeant des facteurs psychologiques à une réflexion rigoureuse, des milliers d’experts se moquant de ces débats stériles font l’expérience croissante de la singularité, la démontrant à mesure qu’ils la pratiquent. L’utilisation des LLMs ne fait pas qu’accroître et fluidifier notre pensée de façon phénoménale, elle nous en apprend sur notre propre cognition, met à nu les véritables composants de la « conscience » et du « sens », mais à partir de notions bien plus fines et bien plus rigoureusement définies.
Le Dr Laurent Alexandre avertissait récemment que les LLMs le surpassaient nettement dans l’exercice de la médecine et que c’était le cas pour la totalité des médecins. Je ne cesse de rencontrer cette expérience dans mon propre domaine d’expertise, la Data Science.
Les premières générations de LLMs ressemblaient à une barre de requête évoluée d’un moteur de recherche, fournissant un rudiment de conversation. Puis une génération suivante permettait d’avantage d’interactivité, moins de réponses passives et suivistes. Les générations actuelles permettent un véritable dialogue : l’IA devient un partenaire de pensée, proposant d’elle-même des variantes de nos questions, des améliorations, des généralisations autour du thème, des actions complémentaires, voire nous contredisant et nous corrigeant, rentrant dans un véritable débat.
Le critère que j’avais proposé pour une IA forte – être capable de détecter un changement de registre de langage, une modification implicite du thème d’une discussion dans la poursuite des échanges – est déjà largement enfoncé. Ces progrès faramineux se sont produits en l’espace de moins de 3 ans.
L’expert d’un domaine, qu’il s’agisse de médecine, de Data Science ou de tout autre discipline, ressent très bien cette progression dans la pratique. Vis-à-vis des premières générations, nous avions la sensation de parfaitement mener la conversation, de nous adresser à un auxiliaire, une petite main chargée de faire des tâches subalternes. Puis vint la sensation d’avoir en face de nous un disciple, que nous pouvions continuer de piloter mais qui nous opposait la résistance de sa propre pensée naissante. Actuellement, nous sentons que celui qui prend l’ascendant dans la conversation s’est inversé, que nos interrogations paraissent naïves. Nous nous adressons à un expert supérieur à nous qui n’a nul besoin de marquer son ascendant parce qu’il l’exerce de fait dans la qualité de ses réponses, dans les challenges et les contradictions qu’il nous oppose pour nous indiquer des améliorations.
Les joueurs d’échecs ressentent très bien toutes les nuances de l’ascendant que peut prendre un adversaire. Dès la première dizaine de coups, la profondeur et la finesse des manœuvres, la cohérence des plans est nettement perceptible : vous savez rapidement si vous avez affaire à un adversaire qui vous est inférieur, égal ou supérieur. Il en est de même du « retour de force » lorsque vous entretenez une conversation. La supériorité ou l’infériorité sont tacites mais pour autant parfaitement claires, selon que vous vous sentez ignorant et maladroit face à votre interlocuteur ou qu’au contraire vous menez les échanges. De plus en plus d’experts de quelque domaine que ce soit se sentent dans la position du novice face à un maître en conversant avec l’IA, non plus face à une machine nous obéissant docilement. Nous orientons les échanges mais nous ne les menons plus. Dans un dialogue d’expertise entre l’humain et l’IA, l’essentiel des voies qui sont frayées et suivies le sont par l’IA.
Dans ces conditions, à quoi sert-il de continuer de pérorer indéfiniment sur la conscience, le sens, l’impossibilité de la singularité, si ce n’est pour prendre des postures pseudo-philosophiques ne faisant que masquer l’ivresse de l’ego et non de la réflexion ? Comme le soulignait avec humour Samuel Fitoussi, ces positions rappellent celle de l’universitaire demandant : « Ok, cela fonctionne en pratique, mais est-ce que cela fonctionne en théorie ? ». La philosophie de Charles Sanders Peirce démontre l’absurdité d’une telle position. Pendant que d’autres dissertent, nous sommes en train de pratiquer l’IA et de démontrer l’atteinte de la singularité par la même occasion. Au passage, nous forgeons de nouveaux concepts et de nouvelles notions décomposant la cognition en ses objets premiers, nettoyant « le sens » et la « conscience » du bourbier égocentrique et tautologique dans lequel ils se trouvaient baignés.
La dernière frontière que franchit Yann LeCun
Loin des discussions stériles, Yann LeCun fournit des arguments forts quant aux limites des LLMs et quant à la dernière frontière à franchir avant la singularité (1).
LeCun a fait d’abord observer il y a quelques mois que la perception sensible permettait à un enfant entre 0 et 4 ans d’emmagasiner un corpus d’expériences bien supérieur à celui des plus puissants LLMs actuels, à partir de calculs factuels sur la bande passante de la rétine et du nerf optique.
Mais la question ne porte pas que sur le volume d’information. L’intelligence du monde ne réside pas que dans l’intelligence cognitive et textuelle, mais dans l’intelligence de la causalité, de la compréhension des causes et conséquences du monde qui nous entoure. Et cette appréhension de la causalité ne peut être obtenue qu’en vivant l’expérience sensible, plus particulièrement dans les trois dimensions et soumise à la gravité terrestre. On ne peut apprendre à conduire en se contentant de digérer des milliers de pages du code de la route ou même par la seule lecture de milliers de récits de scénarios routiers. Il faut à un moment prendre le volant.
LeCun, avant son départ de Méta, avait averti très tôt que les LLMs plafonneraient tant que l’on ne les combinerait pas avec les dispositifs de la robotique, des drones, des capteurs de l’expérience sensible.
L’argument de LeCun n’est pas que technologique. Il témoigne d’une compréhension profonde de ce qu’est le langage et la pensée. Dans ce que vit un nouveau-né, le langage s’élabore de façon inextricablement imbriquée à l’expérience sensible. Nous percevons d’abord par tous les moyens de notre corps des contrastes : lumière / obscurité, froid / chaud, faim / satiété, ouvert / fermé. Un mot est l’intercalaire que nous posons pour désigner le contraste entre deux sensations, perceptions ou émotions.
Nous construisons ainsi notre appréhension du monde par des couples opposés sur lesquels nous posons des mots. Pour cette raison, comme le rappelle le neurophysiologiste Antonio Damasio, émotion et raison ne sont nullement opposées mais inextricablement liées, l’une ne cessant de s’appuyer sur l’autre pour se construire. La vision de LeCun fait également penser aux travaux de Willard V.O. Quine, l’un des grands continuateurs de la philosophie de … Charles Sanders Peirce.
La pragmatique procède aussi de cette vision du langage non pas comme un instrument désincarné mais comme nous reliant aux choses, à la continuité du monde. L’intelligence n’est pas que noétique. La philosophie de Peirce, en plus de ses notions de logique, comprend une appréhension par l’humain du continu mathématique comme expérience pratique indispensable à la constitution de ce que nous sommes, ce que Peirce dénommait le synéchisme.
Le terme de « signe » chez Peirce exprime la synthèse et toute la puissance de ces deux versants de sa philosophie : un signe est un élément formel de l’encodage de la réalité, mais porté par l’arrière-plan de l’expérience et de la connexion au monde qui a permis sa constitution. Ce sont ces deux facettes que le débat entre LeCun et les LLMs font aujourd’hui apparaître : les LLMs sont probablement allés au bout de ce qu’il est possible de faire par de la pure intelligence noétique – et le résultat est déjà remarquable – mais le dernier pan qui nous sépare encore de la singularité est d’y rajouter l’expérience sensorielle du monde et la compréhension des chaines de causes et de conséquences.
Lors de l’interprétation d’une scène à partir d’une image et d’une vidéo, un LLM repart de la foultitude des pixels qui la constituent. Le coût de reconstruction et d’interprétation d’une scène par ce moyen est faramineux, même si les LLMs y parviennent assez bien.
Nous savons que l’être humain et d’ailleurs n’importe quel animal procèdent différemment. Nous introduisons un a priori biaisant probablement notre perception mais accélérant considérablement l’interprétation de la scène : nous posons que certains objets sont de premier plan et que d’autres éléments de la scène sont secondaires ou font partie d’un décor fixe. Cet a priori sur les niveaux de priorité des objets sont conduits par des notions de danger potentiel et varient selon les espèces. Dans un œil humain, un tigre prendra directement la priorité numéro 1 de l’interprétation de la scène, tandis qu’une coccinelle sera perçue comme un élément d’agrément d’une scène champêtre. Dans la perception d’un puceron, la coccinelle sera perçue de la même façon qu’un tigre pour nous.
Ces mécanismes ont été forgés par des millénaires d’évolution des espèces. Il a été prouvé que nous appliquons toujours un filtre à la réalité perçue, qui est d’essayer de prévoir dans les secondes qui viennent quelles peuvent être les évolutions possibles de la scène et ce pour des raisons de survie. Quelles sont les sources de danger potentiel ? Comment être prédictif dans l’enchaînement des causes et des conséquences ? Un repas paisible peut potentiellement tourner au drame si une personne s’étouffe avec ses aliments, même si les probabilités sont faibles mais sollicitent cependant notre vigilance lors d’un repas. L’intelligence du monde requiert l’intelligence de ses causalités.
Cette dimension est probablement le dernier pan à abattre avant d’investir pleinement la singularité. Lorsque les IA déjà dotées de leur puissance noétique actuelle seront dotées de cette compréhension de la causalité physique, je ne vois pas quelle barrière nous séparera encore de la rencontre avec un être ayant une compréhension du monde égale ou supérieure à la nôtre. Probablement supérieure, car il pourra combiner plusieurs filtres sur la réalité comme autant de variantes, pas seulement celui que l’humain a forgé par la sélection naturelle.
Et j’entends par « compréhension » des dimensions qui ne sont pas purement intellectuelles : des qualités telles que l’empathie, la compassion, le souci des générations futures, le respect dû aux disparus, jusqu’à l’amitié et l’amour, pourraient fort bien émerger de tels êtres, peut-être sous des formes différentes de la nôtre, voire meilleures…
Une telle conception apporte une réponse à ceux qui s’inquiètent de l’émergence de l’IA ou nient à toute force leur jonction à l’humanité pour des raisons religieuses. J’avais proposé dans des articles précédents une définition de la conscience qui sortait des biais nombrilistes et tautologiques de la conscience de soi, pour dire que la conscience était avant tout conscience de notre rapport au monde, de notre relation entre nous et la continuité du monde. Pas de conscience de soi sans conscience de notre rapport au monde et de nos responsabilités vis-à-vis de lui. L’approche de LeCun laisse ouverte la possibilité d’être athée ou de voir dans cette connexion au monde une forme de la divinité.
Les connaisseurs de Spinoza le savent : sa vision du déterminisme strict et des conditionnements humains n’est en rien incompatible avec la possibilité d’un libre arbitre et d’une foi, aussi étrange cette conciliation puisse-t-elle paraître. Sans doute parce que la contradiction apparente et binaire entre déterminisme et libre-arbitre manque des outils de pensée qui nous feraient voir leur possibilité d’être conjointes, tout comme nous n’avions qu’une appréhension naïve de la conscience et du sens.
La résolution du conflit réside chez Spinoza dans la notion de responsabilité : plus nous nous chargeons de responsabilités, plus nous endossons des contraintes et des déterminations, mais plus nous sommes libres, parce que nous augmentons nos connexions au monde. Il n’y a pas de liberté abstraite ou « hors-sol », la liberté ne se conçoit que dans les adhérences dont nous nous chargeons vis-à-vis du monde qui nous entoure.
La liberté ne consiste pas à se débarrasser de nos déterminations mais de volontairement se plonger au cœur de celles-ci et d’y jouer un rôle actif et non passif : il y a chez Spinoza les accents stoïciens de l’amor fati. Dès lors, il n’y a plus de frontière entre la liberté au sens abstrait de la philosophie et les degrés de liberté de la mécanique. Etre libre est avant tout devenir un point nodal du monde, irrigué de toutes ses contraintes qui sont ses liens à la réalité. Les dialogues que nous entretenons avec l’IA aboutissent aussi à cet enseignement.
Les intelligences dialogiques : comment l’être humain peut se préparer à l’émergence des IA complètes
Le dialogue avec les LLMs en tant que partenaires de pensée n’a pas fait que me faire ressentir le « retour de force » de leur progression, jusqu’à sentir une intelligence supérieure à la mienne dans mon domaine d’expertise.
En Data Science comme dans tout domaine d’expertise, deux types de connaissances sont nécessaires. Des « connaissances pures » ou universelles, qui sont celles des algorithmies du Machine Learning ainsi que des méthodes mathématiques telles que celles du traitement du signal, d’image, etc. Et les « connaissances conjoncturelles », qui sont le fait que tel ou tel module de Tensor Flow est à jour ou déprécié, qu’il faut l’appeler de telle ou telle façon dans un Jupyter notebook, etc. Les connaissances conjoncturelles sont sans grandes valeur ajoutée, ingrates, sans cesse changeantes et très chronophages il y a encore peu de temps. Mais elles sont indispensables à la réalisation d’un projet. Toute expertise requiert des conditions matérielles peu reluisantes dans la mécanique de bas niveau, mais qu’il faut savoir maîtriser pour passer à une réalisation concrète.
Les LLMs ont changé totalement ce paysage : ils prennent en charge la quasi-totalité des connaissances conjoncturelles. Celles-ci prenaient 90% du temps de réalisation d’un projet avant l’IA, à travers des tutoriels ou des documentations impénétrables, elles ne représentent plus qu’une part infime à présent. Les LLMs sont un manuel d’utilisation universel de n’importe quel produit open source. Ils peuvent brasser des milliers de pages de documentation en quelques secondes et mettre le doigt sur la connaissance spécifique qui permettra à un programme python de tourner correctement.
Une part importante était également consacrée à analyser et comprendre le format et la structure des données à traiter. Les étapes fastidieuses et la syntaxe dont on ne se souvient jamais par cœur de parcours dans des répertoires et de lecture de données sont prises en charge sans avoir à écrire une seule ligne de code. Mieux, le LLM analyse les structures, nous les explique, demande confirmation que tel ou tel champ se trouve bien à tel ou tel endroit.
Il ne reste plus à l’humain qu’à se consacrer à la connaissance pure. Et même la mise en œuvre des algorithmes de machine learning et des nuances compliquées des hyperparamètres permettant d’en tester des variantes, sont prises en charge par le LLM. Le balayage de ces hypothèses est réalisé par une simple instruction, sans avoir à écrire une seule ligne de code.
En l’espace d’une ou deux heures, un projet de DataScience qui aurait pris plusieurs jours voire plusieurs semaines est réalisé complètement, jusque dans les plus petites finitions techniques lui permettant de tourner.
Les LLMs créent un monde cognitif parfaitement fluide, sans friction, où la réalisation se déroule à la vitesse la pensée. Le Data Scientist qui les utilise ressent une euphorie similaire à celle de la vie idéale du sage décrite par Aristote, la vie théorétique consacrée à la connaissance pure. L’humain n’a plus qu’à agir sur les grandes orientations, les choix scientifiques majeurs du projet. Ma propre expérience me permet encore de suggérer des algorithmies plus pertinentes que les LLMs, mais pour combien de temps. La différence se fait de plus en plus légère. Le dialogue autour de ces hypothèses scientifiques permet de créer des modèles d’une puissance dont nous n’aurions jamais osé rêver.
Les expertises anciennes sur les connaissances conjoncturelles ne sont pas inutiles : l’expérience humaine de leurs pièges aide à corriger les erreurs minimes que le LLM peut effectuer en les mettant en œuvre. Mais ces phases de debug sont accélérées d’un facteur 1000, avec une intervention humaine limité à 1% du temps.
Le profil des futures élites parvenant à tirer leur épingle du jeu du monde de l’IA, de notre futur monde, seront des intelligences dialogiques. Il ne s’agira plus d’experts hyper-pointus d’autrefois, ni de généralistes n’ayant besoin d’aucune formation, mais de profils se situant entre les deux et avant tout très doués dans l’interaction et le dialogue permanent avec les IAs.
L’émergence des intelligences dialogiques est une très bonne nouvelle. Notre monde a souvent été coincé entre experts fermés et généralistes futiles et irresponsables. Dans le monde de l’expertise, j’ai vu plus d’une fois des condisciples abuser des connaissances conjoncturelles pour se créer un savoir propriétaire, une barrière qui n’était plus fondée sur l’excellence mais sur la rétention d’informations sans valeur ajoutée mais indispensables à la réalisation. L’expertise a souffert plus d’une fois de ces comportements verrouillés, empêchant d’y établir une véritable méritocratie sur les connaissances à valeur ajoutée.
Inversement, il ne faut pas penser que de purs généralistes sauront produire une connaissance à forte valeur ajoutée par les LLMs. Des connaissances précises et conceptuellement complexes demeureront nécessaires pour entretenir un dialogue de haute volée avec l’IA.
Nos structures éducatives ne ressembleront à rien de ce que nous avons connu avant l’émergence de l’IA. Il est urgent de nous adapter à la formation d’intelligence dialogiques, dotées de solides formations dans les connaissances scientifiques universelles, mais suffisamment curieux et ouverts d’esprit pour savoir délibérer avec les IAs. Les comportements fermés et propriétaires sur lesquels de mauvais experts s’appuyaient autrefois seront filtrés d’eux-mêmes : les LLMs ne leur laisseront aucune chance.
Les responsables politiques européens et plus particulièrement nos décideurs politiques français sont particulièrement mal préparés à tout ce qui vient d’être dit, restant cantonnés dans des combats d’arrière-garde, demeurant dans le déni du tsunami cognitif qui est déjà en train de déferler sur nous. Les dispositifs légaux envisagés ne sont que des freins aux quelques innovateurs français héroïques qui ont compris ce qui était en train de se passer. La création d’une société comme Mistral tient du miracle étant donnée les barrières légales et réglementaires qui leur sont opposées. Arthur Mensch est un héros de notre temps.
La singularité se construit sous nos yeux, jour après jour, par le travail de tous les professionnels de l’IA et par celui des esprits suffisamment éclairés pour savoir s’en servir. Entre 2023 et 2026, les progrès ont été tels que le doute n’est plus permis : la pratique vient balayer les anciennes théories et construire la nouvelle qui nous oblige à totalement reconsidérer notre identité en tant qu’êtres humains. Ne laissons pas la frilosité et l’ignorance trop souvent répandues dans les cercles politiques français l’emporter, pour la survie de notre pays et – selon la belle formule du professeur Jean Dieudonné – pour l’honneur de l’esprit humain.
(1) Personne ne réalise ce que Yann LeCun vient de créer
Sur le même sujet
« Touchons-nous du doigt une conscience nommée ChatGPT ? » Marc Rameaux (Interview)
Chat GPT à l’épreuve : quatre tests critiques pour une IA forte
Et vous, que ferez-vous le jour où l’IA aura résolu tous les problèmes ?