La semaine passée, s’est déroulée la conférence de Bletchey au Royaume-Unis. Cet événement initié par le Premier Ministre Britannique Rishi Sunak a permis de réunir la Chine, les Etats-Unis, l’UE et une vingtaine de pays pour discuter des problèmes d’éthique et de sécurité liés à l’Intelligence Artificielle. Tous ces acteurs ont signé la déclaration de Bletchley pour un développement « sûr » de l’intelligence artificielle (IA). Marc Rameaux, auteur de nombreuses analyses sur l’IA pour European Scientist a répondu à quelques questions.
The European Scientist : La semaine passée avait lieu un premier sommet mondial sur l’IA à Bletchley. Que pensez-vous de cette initiative ? Est-elle justifiée ?
Marc Rameaux : Il faut déjà replacer cette déclaration dans sa juste mesure : il s’agit d’un document de deux pages, effleurant à peine les conséquences humaines et sociales de l’IA (1)
Le point positif de cette initiative est qu’il faut une régulation internationale de l’IA. J’ai déjà souligné les 4 principaux dangers que celle-ci nous faisait courir à court-terme :
- L’affaiblissement intellectuel dans le milieu scolaire et académique, via la « délégation de cerveau » de la part des écoliers et étudiants, forgeant une jeune génération conformiste et incapable d’analyse personnelle.
- La défausse de responsabilité politique de la part de nos gouvernants, ceux-ci pouvant se réfugier derrière l’IA comme un oracle de Delphes 3.0 permettant de noyer leur responsabilité personnelle dans leurs prises de décision.
- Le « flicage » de la société, à l’instar du score social chinois, permettant à des gouvernements de devenir de plus en plus intrusifs et coercitifs quant au contrôle de nos comportements individuels.
- Le marché de l’emploi, tous les métiers étant potentiellement touchés y compris les plus prestigieux et complexes, contrairement aux révolutions technologiques précédentes qui menaçaient les travaux à faible valeur ajoutée.
Il faut rajouter un cinquième point que je n’ai pas traité mais sur lequel la déclaration insiste à raison : la production de données fictives, y compris en images et vidéos, ouvrant la porte à toutes les possibilités de désinformation et de manipulation de l’opinion. Nous subissons déjà un climat de post-vérité dans notre société du spectacle. L’IA menace de nous faire passer dans un monde totalement relativiste où toutes les opinions pourraient être manipulées et retournées en quelques secondes.
L’initiative est donc parfaitement justifiée et son aspect positif est d’impliquer un large panel de pays. Toute initiative isolée sera vouée à l’échec, même étendue à la totalité de l’Union Européenne. J’avais déjà signalé l’inanité d’un moratoire que la concurrence chinoise et américaine ne respecterait jamais, faisant de l’UE le naïf dupé pour une nième fois (2).
La déclaration implique la Chine, les Etats-Unis, l’UE et 25 autres pays. Cela a au moins le mérite de mettre pour la première fois tous les principaux acteurs autour d’une même table. En revanche, la décliner en plan d’action concret signifie affronter de nombreux biais et risques. Pour que cette déclaration ne reste pas un vœu pieux, beaucoup de conditions sont à remplir pour que les travaux concrets qui suivront ne tombent pas dans des pièges classiques.
TES. : Va-t-on vers un GIEC de l’IA comme certains l’ont évoqué ? Et si oui est-ce souhaitable ?
M.R. : C’est bien là le danger. Les intentions de départ du GIEC n’étaient pas nécessairement mauvaises. C’est la façon dont le GIEC est conduit actuellement qui soulève un malaise grandissant au sein de la communauté scientifique. La vérité scientifique exige une totale liberté de parole et la possibilité de confronter plusieurs modèles concurrents : aucun consensus scientifique important ne s’est établi sans cette gestation fiévreuse de la science. Le GIEC n’est pas un organisme qui conduit un consensus critique mais un consensus forcé, obligatoire. Il serait regrettable que l’IA souffre du même biais que celui rencontré actuellement sur le climat et la transition énergétique, domaine aujourd’hui verrouillé.
Déjà, plusieurs critiques ont émané à la suite de la déclaration de Bletchley, lui reprochant d’être exclusivement sous la houlette des gouvernements et des GAFAM (ou leurs équivalents chinois). C’est-à-dire d’être juge et partie. Si des travaux sérieux font suite à la déclaration, ils devront impliquer des acteurs clés de la société civile, totalement libres de parole. Mais l’on voit mal comment le PCC chinois autorisera des débats totalement non censurés quant aux dangers de dispositifs tels que le crédit social.
Quant aux conséquences sur l’emploi, elles seront mal évaluées si ceux qui les mènent ne se rendent pas compte que leurs postes eux-mêmes devraient être logiquement menacés. Lorsque des responsables publics ou privés mettent en place des mesures douloureuses, de suppression ou délocalisation d’emploi par exemple, ou d’augmentation de la pression fiscale, ils ont tendance à s’omettre de ceux concernés par les mesures. C’est ainsi que lors de suppression d’emplois, des armadas d’équipes assez bureaucratiques décident de coupes sombres parmi des forces opérationnelles, aboutissant à toujours plus de barreurs pour moins de rameurs. Ils ne leur viendraient pas à l’esprit qu’une IA fonctionnant sans biais pourrait aboutir à la décision de supprimer les postes des bureaucrates qui l’ont actionnée… Quiconque à vécu ces ambiances de comités corporate ou les coups de menton dissimulent la vacuité comprendra la dérive vers laquelle une entité de régulation de l’IA pourrait verser.
Le seul moyen d’éviter ces dérives sera de constituer des équipes de travail suffisamment diversifiées et contradictoires, notamment venant du monde de l’entreprise non spécialisée dans l’IA : industrie automobile, aéronautique, nucléaire, sociétés de services à la personne, etc. Car les entrepreneurs de ces activités se rendent compte beaucoup plus concrètement des conséquences d’une innovation technologique sur le terrain, évitant de penser l’IA hors sol. Le débat libre, contradictoire et de qualité est à ce prix. Imaginez ce qu’aurait été un plan de transition énergétique si un capitaine d’industrie de la trempe d’un Carlos Tavares avait participé aux travaux et non un cénacle de bureaucrates missionnés par la Commission Européenne. Les arguments d’un Carlos Tavares sur les modes de motorisation automobile et sur leur transition sont d’une profondeur et d’une compétence se situant à cent coudées de ceux qui en décident aujourd’hui. Ou si les discussions concernant l’avenir de la filière nucléaire française avaient fait participer un Gérard Mourou, notre récent prix nobel de physique. Les très pénibles et absurdes stop and go imposés par le gouvernement français nous auraient été évités, avec également leurs milliards de pertes.
TES. : Elon Musk a réitéré ses propos selon laquelle l’IA est une des plus grandes menaces pour l’humanité et réclame un arbitre. Certains disent qu’il veut gagner du temps pour faire avancer son propre projet. Quel est votre avis ?
M.R. : Je crois Musk sincère pour une raison : la qualité de ses arguments. Ses craintes sur l’IA ne sont pas nouvelles, il les a évoquées avec Sam Altman dès la co-création d’Open AI. Et Musk a une fois de plus parfaitement anticipé où se trouvait le nœud du problème : le couplage entre la puissance algorithmique phénoménale de l’IA avec la masse gigantesque et hors de contrôle des données du Web, s’en nourrissant en permanence, accrue des nouveaux canaux d’acquisition en pleine croissance de l’IoT : drones, équipements à bord des voitures, capteurs de la smart city, voire bientôt implants biologiques tels que ceux de NeuraLink.
Il en résulterait une sorte d’organisme vivant possédant la puissance la plus redoutable de toutes : l’intelligence de la fourmilière ou de l’essaim, fluide, répartie, aussi implacable qu’insaisissable car située nulle part, pouvant frapper partout, se développant selon des lois qui lui deviennent autonomes et propres.
Musk a très clairement donné des descriptions très similaires à celle que je viens d’esquisser. La force de l’argument et de ses enjeux mettent au second plan les intérêts économiques, même si Musk les conserve bien évidemment en tête en tant qu’entrepreneur. Mais ce qui a fait le succès des initiatives entrepreneuriales de Musk est qu’il a toujours privilégié la vision du futur et une volonté acharnée d’atteindre une cible en laquelle il croyait, en prenant des risques économiques et financiers considérables. Un profil qui le rapproche beaucoup de Jobs, capable de perdre et d’engloutir des milliards pour tenir le cap auquel il croyait. Penser que Musk fait ses déclarations pour de simples raisons tactiques est très mal connaître l’état d’esprit qui lui a permis de bâtir son empire industriel et digital.
TES. : De manière inattendue, la France, l’Italie et l’Allemagne ont appelé à une législation sur l’IA sans bureaucratie inutile. N’est-ce pas surprenant, alors que l’AI Act européenne est en ce moment négocié à Bruxelles et que ce traité n’avait pas du tout anticipé l’irruption des LLM ?
M.R. : C’est surprenant sur le plan de la contradiction, ce ne l’est hélas pas sur le plan de la cacophonie résultant d’une forme de médiocrité de haut niveau. Nous avons un véritable problème en France et en Europe, de non formation et de niveau des décisionnaires de nos politiques numériques. Le fait n’est pas nouveau : les talents numériques abondent en France, mais sont gâchés par des décisionnaires ignorants et la plupart du temps superficiels. Nous avons ainsi manqué la course en tête des protocoles de communication, TCP/IP ayant été inventé par le Français Louis Pouzin sous le nom de Datagramme, finalement retoqué par le gouvernement français de l’époque. Un rapport d’énarques savoureux a longtemps circulé, expliquant avec le plus grand sérieux que l’internet ouvert n’avait aucun avenir, car ne commercialisant pas suffisamment chaque transaction. Aucun bureaucrate n’aurait imaginé la force de frappe du modèle de gratuité de Google, appuyé sur des recettes publicitaires. Sur les LLMs, ce n’est nul autre que le ministre délégué au numérique qui a qualifié ChatGPT de « perroquet approximatif » : quelle extraordinaire capacité d’anticipation des perspectives des LLMs ! N’importe quel spécialiste compétent de l’IA aurait expliqué à Jean-Noël Barrot que les maladresses des premières versions de ChatGPT n’étaient pas des balourdises rédhibitoires mais les défauts d’un jeune talent au tennis ou au jeu d’échecs, qu’un œil exercé voit comme des promesses et non comme des erreurs grossières. Et ChatGPT n’est que la face émergée de l’iceberg. La concurrence à OpenAI fait déjà rage, en témoigne la nouvelle IA générative lancée par Elon Musk, Grok, qui pourrait aller jusqu’à répondre au ministre délégué par le sarcasme puisqu’il s’agit d’une nuance de langage atteignable par les LLMs et voulue par le pétillant patron de X.
J’ai souvent cette discussion concernant la médiocrité numérique de nos décisionnaires gouvernementaux avec le Dr Laurent Alexandre. On sait que celui-ci craint souvent la giletjaunisation des esprits comme il la nomme souvent. Le Dr Alexandre a peut-être raison de pointer les dangers du populisme, encore qu’il perd à mon avis le bénéfice du bon sens qu’il porte parfois.
C’est pour ma part une forme de bêtise beaucoup plus profonde et redoutable que je crains : celle de la McDonaldisation des élites. La réaction de la rue est bien moins dangereuse et moins dévastatrice que celle des cols blancs. Car celui qui se pense appartenir à une élite sera d’autant plus engoncé dans des certitudes inamovibles, outre le fait qu’il possède le pouvoir de décision.
Jean-Noël Barrot s’est-il douté un instant que par sa réplique, c’est lui-même qui se trouvait dans la position du perroquet approximatif, la ratiocination bureaucratique qui nous freine depuis trop longtemps ? Je rends grâce au Dr Alexandre de m’accorder ce point dans nos discussions : il est lui-même consterné par le niveau de nos décisionnaires politiques. La contradiction que vous pointez dans votre question est la même que celle des « chocs de simplification » administratifs, affirmés avec force des dizaines de fois par chaque gouvernement et jamais mis en œuvre par manque de lucidité, de courage, de profondeur d’analyse, d’humilité également de ne pas faire appel aux véritables experts se situant en dehors du sérail. La mission Villani dont j’eus la chance d’être membre fut une heureuse exception. Espérons que la gouvernance de l’IA soit mieux servie que d’autres sujets dans les années à venir : l’enjeu le mérite.
TES. : Pour contourner les législations internationales, la firme Del Complex propose d’héberger des plateformes d’IA en mer sur le mode « sea-steading ». Pensez-vous que l’avenir de l’IA passe par ce genre de solution (3)
M.R. : J’ai toujours une certaine bienveillance pour ces pirates modernes, ces aventuriers du digital qui prolongent l’utopie de Libertalia, cette société libre probablement inventée par Daniel Defoe et ayant inspiré le manga OnePiece. Le Web 3.0 et les rêves de la blockchain, d’un internet totalement décentralisé faisant émerger des micro-sociétés autonomes et libres est de la même veine. Coupler les idées du Web 3.0 et le développement de l’IA est peut-être le chemin de sa libération. Tout comme la communauté libre des développeurs et de l’open source est la seule force d’organisation spontanée capable de contrer le monopole dangereux des GAFAM.
Mais il faut rester lucide quant au romantisme de ces initiatives. Nous avons vu les limitations de l’utopie des villages libres du Web 3.0, dont l’économie autonome par cryptos a fait l’objet d’opérations malveillantes obligeant à des procédures de forking, cassant la belle unité du projet. Par ailleurs, ces constructions virtuelles entièrement libres sur le papier reposent toujours sur des infrastructures physiques et des serveurs qui finissent très souvent par repasser entre des mains non démocratiques : jusqu’à quand la firme Del Complex pourra-t-elle nous garantir une indépendance, d’autant que le gouvernement fédéral américain continuera de lui appliquer la batterie de ses lois extra-territoriales, même sur des plateformes off-shore.
L’ouverture des développements de l’IA en open-source a fait l’objet d’un débat intense et contradictoire entre Yann Le Cun et ses homologues. Le Cun a alerté avec raison sur la fermeture croissante du code servant aux modèles d’IA, PyTorch s’étant distingué par son ouverture par rapport aux plateformes de Google. Et la critique la plus acerbe du directeur IA de Meta fut à l’égard de ChatGPT et d’OpenAI, accusés non sans raison d’avoir totalement verrouillé leur LLM. Ceci a abouti a laisser LLama, le LLM de Meta en complet libre accès. Le Cun croit fermement au modèle de développement en Open source et c’est à son honneur : il a mis ses actes en application. Quelle que soit la position que l’on adopte sur ce débat, c’est l’une des clés de la maîtrise de l’IA et de sa conservation dans le champ de la démocratie : si des travaux concrets suivent la déclaration de Bletchley, ils devront inclure de façon indispensable cette question de l’ouverture du code et de l’indépendance des plateformes de développement.
2) Des experts tech du monde entier appellent à une pause dans le développement de l’IA. Mais pouvons-nous nous le permettre ? https://atlantico.fr/article/decryptage/des-experts-tech-du-monde-entier-appellent-a-une-pause-dans-le-developpement-de-l-ia-mais-pouvons-nous-nous-le-permettre-entreprises-technologie-innovation-progres-dangers-chatgpt-risques-ia-laurent-alexandre-aurelie-jean-marc-rameaux
3) https://twitter.com/delcomplex/status/1719087956311396481?s=46&t=Zm2l-OHVuX-POVAack0MMQ
Image par Markus Winkler de Pixabay
A lire également
Project Maven, Drone de Surveillance Eye In the Sky…. Qui empêchera les usages abusifs de l’IA ?
Qu’attend-t-on pour développer la ferme du futur en Europe ?