
Aujourd’hui, comme l’intelligence artificielle est quelque chose de nouveau, Madame et Monsieur tout le monde s’y intéressent. C’est normal. Il n’y a pas de mode d’emploi, mais en même temps, c’est simple d’utilisation. Et ça, le cerveau de Sapiens raffole de la simplicité ! On lui pose une question, elle répond. De plus, c’est gratuit. Pour le citoyen lambda, quelle que soit sa condition, l’IA pourrait rester une aide simple, abordable et précieuse à la connaissance.
A deux clics de la parole d’Evangile
Chacun peut donc l’utiliser à sa manière, comme il l’entend. Comme c’est la machine qui nous dit en quelques secondes que c’est blanc ou noir, ça peut vite devenir parole d’Évangile. Le copier/coller est un jeu d’enfant. On partage le blanc ou le noir, qui fait le tour de la terre sur la toile en un éclair. Sur les réseaux sociaux, on voit de plus en plus d’argumentaires d’autorité de la part de personnes qui manifestement ne sont pas compétentes dans le domaine. Mais quand on utilise l’IA, on sait reconnaître, le style de rédaction de l’IA. Le copier/coller saute aux yeux. L’IA est-elle une béquille à l’incompétence ?
Depuis notre révolution cognitive, il y a 70 000 ans, à quoi sert l’intelligence au Sapiens que nous sommes ? Elle nous sert à apprendre pour améliorer sa connaissance et sa compétence. Elle sert donc la performance et bien sûr à l’excellence. L’intelligence est aussi utilisée comme une arme stratégique pour nuire. C’est donc un outil de déviance. Alors, méfiance et vigilance ! L’IA est artificielle certes, mais puisque c’est de l’intelligence, elle peut servir à tout cela en même temps. Et en quoi la Spirale Dynamique pourrait-être utile au déploiement de l’IA ? C’est ce que je vous propose de voir .
Des experts battus sur leur terrain
Nous venons de voir que l’IA sert à la connaissance pour Madame et Monsieur tout le monde qu’en est-il du domaine de l’expertise ? Aujourd’hui, les experts s’en servent comme outil d’excellence pour compiler des milliards d’informations que le cerveau, même d’un expert du domaine, ne peut pas réaliser. Grâce à l’IA, les experts peuvent aujourd’hui diagnostiquer ce que l’oeil de l’expert ne peut pas détecter. L’IA sert aujourd’hui aux radiologues pour un diagnostic encore plus anticipatif du cancer du sein. C’est un exemple parmi d’autres. Pour l’expert, l’IA est un outil de performance et d’excellence pour le bien de l’Humanité. Vous aurez remarqué que dans cet exemple d’utilisation, l’IA est en support de l’expert. Notamment pour annoncer un diagnostic positif à la patiente. Y a-t-il le revers de la médaille à l’utilisation positive de l’IA ? Évidemment !
Le coaching sauvé par la conscience
Dans le domaine du coaching, certains imaginent de substituer le coach humain à un coach virtuel, programmé pour poser des questions. Le métier de coach se résumerait-il à poser des questions ? J’ai récemment publié un article (1) dans lequel j’ai posé la question à l’IA si elle avait une conscience. Heureusement, elle m’a répondu par la négation. Dans ces conditions, peut-on imaginer un être humain accompagné par une machine qui n’a ni conscience, qui n’a jamais exprimé des émotions, ni ressenti des sentiments et compris ce que ça représente, sans empathie donc ? Le code de déontologie du métier de coach professionnel serait un frein à de telles pratiques. L’IA ne peut pas remplacer la conscience humaine.
Biais et déviance de l’IA
L’IA fonctionne à la manière dont on alimente un enfant à l’école. On l’alimente avec des données, beaucoup de données ! Elle apprend et on lui fait passer des tests pour contrôler ce qu’elle délivre après son apprentissage. Puis, elle est mise en exploitation. Elle délivre donc les informations à partir de sa programmation. Elle a certes compilé des milliards d’informations, mais, comme un enfant à qui on a enseigné une idéologie, elle peut amplifier les biais cognitifs. Ces biais peuvent être le résultat intentionnel de ceux qui alimentent l’IA. Il y a deux conséquences à l’utilisation d’informations biaisées. La première conséquence est de délivrer des informations orientées à une masse d’individus qui, tels des robots, vont les propager, souvent en toute bonne foi. L’IA peut donc servir une propagande et donc une idéologie. La seconde conséquence est de servir de base à des décisions orientées et donc discriminatoires. Comme les informations prises par l’IA sont diffuses, la responsabilité l’est tout autant. L’IA peut concourir à la prise de décisions dont on ne peut plus déterminer la responsabilité. Particulièrement aujourd’hui dans l’exercice de la guerre, fleurissent des armes autonomes qui n’engagent plus la vie des êtres humains et qui peuvent décider de tuer ou pas, sans intervention humaine. C’est possible. Mesure-t-on vraiment le degré de dangerosité de ce type d’arme ? Pour le manipulateur qui cherche à nuire, l’IA deviendrait-elle une arme à la déviance en libérant la responsabilité de l’acteur de cette déviance ? Analysons d’autres risques de déviance liés au déploiement de l’IA.
L’IA dans le domaine de la surveillance des individus
Auparavant, l’efficacité de la surveillance politique des individus était basée sur le zèle des membres de la police politique comme la Gestapo, la Stasi ou le KGB. Parce que l’IA sait traiter rapidement des milliards d’informations, elle peut très simplement surveiller des milliards d’individus. Avec Internet et les réseaux sociaux, c’est un jeu d’enfant pour l’IA. Les pays totalitaires, comme la Chine, sont devenus performants dans l’utilisation de l’IA dans ce domaine. L’IA peut surveiller des citoyens déviants vis-à-vis des lois en vigueur et ainsi être plus efficace pour mieux protéger une République démocratique. Suivant la doctrine de référence de cette République, l’utilisation de l’IA peut vite devenir déviante, à des fins de pouvoir.
Je pourrais multiplier les exemples d’utilisation de l’IA, dans ce qu’elle a de meilleur et de pire en même temps. Est-ce une spécificité de l’IA ? Évidemment que non. Je vais prendre quelques exemples d’inventions humaines.
Quelques exemples d’utilisation d’inventions humaines
Un des exemples qui a marqué l’histoire de l’Humanité, c’est la poudre à canon. Elle a été trouvée, par hasard, par les Chinois entre le VIIe et le Xe siècle et perfectionnée tout au long de son développement. Initialement, les Chinois l’ont utilisée pour des feux d’artifice à l’occasion de fêtes souvent religieuses ou de divertissement. Très rapidement, comme une trainée de poudre, cette découverte s’est répandue sur la planète entière. Sapiens a trouvé d’autres utilisations, notamment pour rendre encore plus efficace la guerre. Comme Sapiens est capable, en même temps, du meilleur comme du pire, évidemment, la poudre à feux d’artifice a été utilisée à d’autres fins ! Et vous aurez noté ce qui reste de son histoire. On l’appelle aujourd’hui « poudre à canon » et non « poudre à feux d’artifice » !
Voici d’autres exemples. L’avion est un outil de déplacement pour réduire les distances. Il sert aux loisirs et à resserrer les liens d’une famille éparpillée sur la planète. L’avion a aussi servi de missile sur des buildings de Manhattan comme arme de guerre à des fins idéologiques. La recherche scientifique a fait un bond colossal lorsqu’elle a pu maîtriser la manipulation de l’ADN. Là aussi, pour le meilleur et le pire en même temps. Et c’est là où je voulais en venir ! Dans le domaine médical, il y a un encadrement éthique sur la décision ou non d’utiliser le fruit de la créativité humaine capable d’inventer des outils particulièrement performants, en même temps, pour le meilleur et pour le pire de l’Humanité. Ça s’appelle l’éthique ! Qu’existe-t-il comme instances de contrôle du déploiement de l’IA en France, en Europe et dans le monde ?
Comment s’organise l’éthique de contrôle du déploiement de l’IA ?
En 2021, les 193 membres de l’UNESCO ont adopté la première norme mondiale sur l’éthique de l’intelligence artificielle (2) qui vise au respect des droits humains en demandant à ses États membres la mise en oeuvre de ces principes éthiques. Fondée en 1961 et regroupant 38 pays membres, l’OCDE, l’Organisation de coopération et de développement économiques a travaillé sur les principes d’utilisation de l’IA. Elle a fixé des principes qui visent à promouvoir « une IA innovante et respectueuse des droits humains, en mettant l’accent sur la transparence, la responsabilité et la protection des données personnelles. » En 2022 en France, le Conseil d’État s’est prononcé pour que la CNIL joue « un rôle dans la gouvernance du futur règlement IA. » (3) Enfin, l’Union européenne a diffusé sur son journal officiel du 13 juin 2024, le règlement européen sur l’intelligence artificielle (4) visant à « garantir une IA respectueuse des droits fondamentaux. »
On voit que depuis 2021, les différentes instances internationales, européennes et nationales françaises s’organisent pour rédiger des textes et des principes relatifs au déploiement de l’IA. Mais concrètement, quel est l’impact de ces textes sur l’utilisation réelle de l’IA ? À l’évidence, l’ensemble de ces principes et règlements ont un train de retard sur le déploiement anarchique actuel de l’IA. Autrement dit, rédiger des principes et des règlements, c’est bien. Mais les faire appliquer par une instance de contrôle avec un pouvoir de sanctionner l’organisme ou l’État qui utiliserait l’IA en dehors de l’éthique, c’est autre chose. Nous en sommes loin ! Pendant que nous partageons sur les principes à adopter, comment maîtrisons-nous le déploiement de l’IA dans nos vies ? Les enjeux sont notre liberté individuelle et l’avenir démocratique de l’Humanité.
En quoi la Spirale Dynamique serait utile au contrôle du déploiement de l’IA ?
En introduction, je posais cette question, en quoi la Spirale Dynamique pourrait-être utile au déploiement de l’IA ? D’abord, comme concept de l’évolution de l’Humanité, la Spirale Dynamique est devenue un outil d’accompagnement du changement. Ce concept montre, simplement, comment l’Humanité a évolué depuis la révolution cognitive de Sapiens, il y a 70 000 ans, au travers de 6 niveaux de conscience et de systèmes de valeurs tous contraires les uns aux autres. Ces 6 niveaux de conscience ont tous émergé pour régler la crise existentielle du niveau précédent. C’est donc que chacun de ces niveaux de conscience apporte le meilleur et, en même temps, le pire pour l’évolution de l’Humanité.
À l’initiative de ce concept, Clare Graves a imaginé la suite de l’évolution de l’Humanité, que je résume ainsi. Puisque les 6 premiers niveaux de conscience ont chacun créé une crise existentielle et une impasse, pour sortir de la complexité actuelle, il suffit de « n’intégrer, en même temps, que le meilleur de tous les contraires dans une tension créative. » C’est le niveau d’existence JAUNE après le saut majeur de conscience qui permet de dépasser la crise existentielle du monde complexe dans lequel nous vivons aujourd’hui. La rédaction des principes éthiques et leur application sont la déclinaison concrète de ce nouveau niveau d’existence JAUNE qui nous sortira de l’impasse.
En conclusion
Comme pour la découverte de l’énergie nucléaire, Sapiens a trouvé les moyens de consommer toujours plus d’énergie, sans émission de CO2 et en consommant une quantité infinitésimale de matière. Et en même temps, la découverte de l’énergie nucléaire nous fait entrer dans une ère dans laquelle nous avons les moyens de notre propre destruction. Pour l’IA, on en est là. La mise en place de l’éthique en matière d’utilisation de l’IA est une course de vitesse avec ceux qui veulent l’utiliser pour le pouvoir du monde plutôt que pour l’évolution harmonieuse et globale de l’Humanité.
« La spirale dynamique est un outil pour comprendre les crises » Christian Sempéres (Interview)
« Oui à l’IA Act mais avec modération » Thierry Berthier (interview)
« Méfions-nous des usages spirituels de l’IA » Grégory Aimar (Interview)
« IA ou pas, nous ne connaitrons jamais le bout de rien » Philippe Gagnon (interview)
« Déclaration de Bletchley sur IA : c’est bien mais… » Marc Rameaux (Interview)