Alors que la bataille de la vérité fait plus que jamais rage sur le web avec notamment la sortie des twitter-files et que la question de la confiance dans les sources d’information est sous tension, Marc Rameaux pose ici un long regard critique sur les métiers de vérificateurs de l’information qui ont émergé ces dernières années avec le digital. Une opinion qui ne manquera pas de susciter des réactions. Le débat est lancé. L’opinion de cet auteur étant l’une parmis d’autres que publie Europeanscientist, si vous souhaitez la contredire, n’hésitez-pas à nous envoyer une contradiction.
Ils ne méritent pas qu’on leur prête une grande attention mais ils font un bruit désagréable. Par ailleurs, ils sont très représentatifs de la superficialité de notre époque. Enfin, ils peuvent avoir un impact concret, non pas sur le plan scientifique mais sur des décisions politiques, dans une époque où il n’est pas rare que des imposteurs aient pignon sur rue. Aussi devient-il nécessaire de rappeler quelques éléments de rationalisme critique à ceux qui estiment en être les détenteurs.
Il n’existe pas de faits isolés, il n’existe que des thèses concurrentes
Ceci devrait être un point connu, il s’enseigne dès la première année d’épistémologie et même dans le milieu non scientifique des écoles de journalisme. Nous n’avons pas plus affaire à des faits isolés qu’à la réalité en soi : la science construit des représentations, des modèles, parce qu’elle n’appréhende pas la réalité a priori. A posteriori, lorsqu’elle se livre à des vérifications, elle n’a pas plus accès à cette réalité objective. Elle ne vérifie pas ses hypothèses sur des faits élémentaires, atomiques : les faits sont indissociables de la théorie, amalgamés dans une gangue. La confrontation à la réalité se fait de façon indirecte, nécessite une interprétation et s’effectue par comparaison entre différentes thèses concurrentes.
Ces éléments sont connus depuis Kant, qui traça une ligne de démarcation entre monde nouménal et monde phénoménal, entre réalité en soi et représentations de cette réalité, entre métaphysique et science. L’impossibilité d’accéder directement à la réalité nous enclot dans un monde de représentations. Personne ne « lit » directement la nature.
Kant jeta les bases du déductionisme : nous n’abordons jamais la réalité de façon neutre : nous nous y confrontons avec une armature a priori liée à la fois aux particularités de nos sens, et à la représentation intellectuelle que nous en formons. L’inductionisme, croyance naïve que nous ingurgitons directement la réalité naturelle pour la restituer, n’est plus sérieusement défendue par aucune épistémologie reconnue.
Le critère de démarcation fut développé et affiné par Karl Popper. L’esprit scientifique se caractérise non pas par l’énonciation de thèses infaillibles, mais justement l’inverse, de thèses s’offrant volontairement à la réfutation et à la confrontation à des thèses alternatives. Avec Popper, l’on découvre que se placer sciemment en position de faiblesse dans le domaine intellectuel est une preuve de grande force et qu’a contrario, ne tolérer aucune contradiction pour édifier un système infaillible est la marque des esprits faibles.
La vérification et la confrontation de nos thèses avec l’expérience est centrale chez Popper. En revanche, elle ne se fait nullement par une simpliste « vérification par les faits », comme celle d’un contrôleur pourvu d’une fiche avec des cases binaires à cocher. En cohérence avec le déductionisme, Popper voyait qu’il était impossible de dissocier totalement faits et théories.
Aussi, la vérification se fait-elle non pas par une confrontation de la théorie aux faits, mais par l’examen de plusieurs théories concurrentes, en classant en premier celles qui possèdent le meilleur pouvoir d’explication et qui résistent le mieux aux incohérences. Popper ne voyait que trop bien le problème d’impossibilité de faits isolés : il parle pour y remédier de « verisimilitude » (sans les accents pour reprendre le terme en anglais).
Bien entendu, les faits existent en sciences, sans quoi elles verseraient dans le relativisme. La mesure d’une fréquence, d’une intensité électrique, d’une vitesse ou d’un poids semblent être suffisamment circonscrites pour constituer des faits isolés. Le connaisseur des sciences physiques sait cependant que de telles mesures sont indissociables de la théorie au sein de laquelle elles sont interprétées. La science s’expose volontairement à la réfutation et va chercher à libeller ses points de confrontation de la façon la plus circonscrite possible, par l’emploi d’un langage formel. Mais même avec cet effort de formalisation, les éléments de réfutation demeurent relatifs à la théorie qui les porte.
Popper parle pour cette raison de « tests critiques » et non de faits isolés : on cherche à « piéger » les hypothèses pour éliminer celles qui ne sont plus plausibles, non à placer trivialement un fait en face d’une proposition. Le travail du scientifique ressemble en cela à celui du détective, procédant par recoupement et par cohérence de l’ensemble d’un système d’explication, non par une simple mise en correspondance.
Le critère de démarcation Poppérien est un parfait équilibre, permettant de renvoyer dos-à-dos le relativisme et l’absolutisme. Le caractère indirect et non direct de la vérification permet d’éviter toute prétention à lire le réel directement, à affirmer que l’on possède LA méthode ou LA vérification.
La confrontation volontaire à la réfutation et la mise en concurrence des théories sur le degré d’explicativité évite le relativisme, sépare la science de la simple question de point de vue pour en faire un savoir ayant un statut à part. Il existe bien une objectivation en sciences, mais celle-ci ne provient pas d’une sorte de faculté surnaturelle des scientifiques à effacer toute subjectivité.
En conclusion de ce premier point, il résulte qu’un scientifique ne « vérifie » jamais la théorie d’un autre scientifique : soit il la confirme, soit il propose une contre-théorie concurrente. Nous sommes condamnés à n’émettre que des théories partiales et partielles et à les confronter à celles des autres par des compétitions de vraisemblance et de puissance explicative. Personne ne peut prétendre être « factuel » : lorsqu’on le prétend, l’on ne fait que défendre en réalité une autre thèse, que l’on en soit conscient ou pas.
L’honnêteté intellectuelle ne consiste pas à prétendre être « neutre », « impartial » ou « indépendant », pas plus que l’on est scientifique en le prétendant.
Penser que l’on peut « vérifier » un travail scientifique de façon neutre, sans soi-même s’engager dans une thèse adverse critiquable, revient à la prétention ridicule de penser avoir un rapport privilégié à la vérité, d’être sorti de la caverne. A quel titre ?
Méthode scientifique, questions de logique, misère du simplisme
Deuxième point épistémologique essentiel à connaître : est-il possible de définir LA méthode scientifique et corrélativement de prétendre que si l’on applique « la » méthode scientifique, celle-ci garantit que toute recherche ou tout travail scientifique se déroulera bien et rigoureusement.
La question est réapparue lors de la crise sanitaire et de la controverse Raoult. Je n’ai jamais pris un parti pris tranché pour l’un ou l’autre camp . En tant que statisticien, je ne pouvais que m’élever contre certaines insuffisances méthodologiques du professeur marseillais. Mais lorsque beaucoup trop de ses contradicteurs ont usé d’arguments fallacieux, je devais également y réagir.
Parmi les reproches faits à Raoult, figure notamment celui de ne pas appliquer « la méthode scientifique ». J’ai suivi des études scientifiques assez poussées. Je n’ai jamais trouvé un ouvrage expliquant ce qu’est « LA » méthode scientifique, en quoi elle consiste et en quoi elle garantit la rigueur de toute démarche. Si un tel merveilleux livre existait, nul doute qu’il figurerait en première place des ouvrages obligatoires de tout cursus scientifique.
Cette question est corrélative d’une autre, bien connue en épistémologie : est-il possible d’automatiser totalement les protocoles scientifiques, de rendre leur mode opératoire totalement mécanique. L’intention est louable : le savoir scientifique est censé ne pas être « human dependant » : il devrait pouvoir être déroulé en dehors de tout affect et toute psychologie humaine. Il devrait ne pas dépendre du talent scientifique de son créateur.
Cette question est tranchée depuis longtemps. La tentative de mécanisation la plus célèbre, au moins de la preuve mathématique à défaut du mode opératoire de toutes les sciences, a été menée par le grand David Hilbert. Son impossibilité a été prouvée par le génie de deux hommes : Kurt Gödel et Alan Turing, avec deux sens de ce qu’est l’indécidabilité. Il est impossible d’automatiser toute démonstration mathématique, et le plus extraordinaire est que cela se démontre !
L’indécidabilité au sens de Gödel montre que quelle que soit votre tentative de formalisation, il existera toujours une proposition qui échappera à votre protocole de preuve, qui sera vraie sans être démontrable.
L’indécidabilité au sens de Turing apporte une précision supplémentaire, car le résultat de Gödel est un simple théorème d’existence, sans aller plus avant. Le résultat de Turing est de distinguer des classes de problèmes pour lesquels il existe un algorithme général permettant de tous les résoudre, et des classes de problèmes pour lesquels aucun algorithme général ne peut en apporter la solution.
Un exemple ? Ci-dessous, en voici un tiré des extraordinaires travaux de Jean-Paul Delahaye :
On ne peut trouver une méthode qui permette de paver le plan avec n’importe quel jeu de polygones, ou de statuer qu’il est impossible de le faire avec ce jeu. L’on est obligé de trouver de nouvelles méthodes de preuve, c’est-à-dire d’avoir un raisonnement ad’hoc, en fonction des jeux de polygones proposés. L’indécidabilité est liée à la nature du continu mathématique, les possibilités à explorer nécessitant de parcourir une infinité d’angles avec la puissance du continu. La présentation de JP Delahaye est éclairante : « Pour traiter de nouvelles situations, le mathématicien sera inévitablement amené à inventer de nouvelles méthodes de raisonnement : jamais aucun procédé général mécanique ne réussira à englober tous les cas possibles… »
Douglas Hofstadter résume ceci d’une formule élégante, « l’être humain ne pourra se passer d’être intelligent, quelle que soit l’intelligence qu’il déploie pour y parvenir ». Ceci est une bonne nouvelle pour les professions scientifiques : ils ne seront jamais remplacés par une machine, même par une IA.
Cette problématique est un dilemme classique de la philosophie des sciences, présente dans nombre d’autres domaines que les mathématiques. Dès lors qu’une méthode scientifique aborde des problèmes suffisamment complexes, elle sera sujette à des questions d’indécidabilité.
Dans le domaine de la médecine, la controverse Raoult a ainsi mené à des excès totalement idéologiques, celui de présenter les RCT comme « LA » méthode scientifique et de forcer le trait contraire en disant que les méthodes observationnelles étaient une abomination digne d’obscurantistes.
Si Raoult est plus que critiquable pour avoir traité les RCT par le mépris, il est tout aussi condamnable de verser dans l’excès inverse. Quiconque a véritablement pratiqué les RCT sait qu’elles sont les plus efficaces pour éliminer les biais… que vous avez décidé d’éliminer et qui se trouvent dans votre échantillon observable. Dès que vous voulez élargir leur résultat à des populations plus larges, des biais non inclus à votre tirage aléatoire peuvent apparaître et toucher des populations à qui il ne faut pas administrer le médicament alors que la RCT précédente vous disait de le faire. En résumé, lorsque vous faites une RCT, il y a un biais sur votre choix d’élimination des biais.
Il s’agit tout simplement de la notion de robustesse en statistiques : lorsque votre modèle bute sur ses limites de robustesse, que devez-vous faire ? Prendre du recul sur votre modèle que vous ne pouvez appliquer aveuglément, revenir à de l’interprétation causale, … sur la base de données observationnelles. Celles-ci vous suggéreront les nouveaux biais à éliminer, ce qui amènera à reconduire une RCT plus large, etc. : n’importe quel bon Data Scientist alterne des phases d’application mécanique de son modèle et des phases de réinterprétation de ce qui se passe lorsqu’il rencontre des problèmes de robustesse (overfit, nouveaux biais imprévus, etc.).
Ce qu’il faut retenir de ce deuxième point est qu’il n’existe aucune méthode scientifique a priori : nul ne peut juger par avance si un protocole est scientifique, l’on ne peut le reconnaître qu’a posteriori et il n’existe aucune méthode générale pour le faire. De même que pour le premier point, la condition humaine nous oblige à la représentation, ce deuxième point nous oblige à l’investigation : nul homme ne dispose d’une faculté supra-naturelle lui permettant de juger du caractère scientifique d’une thèse par une procédure entièrement générale. Il doit non seulement rentrer dans le protocole particulier de chaque théorie, mais pourra être amené à inventer de nouvelles méthodes pour le faire : personne ne peut s’appuyer sur une méthode générale pré-établie pour réfuter un raisonnement.
Il pourrait nous être objecté qu’il existe pourtant une méthode permettant de statuer sur le caractère scientifique ou non d’une thèse, précisément le critère de Karl Popper. Cependant, la pensée de Popper établit un critère de démarcation ce qui est un objectif bien plus modeste qu’une méthode : il n’y a aucun mode opératoire dans le critère Popperien, aucune série d’étapes à appliquer. Simplement un indice permettant de nous alerter : la thèse que nous examinons se rend-elle disponible ou non aux contre-arguments ? Mais pour le prouver, nous ne trouverons nulle part une méthode pré-établie : nous devons nous-mêmes trouver les arguments à avancer.
Les zététiciens : quand la prétention à la rationalité cache un ego de frustré
La zététique tombe dans un piège élémentaire dès sa création : par l’invention d’un terme consacré à cela, elle se place d’emblée comme en position de juger « objectivement » et de « corriger » tout discours. C’est pourtant un petit phénomène Russellien de circularité qui permet de comprendre que quiconque s’approprie le discours scientifique montre par là-même qu’il ne comprend rien aux sciences, quiconque s’approprie la raison la trahit encore plus profondément que ceux qui la renient.
Les zététiciens montrent l’arrogance puérile de ceux qui refusent la condition humaine valable pour tous : celle de devoir avancer des thèses réfutables, non des arguments prétendant se placer au-dessus de la mêlée. Dans le domaine de la pensée, nous sommes tous dans l’arène.
Certains journaux ont introduit des rubriques de « fact-checking » au sein de leurs colonnes, comme si certains articles pouvaient avoir un statut privilégié à l’égard de la vérification et de la vérité. A quel titre ? Au nom de quoi ? Pour quelle raison les rubriques de fact-checking ne seraient-elles pas simplement des contre-thèses, au même niveau que les autres articles ? L’autre pratique journalistique de tribunes contradictoires est intellectuellement beaucoup plus saine, annonçant dès le départ que nous avons affaire à deux thèses critiquables.
De fait, toutes les rubriques de « fact-checking » portent de façon sous-jacente des convictions, des engagements idéologiques clivants, des biais cognitifs et personnels de toutes sortes. Ce n’est pas de cela dont nous faisons le reproche : ces orientations sont inévitables. Leur ridicule provient de la prétention à se placer au-dessus des autres concernant la solidité des arguments et de la preuve.
Un bon mot dit que lorsqu’il est nécessaire d’expliciter une plaisanterie, c’est qu’elle ne doit pas être très bonne. Il en est de même des preuves et arguments : s’il est nécessaire d’affirmer péremptoirement qu’ils sont meilleurs que ceux des autres, c’est que ce n’est probablement pas le cas. Leur simple énonciation doit se suffire à elle-même.
Le fait de créer un terme spécifique, la zététique, est déjà la preuve d’une telle faiblesse et d’une psychologie puérile, comme si un mot allait leur conférer le pouvoir surnaturel de lire directement les faits élémentaires de la réalité, et se dispenser du risque d’énoncer modestement une thèse. Les meilleurs maîtres de la philosophie analytique anglo-saxonne avaient une expression ironique pour désigner cette attitude : « ceux qui représentent le point de vue de Dieu ».
Je n’aurais aucune difficulté à reconnaître qu’Henri Poincaré ou Richard Feynman se plaçaient au-dessus de la mêlée, mais précisément, ces deux grands penseurs n’avaient nullement besoin d’affirmer cette supériorité, ils se contentaient d’avancer leurs arguments et leurs preuves. Nul besoin pour eux de s’auto-décerner un label ou une appartenance à je ne sais quelle secte de personnes se considérant comme supérieures.
D’où peut provenir une telle prétention intellectuelle ? Axer totalement son activité sur la « vérification » et le « redressement » des autres relève déjà d’une psychologie malsaine. La science est avant tout une épopée dans laquelle on désire s’embarquer pour vivre une magnifique odyssée. Vouloir « vérifier » à tout prix la pensée des autres au lieu d’être attiré par l’air du large et la ferveur des controverses scientifiques attire certains profils : ceux qui se sont définis en « gardiens de l’orthodoxie » l’ont fait la plupart du temps à la suite d’une carrière ratée..
Si la vérification est importante en sciences, c’est le duo qu’elle constitue avec l’imagination qui en fait la valeur. La véritable vérification en sciences est d’ailleurs le fait d’hommes de génie et de belles inspirations : Georges Charpak fut récompensé pour un dispositif de mesure, la chambre à fils, non pour la création d’une théorie. Mais la merveille d’imagination et d’astuce que représente une chambre à fils montre le niveau que requiert la vérification en sciences et son lien indissociable avec la créativité des théories : nous sommes bien loin du simplisme des zététiciens et « fact-checkers ».
Certains zététiciens objecteront sans doute qu’ils privilégient le doute et la discussion, que la zététique ne leur appartient pas, qu’elle n’est qu’une ligne de conduite. Le problème est que leurs actes contredisent totalement leurs paroles. Les zététiciens apparaissent davantage comme des experts de la posture arrogante et méprisante que de la vérification en sciences. Ils font penser à certaines de ces personnalités publiques qui disent être ouvertes à la discussion mais s’empressent d’agir exactement de façon contraire lorsque le débat s’anime. Ou d’entreprises mettant en avant leurs « valeurs », leur « éthique », pour contredire ensuite exactement dans les actes ce à quoi elles prétendent en paroles.
La zététique est également cousine de certains discours politiques « progressistes » : il n’est plus nécessaire de débattre avec l’autre, on le « vérifie », le contrôle, voire le redresse si nécessaire. Raymond Aron avait déjà fort bien analysé ce phénomène dans « l’opium des intellectuel » : le camp progressiste représentant le bien face au camp de la réaction et de l’obscurantisme, il ne peut se tromper et peut s’autoriser n’importe quelle méthode, même manipulatrice ou mensongère. Qu’il s’agisse du communisme de l’époque d’Aron, de l’idéologie woke, de la suffisance macroniste, le texte d’Aron n’a pas pris une ride et continue de s’appliquer. La zététique n’est que la transposition de cet opium dans le domaine des sciences. Qui n’a pas rencontré ce discours progressiste affirmant en préalable à toute discussion : « je représente l’ouverture d’esprit et la raison, vous représentez l’obscurantisme et la fermeture aux autres, à présent débattons ». Ni la conscience d’une circularité auto-contradictoire ni le doute n’apparaissent une seule seconde chez ces esprits, pas plus que le minimum syndical de modestie de se demander s’ils ne sont pas sous l’emprise de leur ego plutôt qu’en recherche de rationalité.
Enfin, la zététique aime les victoires trop faciles, marque des esprits faibles. Quel mérite y a-t-il à réfuter un platiste, un pratiquant de spiritualités de pacotille ou un négateur des attentats du 11 septembre ? Encore que même pour de telles thèses, il faut avancer les contre arguments nécessaires. Aimer ce type de « victoire » démontre un curieux biais psychologique, celui de s’auto-investir de la panoplie du justicier. Il s’agit d’ailleurs d’un trait commun aux complotistes et aux « officialistes » : ceux qui doutent systématiquement de tout discours officiel comme ceux qui s’y rallient sans recul critique sont des opposés se ressemblant comme deux gouttes d’eau.
Les zététiciens se présentent souvent comme l’antidote aux complotistes, mais leur mode d’argumentation est identique. Se présenter comme le courageux résistant face aux forces obscures de l’ordre mondial ou comme le gardien de la lumière contre l’obscurantisme est une opposition idéologique de façade, mais relève de la même puérilité psychologique de se déguiser en justicier, négation même de l’esprit critique. J’ai eu à écrire sur cette symétrie en miroir entre complotistes et anti-complotistes dans le domaine de la géopolitique (1).
« Complotiste » ou « officialiste » sont des termes idéologiques n’apportant rien en termes de valeur argumentative. La condition humaine est d’accepter d’argumenter et explorer les discours qui nous sont proposés, ni plus ni moins. Les canaux officiels de la science ou de l’information sont souvent justes, ils ne le sont pas systématiquement et peuvent faillir, nous ne pouvons que les examiner au cas par cas.
La faiblesse de la zététique se révèle lorsqu’elle entreprend comme à son habitude de se placer en professeur relevant et notant les copies sur des sujets complexes, ceux sur lesquels une véritable confrontation de thèses adverses est nécessaire, non un simulacre de discussion où l’un des interlocuteurs s’est placé de lui-même en position de sachant.
La querelle Raoult en a fourni le premier exemple. La quasi-totalité des zététiciens est tombée dans le panneau de l’article du Lancet rédigé par Surgisphere, le relayant avec enthousiasme sans aucun recul critique. Leur mauvaise foi éclatait à cette occasion, car après avoir qualifié les études observationnelles de méthode de rebouteux face aux RCT, ils trouvaient soudainement des vertus à l’observationnel, l’article du Lancet relevant de ce type d’étude. Le raisonnement « scientifique » non avoué étant qu’à partir du moment où un travail disait du mal de Raoult, il ne pouvait être entièrement mauvais.
Des arguments élémentaires permettaient pourtant de jeter a minima de très gros doutes sur l’article de Surgisphere. J’ai fait partie des premiers data scientists en France à démonter les ressorts de la supercherie : je n’en tire pas orgueil, plusieurs milliers de personnes, ceux de la communauté des véritables data scientists de par le monde, ayant abouti aux mêmes conclusions. Le mérite revient avant tout à Peter Ellis, statisticien néo-zélandais, qui a rassemblé l’ensemble des éléments nécessaires pour démontrer la supercherie, par une argumentation très précise et dense (2) .
Peter Ellis n’a eu nul besoin de se parer d’un titre pour cela, ni de dire qu’il était en position de corriger les autres : il n’a fait qu’avancer une contre-thèse en laissant le soin aux tiers de juger ce qui était le plus vraisemblable. Quelques jours après son analyse, le Lancet désavouait l’article. A noter que j’ai été copieusement traité de complotiste pour avoir remis en cause cet article, insulte proférée sans avoir examiné le moindre commencement de mes arguments, et qu’aucune excuse n’est provenue d’aucun zététicien après leur soutien à cette fraude scientifique d’envergure.
Les critiques à l’encontre de Raoult, que je ne me suis pas privé d’émettre, soulevaient un débat sur les méthodes scientifiques en médecine, sur la place des RCT, beaucoup plus complexe qu’il n’y paraît. Mon article pré-cité dans « The European Scientist » a tenté de synthétiser les termes du débat. Les zététiciens se sont contentés d’invectives, d’accuser Raoult d’être un « charlatan ». Si je devais résumer ma position en une phrase, je dirais que Raoult est un très bon médecin des années 1970, ce qui inclut à la fois ma reconnaissance d’une partie de son travail et les critiques qu’il est légitime de lui adresser.
La présentation tapageuse des RCT et de l’ « evidence based medicine » est un très mauvais pli pris dans une partie du monde scientifique, du fait du « publish or perish » : il faut absolument présenter les travaux qui ont précédé comme un tombereau d’âneries entachées d’erreur, la nouvelle méthode comme une merveille inattaquable, permettant de se relier directement à la « vraie réalité », tandis que les tentatives précédentes se vautraient dans l’obscurantisme. De telles présentations relèvent bien plus du marketing personnel que de la science, et démolissent au passage des siècles de patiente construction du rationalisme critique.
Cette présentation de l’EBM montre à quel point nous avons régressé dans l’argumentation et la complémentarité rétablie entre RCT et observationnel montre qu’aucune méthode n’est parfaite. La science progresse par un patchwork de méthodologies ayant toutes leurs forces et leurs faiblesses, appliquées parfois de façon complémentaire et par recoupement. Si des méthodes plus puissantes que les précédentes voient le jour, aucune ne représente l’accès à « la vraie réalité ».
Le deuxième exemple de sujet trop complexe pour le simplisme zététique est celui du réchauffement climatique et des « preuves » apportées par le GIEC. De plus en plus de voix de scientifiques de renom soulignent la fragilité des modélisations du GIEC. Le physicien Robert Hamilton Austin en est l’un des meilleurs exemples. Austin ne s’engage dans aucun terrain idéologique. Il fait seulement remarquer que toute modélisation doit être évaluée en termes de robustesse et d’incertitude, particulièrement s’il s’agit de modèles prédictifs temporels sur de très longues périodes. Sur le plan méthodologique, le bulletin météo à une semaine du 20h est largement plus fiable que les hypothèses très fragiles du GIEC, présentées comme des certitudes indubitables.
Si j’estime que le réchauffement climatique est une menace potentielle devant être placée sous surveillance, celle-ci ne devrait être positionnée que dans les niveaux de risque moyens, bien après des dangers écologiques beaucoup plus avérés tels que la surpopulation, la déforestation ou la pénurie d’eau potable.
Surtout, les supputations relatives aux causes du réchauffement climatiques ne devraient certainement pas commander un agenda délirant de remplacement des propulsions thermiques automobiles ou de développement « d’énergies nouvelles » au bilan énergétique et écologique plus que contestable. La zététique ne retrouverait un peu de crédibilité que si elle s’attaquait avec autant de force aux diverses escroqueries pseudo-écologiques menées en conséquence des rapports du GIEC, qu’à ceux qui osent le critiquer.
Enfin le troisième exemple soulignant le simplisme de la zététique, est le débat actuel relatif à la vaccination contre le covid-19 et son lien à l’ensemble de la politique sanitaire du gouvernement.
Sur ce sujet, je tiens une position qui m’attire les foudres des deux camps :
- La vaccination est un principe médical et biologique très bien consolidé et ne doit pas être remis en cause par les politiques de santé publique.
- Un vaccin n’empêche jamais la transmission d’une maladie, qu’il s’agisse des vaccins classiques administrés depuis des décennies ou de ceux contre le Covid 19.
- Le vaccin n’empêche pas directement la transmission de la maladie mais il ralentit voire éteint indirectement sa propagation. Il est amusant de noter que cette explication n’est presque jamais avancée dans les débats entre antivax et zététiciens, montrant la pauvreté intellectuelle de part et d’autre. Si aucun mécanisme biologique lié au vaccin n’interdit de façon causale la transmission de la maladie, le vaccin diminue en probabilité les risques de la contracter et diminue également le temps de rétablissement et de contagion pour chaque individu. Indirectement, il diminue ainsi la probabilité de chaque maillon de la chaine de transmission. Une image le fait bien comprendre : si le vaccin n’attaque pas directement le feu de la contagion, il rend le terrain de la population beaucoup plus ignifuge, comme une terre plus résistante qui transmet moins les flammes. Le feu finit par s’éteindre non parce qu’on en a attaqué directement les flammes, mais parce que la probabilité critique est devenue suffisamment basse pour que la transmission décroisse puis s’éteigne. C’est ainsi que plusieurs maladies classiques ont pu être totalement éradiquées en France, bien qu’elles puissent potentiellement ressurgir à titre individuel et se répandre sur une courte durée.
- Les effets secondaires des vaccins à ARN messager sont moins bien connus que ceux des vaccins classiques. L’administration de ces vaccins relèvent dont d’une appréciation – et d’un pari – sur la balance risques / bénéfices. Il n’y a rien de scandaleux à cela : beaucoup de décisions pharmaceutiques sont fondées sur une telle balance. L’on peut comprendre que la communication publique préfère ne pas insister sur cet élément d’empirisme et présenter le vaccin comme sûr. Il est en revanche mensonger de prétendre, lorsqu’il s’agit d’argumentation scientifique, que le niveau de risque est équivalent.
- Là encore, les communications sur les réseaux sociaux étaient de pénibles carricatures, dont celle qui invoquait le prix Nobel de 1965 décerné à André Lwoff, Jacques Monod et François Jacob, pour la découverte de l’ARN messager, supposée montrer que le principe du vaccin contre le Covid 19 était validé depuis longtemps.
Les trois temps d’une découverte scientifique, celui de l’énonciation de son principe, celui de sa formalisation mathématique ou physique et celui de sa mise en application industrielle, doivent être pris en compte : l’idée du calcul infinitésimal était exposée par Archimède, ne fut formalisée rigoureusement que par Newton et Leibniz dans un premier temps puis par Cauchy pour être vraiment précise et ne pouvait être exploité industriellement que récemment, par le calcul en éléments finis, lorsque les moyens numériques suffisants le permettaient. Le même amalgame mensonger était apparu concernant les RCT lors de la querelle Raoult : certains allèrent chercher un texte de Paracelse montrant que la réduction des biais par tirage aléatoire était déjà imaginée à son époque. Certainement, mais il fallut attendre Gauss et Fisher pour que les modèles mathématiques puissent représenter cette idée correctement. Et il fallut attendre encore les années 1980 pour que les RCT deviennent une réalité du monde médical, lorsque les moyens numériques d’échantillonnage et de calcul le permirent. Effacer ces trois temps relève soit de l’ignorance, soit de la malhonnêteté lorsque l’on possède une bonne culture scientifique : je laisse ceux qui ont usé du Nobel de 1965 choisir entre ces deux alternatives. J’ai considéré à titre personnel que la balance risque bénéfices demeurait en faveur des bénéfices, c’est pourquoi je me suis vacciné. Mais le point est plus que sujet à discussion et il est permis d’en discuter.
- La balance risques / bénéfices n’est évidemment pas la même selon l’âge et le profil médical de chaque individu, comme cela est le cas de la plupart des traitements en médecine. Il est donc légitime de protester contre une application aveugle du vaccin sans tenir compte de ces strates.
- Les conditions scientifiques d’application du vaccin sont une chose, la politique d’incitation voire coercition sanitaire en est une autre. L’introduction d’un pass sur lequel des informations personnelles et confidentielles figurent, contrôlables à merci par l’Etat, et permettant de moduler à merci les droits du citoyen par ce même Etat, pose un problème de liberté publique. Tous les Etats n’ont pas employé un pass sanitaire et parmi ceux qui l’ont fait, son application a été extrêmement différente d’un pays à l’autre. Il en est de même des actions de confinement, plus ou moins ciblées et accompagnées de suivi médical : vis-à-vis de plusieurs pays d’Asie non communiste, notre façon de traiter l’épidémie a été celle de pays sous-développés par rapport à des pays supérieurement organisés.
Les points d’argumentation qui précèdent ne satisferont aucune des deux formes dogmatisme, ni celle des Antivax primaires, ni celle des zététiciens. L’argumentation scientifique n’est pas affaire de déguisement dans une panoplie de justicier, mais de courage de véritablement confronter ses thèses, sans décréter préalablement à toute discussion que l’on occupe une position supérieure.
Le problème que rencontrent les zététiciens est que parmi ceux qui contestent les thèses officielles, l’on rencontre deux types de population : d’épais idiots et au contraire les meilleurs penseurs. Ce phénomène est naturel : dès lors que l’on sort de la zone du confortable conformisme, l’on se trouve à l’un des deux extrêmes d’une gaussienne, le pire comme le meilleur, les platistes ou bien Robert Austin, les conspirationnistes ou bien Peter Ellis. Au centre, se trouve la paresseuse médiocrité des zététiciens, ceux qui cofondent la rationalité scientifique avec la flatterie égotiste de se poser en « correcteurs », souvent le paravent d’une carrière scientifique ratée.
Le débat scientifique n’en ressort pas grandi. La véritable élite dans ces débats est celle de la tradition analytique anglo-saxonne, ceux qui depuis John Locke, en passant par Lord Acton, puis Popper, Quine et Putnam ont porté le flambeau du rationalisme critique. Ils n’ont nul besoin de s’affubler de noms ridicules ou de proclamer qu’ils pratiquent le doute : ils se contentent de le faire tous les jours en acte, montrant leur amour de la science et non d’eux-mêmes, en s’engageant dans des thèses sans avoir la prétention d’être les référents de la vérité.
Sur le plan scientifique, les zététiciens et fact-checkers ne méritent pas que l’on s’y attarde plus que quelques minutes car leur impact sur la véritable recherche est nul. Sur le plan social et politique, ils prennent en revanche un pouvoir inquiétant comme le font beaucoup d’imposteurs : la plupart des réseaux sociaux « branchent » directement leurs algorithmes de vérification et de censure à ces « sources indépendantes », qui portent pourtant des thèses souvent politiquement très orientées (cf par exemple en géopolitique les manipulations d’un journal présenté comme sérieux et respectable (3) ). Toute personne éprise de liberté de pensée doit se préparer à leur barrer la route, à la fois en tant que scientifique et en tant qu’homme libre.
(1) https://www.tribunejuive.info/2022/03/02/marc-rameaux-la-conjuration-des-imbeciles/
(2) http://freerangestats.info/blog/2020/05/30/implausible-health-data-firm
(3) https://www.tribunejuive.info/wp-content/uploads/2022/12/BAT_TJ_MAG_DOSSIER_SPECIAL_2022_WEB.pdf
Image par Arek Socha de Pixabay
A lire également
La Querelle Raoult (Série) : Le Big Data, une fantaisie délirante ?
La Querelle Raoult (série) : Les 11 leçons politiques du Covid 19
Très bon article.
Malheureusement, il y a déjà pire que le débunkage: c’est le pré-bunkage ou comment être « vacciné » contre les fake-news avant même d’y avoir été exposé. C’est-à-dire savoir reconnaître à priori qu’un article est « frauduleux » avant même de l’avoir lu…
Un rapport de l’OTAN et un autre de la Commission européenne (à l’intention des enseignants) à ce sujet sont disponibles sur les liens suivants:
https://stratcomcoe.org/publications/inoculation-theory-and-misinformation/217
https://education.ec.europa.eu/news/guidelines-for-teachers-and-educators-on-tackling-disinformation-and-promoting-digital-literacy-through-education-and-training
« La vaccination est un principe médical et biologique très bien consolidé et ne doit pas être remis en cause par les politiques de santé publique. »
Vous êtes tombé dans le travers que vous dénoncez.
Article essentiel, particulièrement sur la posture viciée à la base de la zététique. Par contre, je vous conseille d’éviter les raccourcis consistant à associer les tenants de la terre plate et ceux qui contestent l’explication officielle sur les attentats du 11 septembre (très pratiquement appelés c’est-à-dire insultés de « négationnistes » par les tenants de la théorie officielle). Les vrais « platistes » ne sont pas forcément ceux qu’on croit sur le sujet. Et idem pour les véritables « négationnistes »: posez-vous ou posez autour de vous la question du nombre de tours qui sont « tombées » le 11 septembre et vous obtiendrez généralement la réponse « deux ». Or, ce sont bien TROIS tours qui sont tombées le 11 septembre: les deux tours jumelles et, plus tard dans la journée, le WTC 7. Cette tour de 200 mètres de haut et faisant quatre fois la longueur de la tour Montparnasse n’a été touchée par aucun avion et s’est effondrée sur elle-même en quelques secondes. Toute personne raisonnable qui regarde les images de sa destruction comprend qu’il s’agit d’une destruction contrôlée. C’est d’ailleurs de la sorte que fut d’abord présentée la chute du WTC7: on avait été contraint de le détruire car il risquait de s’effondrer à tout moment. En oubliant dans l’histoire que détruire de façon contrôlée un tel bâtiment exigeait des semaines de préparation. Dès lors, la seule méthode était de faire disparaître de la mémoire collective la chute de cette troisième tour (encore une fois, faites le test autour de vous et vous constaterez que neuf personnes sur dix, « négationnistes » sans le savoir, vous répondront que deux tours sont tombées le 11 septembre, et pas trois).
D. Raoult n’a jamais contesté l’utilité des RCT, il a simplement fait remarquer que ce n’était pas l’ultime source pour traiter les malades. Bien des pratiques médicales efficaces ne reposent sur aucune RCT. Quand en faisant tel traitement vous constatez 4 fois moins de décès qu’auparavant, il n’est pas utile et encore moins éthique de faire une étude randomisée. Un constructeur automobile qui constate que la modification d’une pièce diminue certaines pannes ne va pas s’amuser à sortir 2 séries de véhicules avec ou sans modification pour confirmer. Quant à « médecin des années 1970 », j’attends que vous m’expliquiez ce qu’est un médecin des années 2020: un médecin qui ne soigne pas, sans doute. Une affirmation et blessante condescendante qui décribilise votre article. Mais visiblement la médecine est un sujet que vous connaissez très mal. Comme l’économie ? A votre manière vous êtes un fast-checker. Qu’ Hippocrate nous garde des statistiques.
@Marc Simon : vous me faites dire ce que je n’ai pas dit, voire exactement l’inverse de ce que je dis !
1. « D. Raoult n’a jamais contesté l’utilité des RCT, il a simplement fait remarquer que ce n’était pas l’ultime source pour traiter les malades. »
C’est également ce que je ne cesse de dire dans les colonnes de TES, dans le présent article et de façon plus approfondie dans celui-ci : https://www.europeanscientist.com/fr/redactions-choice-fr/la-querelle-raoult-serie-a-la-recherche-de-la-raison-dans-la-controverse-sur-lhydroxychloroquine/.
Je n’ai cessé de rappeler que les RCT n’étaient pas un absolu, qu’elles sont une méthode parmi d’autres avec leurs forces et leurs faiblesses et surtout qu’elles ne fonctionnent qu’en les mixant avec de l’observationnel et de l’analyse causale quand elles rencontrent des problèmes de robustesse. Un essai clinique complet va bien au-delà des seuls calculs statistiques et doit faire appel régulièrement à des connaissances médicales lorsque le modèle rencontre des biais imprévus (ce que je résume dans le présent article par le fait que l’on a des « biais sur l’élimination des biais » et que j’argumente dans le détail dans l’article pré-cité).
2. « Quand en faisant tel traitement vous constatez 4 fois moins de décès qu’auparavant, il n’est pas utile et encore moins éthique de faire une étude randomisée. »
Aïe, non justement. Outre le fait que le taux de 4 fois moins se rencontre rarement dans des cas réels et qu’il faut départager des taux souvent bien plus serrés, nombre de situations se sont présentées où l’essai clinique a démenti l’observation immédiate ou l’étude observationnelle.
On a donné pendant longtemps du Béta carotène contre le risque de cancer pulmonaire, des corticoïdes en cas de traumatisme crânien, un antiarythmique tel que la Flécaine pour traiter les extrasystoles ventriculaires après infarctus, du fluorure de sodium dans le cas d’ostéoporose ménopausique, de la Rosiglitazone pour traiter le diabète en faisant baisser le taux d’HbA1c, … vous savez ce qu’il en a été sur ces 5 exemples et comment des essais cliniques ont démenti l’observation « évidente ». On s’interdisait également de donner des béta-bloquants en cas d’insuffisance cardiaque pendant longtemps, y compris à partir de résultats confirmés par « l’observation », jusqu’à la mise en œuvre d’essais cliniques prouvant qu’il fallait faire le contraire.
Est-ce à dire que les RCT sont infaillibles et l’observationnel condamné ? Non : ceux qui défendent les RCT de façon absolue à partir des 6 exemples célèbres précédents oublient que l’on peut montrer autant d’exemples où les RCT ont failli, lorsqu’elles rencontrent des problèmes de robustesse. Un exemple, que j’emploie dans mon article précité : l’allopurinol, un traitement contre les hyperuricémies, provoque des effets secondaires très nuisibles chez les patients dont le génotype comporte l’allèle HLA-B*5801. Or cet allèle est présent jusqu’à 20 % dans la population chinoise d’ethnie Han, 8-15 % dans la population thaïe, environ 12 % dans la population coréenne et 1-2 % chez les personnes d’origine japonaise ou européenne. Un RCT mené rigoureusement en Europe aurait donc très bien pu conclure à une bonne efficacité de l’allopurinol sans se rendre compte qu’il ne faut surtout pas l’administrer en Chine, en Thaïlande ou en Corée.
Conclusion : toutes les méthodes ont leurs forces et faiblesses et surtout il faut mixer observationnel et RCT pour obtenir de bons résultats : il est stérile d’opposer les deux. On alterne des phases d’élimination de biais par les RCT et des phases de réflexion et de prise de recul par l’observationnel et le raisonnement causal, quand on touche les limites des RCT. Rien d’étonnant pour un data scientist : l’application aveugle de la statistique échoue, elle nécessite des phases de prise de recul sur ses modèles, où l’on revient aux connaissances du métier sur lequel on travaille.
Quant à l’argument éthique, je ne l’ai jamais compris. Avec les RCT, vous pourrez toujours regretter de n’avoir pas donné un remède efficace aux patients du groupe témoin, avec l’observationnel, vous pourrez toujours regretter le risque inverse, d’avoir donné un médicament nuisible. Dès lors que vous avez une incertitude, il n’existe aucune bonne solution : la médecine nécessite toujours une part de « saut dans l’inconnu » pendant une phase d’expérimentation. Même s’il est difficile de se l’avouer, il existe une courte période pendant laquelle les patients servent de cobayes. Que ce soit par excès en leur administrant un produit potentiellement nuisible ou par défaut en ne l’administrant pas parce que c’est le groupe témoin d’une RCT, le problème éthique sera toujours présent, quelle que soit la méthode.
3. « Un constructeur automobile qui constate que la modification d’une pièce diminue certaines pannes ne va pas s’amuser à sortir 2 séries de véhicules avec ou sans modification pour confirmer. » :
Double aïe et là vous tombez vraiment très mal : je suis Data Scientist exerçant au sein d’un grand groupe automobile français, et je fais précisément ce que vous affirmez que l’on ne fait pas avec beaucoup de certitude.
Tout d’abord la comparaison entre l’industrie automobile et la médecine sur des méthodologies de tests est complètement caduque : la complexité d’une automobile, même si elle devient considérable, est infime par rapport à celle du corps humain. Pendant longtemps, les constructeurs automobiles pouvaient se passer de faire des tests statistiques avec ou sans la caractéristique, parce que le calcul explicite et déterministe, les sciences mécatroniques de l’ingénieur, suffisaient à des prédictions absolument exactes : la physique ou les mathématiques suffisaient.
L’électronique embarquée et l’apparition des ADAS et des essais de véhicule autonome ont bouleversé ce paysage. Le niveau de complexité d’une loi de commande ADAS est encore très loin de celui du corps humain, mais suffisante pour qu’il faille des tests empiriques, statistiques. Pour mesurer l’efficacité d’une ADAS, il est fréquent de faire des tests sur des prototypes équipés et d’autres non équipés de l’ADAS en question. Les composants d’un véhicule ne sont plus uniquement mécaniques, les modules logiciels sont de plus en plus nombreux.
Même des composants mécaniques, par exemple un bloc freinage, peuvent faire l’objet de tests statistiques, par exemple une série de prototypes équipés d’une version et l’autre série d’une autre version, parce que le comportement de freinage sur des ADAS devient suffisamment complexe pour que le calcul mécatronique pur ne suffise pas. Ajoutons enfin que le domaine automobile bénéficie de la simulation numérique qui permet de tester des variantes virtuelles, ce qui est beaucoup plus limité en médecine : on peut faire un jumeau numérique d’une voiture, on est très loin de le faire pour un corps humain entier. La simulation numérique ne fonctionne que sur des parties très limitées du corps, ou bien en pharmacologie sur de la modélisation d’interactions moléculaires.
4. « Quant à « médecin des années 1970 », j’attends que vous m’expliquiez ce qu’est un médecin des années 2020: un médecin qui ne soigne pas, sans doute. Une affirmation et blessante condescendante qui décribilise votre article. » :
N’avez-vous pas compris que « médecin des années 1970 » n’était nullement une formulation péjorative, bien au contraire, et que le but était d’attaquer l’ « Evidence based medicine » ? J’ai toujours été choqué par le terme même d’EBM que je trouve extrêmement insultant : est-ce que cela signifie que la médecine d’avant l’EBM était totalement ignorante des faits, qu’elle n’était qu’une supercherie obscurantiste ? Lors de la controverse Raoult, ce genre d’excès m’a fait bondir : on traitait les médecins d ‘avant les RCT de « rebouteux », Raoul de « charlatan » alors qu’il comptait des centaines de publications scientifiques à son actif. Le terme d’EBM est justement le type de présentation « marketing » que je dénonce dans mon article. Je suis un homme de 56 ans, je suis suffisamment conscient du fait que la médecine en 1970 était extrêmement solide scientifiquement. L’arnaque de l’EBM est de faire croire que rien n’existait avant elle. L’expression « très bon médecin des années 1970 » n’a donc rien de péjoratif. Je l’ai mûrement pesée pour qu’elle renferme un léger coup de griffe au professeur marseillais, celui de se priver des RCT pour des raisons éthiques que je ne comprends pas, et une critique beaucoup plus lourde et lapidaire envers ceux qui l’ont bruyamment traité de charlatan sans rien y connaître eux-mêmes.
5. « Mais visiblement la médecine est un sujet que vous connaissez très mal. Comme l’économie ? A votre manière vous êtes un fast-checker. Qu’ Hippocrate nous garde des statistiques. » :
Puisque vous vous permettez d’être insultant à mon égard, je vais me permettre d’en rire. Je n’ai toujours présenté qu’une thèse critiquable, rien de plus et je suis un statisticien ayant horreur de ceux qui considèrent les statistiques comme un absolu. Je m’attache à ce que les Data Scientists que j’encadre acquièrent toujours les connaissances métier du domaine dans lequel ils travaillent : ils doivent savoir comment est conçue une aile d’avion s’ils font de l’aéronautique, un moteur s’ils font de l’automobile, des notions de médecine et de biologie s’ils travaillent dans ces domaines.
Quant à vous, les lignes qui précèdent montrent que vous êtes très péremptoire sur des sujets auxquels vous ne connaissez pas grand-chose, voire rien du tout.
« Le vaccin n’empêche pas directement la transmission de la maladie mais il ralentit voire éteint indirectement sa propagation. Il est amusant de noter que cette explication n’est presque jamais avancée dans les débats entre antivax et zététiciens, montrant la pauvreté intellectuelle de part et d’autre. »
C’est faux. Même ce crétin de Véreux en a parlé, arguant en effet que si on mettait tous les vaccinés dans une pièce, le virus ne trouvant personne à contaminer, il s’éteindrait de lui-même.
En fait, ce serait juste si le vaccin était efficace, mais il ne l’est pas. Combien de double-dosés, tridosés, tétradosés ont chopé quand même le Covid, 2 voire 3 fois? A l’inverse, combien de 0-dosés ne l’ont eu qu’une fois, voire pas du tout, ou on probablement été asymptomatiques?
@André : raison pour laquelle il faut argumenter en deux temps : 1. Le schéma classique de la vaccination est d’empêcher indirectement la transmission en diminuant le seuil critique de propagation. 2. Ce schéma risque fort de ne pas s’appliquer pour le vaccin contre le Covid19, étant donnés les effets secondaires de celui-ci.
On entend trop souvent le seul argument de la part des anti-vaccins : « mais votre vaccin n’empêche pas la transmission ! ». Leurs adversaires ont alors beau jeu de dire que cela traduit qu’ils ne connaissent rien, puisqu’aucun vaccin n’a jamais empêché directement une transmission.
Pour éviter cette attaque, il faut dire en premier lieu que l’on connaît le mécanisme « d’étouffement » de la contagion attendu du vaccin, pour dire ensuite que ce mécanisme risque de ne pas jouer, le vaccin contre le Covid 19 risquant d’être d’une nature fort différente des vaccins connus.
Je pense en définitive qu’il est urgent de mener des études approfondies sur les effets secondaires des vaccins à ARN-m et de les rendre publiques.