
Nous vivons depuis quelques temps un étrange paradoxe : plus nous progressons dans notre capacité à analyser finement la composition de notre environnement, plus celui-ci est considéré comme dangereux, et ce du fait des activités humaines. C’est paradoxal, car la mise en évidence d’une quelconque substance aujourd’hui dans l’eau, l’air, l’alimentation ou tel ou tel milieu, n’implique pas forcément que cette substance était absente avant qu’on ne la détecte. En outre, le fait de la détecter ne la rend pas dangereuse ! Pour le dire autrement, les progrès des méthodes de dosage sont génératrices de peur à l’insu de leur plein gré…
Substance « absente » pour les non initiés, « indétectable » pour les spécialistes
Les techniques d’analyse par dosage ont fait et font encore l’objet de progrès spectaculaires. Or il faut rappeler que tout dosage, quelle que soit l’approche (du spectre infra-rouge aux reconnaissances par anticorps en passant par la fluorescence…) repose sur le recueil d’un signal en fonction d’une concentration. Bien évidemment le signal est sujet à des fluctuations aussi bien qu’à des interférences, ce qui se traduit sur la courbe de réponse par une incertitude sur la concentration mesurée. Celle-ci augmente avec la faiblesse du signal, donc aux faibles concentrations (phénomène dit d’hétéroscédasticité).
Un point clef en analyse est la quantification des « fluctuations du zéro », autrement dit des variations de signal lorsqu’on répète le dosage sur un échantillon dépourvu de la substance à doser. On comprend bien que le signal « maximal » obtenu dans ces conditions définit la « limite de sensibilité (LS) » du dosage, soit la plus faible concentration qu’on est capable de distinguer de zéro… Ce qui est déterminé lorsqu’on étalonne la méthode avec des échantillons de concentration connue (étalons).
Là où je veux en venir, c’est à ceci : en PRATIQUE, on assimile par défaut une concentration « <LS » à une concentration nulle : quand on ne sait pas mesurer le taux (du fait qu’il est trop bas), on considère que la substance dosée est absente… C’est du moins ce que perçoivent les non initiés, les spécialistes eux, disent « indétectable ».
Hypothyroïdie vs hyperthyroïdie et progrès des méthodes analytiques
Dans un domaine que je connais, la médecine et la biologie médicale, on a vu en 20 ans la LS de certains dosages (hormones, médicaments…) passer du mg/l au pg/l… autant dire que là où il fallait contourner l’obstacle (avec des tests dynamiques de stimulation par exemple) on sait maintenant différencier peu de très-peu, très-peu de très-très-peu… d’où des progrès diagnostiques tout à fait conséquents. Un exemple : lorsque j’étais interne en endocrinologie, dans les années 80, une hypothyroïdie (manque d’hormones thyroïdiennes) était diagnostiquée en dosant la TSH (hormone de stimulation de la thyroïde), qui s’élevait avant même la diminution patente des hormones thyroïdiennes dans le plasma, car l’hypophyse réagissait à cette diminution en sécrétant de la TSH, afin de stimuler au maximum une glande thyroïde en perte de capacité. A l’inverse, une hyperthyroïdie (excès d’hormones thyroïdiennes, de diverse cause) entraine une inhibition hypophysaire de la sécrétion de TSH (pour limiter si possible, et en tout cas ne pas amplifier, une production déjà trop élevée d’hormones thyroïdiennes). On peut donc en théorie faire le diagnostic en mettant en évidence un abaissement de la TSH. Mais dans les années 80, on ne savait pas distinguer une TSH basse d’une TSH normale. Il fallait donc réaliser un test dynamique, en injectant de la TRH (Thyrosin Releasing Hormone), l’hormone hypothalamique qui stimule la sécrétion de TSH par l’hypophyse. Si l’on n’obtenait pas de réponse (élévation) de la TSH sur des prélèvements répétés durant 2 heures, on pouvait conclure au blocage de l’hypophyse thyréotrope, preuve de l’excès d’hormones périphériques… C’était lourd, compliqué et onéreux. Et puis, l’avènement des dosages immunoradiométriques utilisant des anticorps monoclonaux, en gagnant un facteur 100 sur la sensibilité du dosage de la TSH, a rendu possible d’identifier une borne inférieure de normalité de la concentration plasmatique de TSH, et, partant, de pouvoir affirmer un taux trop bas de celle-ci. Le diagnostic d’hyperthyroïdie devenait beaucoup plus simple, grâce aux progrès des méthodes analytiques. On pourrait conter la même histoire avec le dosage de nombreux médicaments, ce qui en a grandement amélioré l’utilisation (posologie, nombres de prises…) grâce aux études pharmacocinétiques rendues possibles.
Conséquences paradoxales des progrès des méthodes d’analyse
Cependant, la conséquence perverse de tout ceci, pour en revenir à ce qui nous préoccupe, est que, DU SIMPLE FAIT DES PROGRES ANALYTIQUES… il devient possible de trouver certaines molécules là où avant… il n’y en avait pas ! Ou, plus exactement, on n’en détectait pas. Alors que, la plupart du temps, il devait y en avoir, et souvent plus que maintenant, mais on ne savait pas le voir : on était « en dessous de la LS du dosage »… Mais cela ne signifiait pas que le concentration était nulle !
Autrement dit, chaque fois que les progrès de ceci ou cela (de l’agriculture, du traitement des eaux, des process industriels, etc.) permettent de DIMINUER des polluants (ou considérés comme tels, à tort ou à raison, c’est un autre débat), les progrès analytiques donnent l’impression que ces polluants AUGMENTENT, voire APPARAISSENT…
C’est ainsi que le dépistage de la Listéria, bactérie responsable de graves pathologies et de décès, a mis sur la paille beaucoup de producteurs de fromages, totalement irréprochables, dès lors que la PCR (« Polymerase Chain Reaction », technique de génie génétique mettant en évidence l’ADN) est devenue capable de détecter la présence de quelques traces de la bactérie… Il y en avait auparavant davantage, et des infections graves à Listeria étaient avérées, mais on ne savait pas détecter la bactérie dans les fromages. D’énormes efforts ont été faits pour éviter les contaminations, en raison des accidents constatés, et au moment où ces efforts portaient leurs fruits, la PCR est apparue, permettant de détecter des traces, parfaitement insignifiantes (normales, en quelque sorte), de la bactérie. Le principe de précaution a fait le reste : on a préféré, en l’absence de tout problème avéré, fermer des fromageries du simple fait qu’on détectait des TRACES de la bactérie. Il a bien fallu ensuite établir des seuils d’alerte et des seuils de dangerosité, faute de quoi plus aucune fromagerie ne saurait fonctionner… et ce, en raison des extraordinaires progrès des méthodes d’analyse et de dosage (1),(2).
Lorsque la PCR est apparue, justement, on a imaginé de dépister les cancers en recherchant des cellules tumorales circulantes. La méthode était tellement « sensible » qu’il a fallu vite renoncer : les premières études, semblaient montrer une incidence de cancer de…. 100 % dans la population générale ! Ce qui est parfaitement logique d’ailleurs, nous avons tous des cellules cancéreuses en circulation, mais nous les éliminons la plupart de temps (quand on ne le fait plus, survient un cancer). La méthode est, depuis, utilisée mais il a fallu en calibrer les paramètres et définir un seuil de normalité.
Corollaire intéressant : on ne s’intéresse qu’aux molécules qu’on sait doser… et qui ne sont, peut-être, ou certainement, pas les pires … mais même celles-ci, tant qu’on n’observe pas des surmortalités/surmorbidités significatives, ne sont sans doute pas si dangereuses que cela… aux concentrations encourues. Gageons que chaque fois qu’une méthode de dosage sera mise au point concernant une molécule jusque-là non étudiée faute de dosage, subitement les médias se déchaineront.
Paracelse, seuils de détectabilité et de dangerosité
Tout ceci amène à rappeler par ailleurs que, quelle que soit la dangerosité intrinsèque d’une molécule, la dangerosité pour la santé est soumise à un seuil de concentration… Paracelse l’avait déjà dit, au XVIème siècle ! Alors, ne confondons pas seuil de détectabilité (la LD des dosages) et seuil de dangerosité ! Dans ma spécialité, la médecine nucléaire, du thallium 201 est injecté quotidiennement à des patients pour les scintigraphies cardiaques, quantitativement de l’ordre du picomolaire. Vous pouvez vérifier, le thallium est un poison mortel, et pourtant la cardiologie nucléaire n’a jamais tué personne…. Paracelse avait raison.
Il faut reconnaitre que ces réflexions ne sont pas intuitives pour le public, et que lorsque le Monde, par exemple, publie la « carte des polluants éternels » (3), puis reprend sans discernement des « alertes » d’associations militantes (4), ça fiche la trouille. Ils devraient, cela dit, publier la carte mondiale de l’α-amanitine, principal composé toxique de l’amanite phalloïde parmi les amatoxines et phallotoxines de ce sympathique champignon, ça pourrait être marrant. Cette soi-disant découverte de la présence de molécules, alors qu’en réalité ce qui est nouveau c’est la possibilité technique de les détecter, est typiquement une fausse alerte, d’ailleurs justement dénoncée dans un communiqué de l’AFIS (5).
Le biais sous-jacent, est une inversion fâcheuse de paradigme : au lieu de partir d’un problème avéré de santé publique (par exemple un excès de malformations à la naissance, un excès de cancers, un excès d’accidents cardio-vasculaires…) et d’en rechercher la ou les causes (ce qui peut conduire à identifier une molécule responsable), on postule systématiquement la possible dangerosité, et on en recherche donc des conséquences néfastes, de toute nouvelle substance ou tout agent physique utilisés dans l’industrie, ou apparus dans l’environnement.
Méthode analytique vs méthode statistique
Examinons ces deux approches. La première, qui prévalait jusqu’à la fin du XXème siècle, n’était pas exempte de défauts, tenant à la définition de ce qu’est un « problème de santé publique » : pour les évènements rares, en particulier, soumis à la loi statistique de Poisson, affirmer l’existence d’un « cluster » anormal est un exercice difficile, le phénomène pouvant être lié à une simple fluctuation statistique. Donc, dans certains cas, on pouvait être amené à rechercher une cause à un « non-évènement »… il n’empêche que, le plus souvent, un constat épidémiologique conduisait à identifier la responsabilité de tel ou tel facteur. C’est ce qui a clairement établi la responsabilité du tabac dans les cancers broncho-pulmonaires ou les maladies cardiovasculaires, par exemple.
La seconde approche est beaucoup plus sournoise : car suspecter a priori tel ou tel agent, conduit à l’étudier isolément, sur des modèles éloignés de la réalité, en commençant par tester sa réactivité chimique et sa capacité à générer des lésions moléculaires et cellulaires in vitro, notamment sur des cellules en culture. Or, de façon très logique, il n’est guère envisageable que, en dehors des substances chimiquement inertes comme les gaz rares, on puisse sur de tels modèles, ne rien constater du tout… De la même façon, les études épidémiologiques seront conduites différemment si elles visent, non pas à mettre en évidence un évènement, mais à démontrer l’absence d’évènements… car dans ce cas, le doute sera toujours permis, puisque démontrer l’absence de quelque chose est… impossible. Donc on conclura toujours, non pas à un risque avéré, mais à la… possibilité d’un risque. Il s’agit d’une dérive inquiétante.
Les outils doivent rester au service des normes
Nous n’en concluons pas que les progrès impressionnants des méthodes analytiques de dosage sont une mauvaise chose. Mais il est fondamental de redire que, comme pour n’importe quel outil, on doit définir la meilleure façon de s’en servir. Détecter une molécule en la dosant ne doit pas, bien au contraire, évacuer les notions de quantité, de concentration, et de seuils de détection, de dépassement des normes, et de dangerosité, lesquels sont d’une manière générale dans des ordres de grandeurs de 1/10/1000
Cessons donc de voir des augmentations, ou des apparitions pures et simples, de dangereux polluants alors même que, si les méthodes de dosage avaient existé il y a 100 ans, on vérifierait très souvent (le plus souvent) qu’en réalité la concentration a diminué.
Et, autre morale de l’histoire, souvenons-nous que les outils doivent être au service des normes, et non l’inverse : les normes reflètent en principe les résultats d’analyses scientifiques des données, elles ne sont pas censées varier en fonction des outils disponibles.
1) https://sante.gouv.fr/soins-et-maladies/maladies/maladies-infectieuses-d-origine-alimentaire/article/listeriose
2) https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:02005R2073-20140601&qid=1433765433001&from=FR
3) https://www.lemonde.fr/les-decodeurs/article/2023/02/23/polluants-eternels-explorez-la-carte-d-europe-de-la-contamination-par-les-pfas_6162942_4355770.html
4) https://www.lemonde.fr/sciences/article/2024/12/09/pfas-la-recherche-au-defi-des-polluants-eternels_6438555_1650684.html
5) https://www.afis.org/Peurs-et-desinformation-autour-de-traces-de-pesticides-dans-les-fruits-et
« Agrofourniture : ne perdons-pas notre autonomie ! » A. Fougeroux (Interview)