Avec cette tribune de l’Astrophysicien Raymond Piccoli, European Scientist poursuit son tour d’Europe du financement de la recherche. Nous voulons donner la parole aux différents décideurs et scientifiques pour qu’ils nous exposent leurs visions et les politiques respectives de leurs pays par rapport aux problématiques de recherche et développement. N’hésitez-pas à nous faire suivre vos contributions.
Sans argent, sans moyens, ou sans collaboration, il est impossible de mener à bien une recherche scientifique digne de ce nom. Pour obtenir des financements, il faut publier et avoir publié, et pour publier, il faut mener des recherches, donc avoir des financements… Voilà une équation qui au final est plutôt perverse et bien difficile à résoudre…
Au cours du dernier quart de siècle, la recherche française a connu deux révolutions majeures.
La première, dès le début des années 1990, a vu la création des Unités Mixtes de Recherche (UMR), dont la caractéristique principale est de regrouper au sein des laboratoires des chercheurs et enseignants-chercheurs rattachés à plusieurs organismes de tutelle –Universités, EPST et EPIC-. La mise en place de ces nouveaux laboratoires répondait à une logique de concentration (atteindre une taille critique) : regrouper des moyens humains et matériels autrefois dispersés ; améliorer la visibilité internationale. La seconde, dès les années 2000, a introduit les appels d’offres (ANR et appels européens) comme mode de financement principal des travaux de recherche en remplacement des crédits récurrents octroyés autrefois directement aux laboratoires. La logique est double : concentrer les moyens sur des projets ciblés, centraliser les décisions en remplacement des arbitrages locaux dont l’efficacité était contestée. Les réformes ont donc été principalement avec la logique qui les caractérise : mise en concurrence, ouverture aux échanges, productivité, management des ressources humaines, etc.
Mais derrière ce schéma plutôt intéressant, ces réformes ont en fait et contre toutes attentes, produit des effets désastreux, largement régressifs sur la production scientifique et le niveau de la recherche en France. Pour le dire clairement, les réformes gestionnaires et comptables ont éradiqué l’indépendance des chercheurs, indispensable à l’exercice de leur métier, et leur liberté de penser. Avec la définition des objectifs scientifiques par les décideurs politiques et économiques à travers les appels d’offres, 90% des champs thématiques anciens ont été abandonnés. Des pans entiers de compétence et d’expertise, y compris dans des domaines appliqués, ont disparu. Sous prétexte d’ouverture et de mise en concurrence, la recherche française s’est transformée en un monstre bureaucratique hyper- centralisé. Ce ne sont pas ici des propos outranciers1 : il s’agit simplement de transcrire ce que tout le monde sait mais n’ose plus dire ! Le cœur de la mécanique est à trouver dans la relation financement-publication, ce que nous allons tenter de voir à présent.
Financement, publication, et évaluation du chercheur
Pour mener à bien des travaux de recherche, il faut être financé, rentrer dans les thématiques prioritaires définies par les bailleurs de fonds qui, la plupart du temps, ironie des choses, ne sont pas des scientifiques. Avec le tarissement récurrent des fonds et le développement des appels d’offres, les pratiques scientifiques ont évolué à un rythme élevé. Les chercheurs sont aujourd’hui sommés de « décrocher » des appels d’offres sous peine de ne plus pouvoir exercer leurs activités. Et, quand on lit les intitulés de ces appels d’offres, leur déconnexion des enjeux réels de la science saute aux yeux de quiconque. On pleure ou on rit selon le cas devant l’amateurisme des personnes qui « pensent » orienter la recherche. Regardons de plus près le principe des appels d’offres. Le ridicule des conditions d’octroi est évident : pour être « élu », il faut présenter des résultats avant même de commencer à travailler. La situation est ubuesque car, en effet, désormais quasiment aucun financement n’est attribué sur des projets qui intègrent ne serait-ce qu’une part d’aléatoire. Il faut exhiber de multiples publications et des collaborations anciennes pour être valorisé. Plus on a travaillé sur un sujet, plus on a de chances d’obtenir des financements sur ce même sujet. Le mécanisme contribue à un appauvrissement considérable des travaux de recherche, focalisés sur quelques thèmes à la mode, qui présentent l’avantage d’être « lisibles » socialement. De plus, la plupart des appels d’offres nationaux sont aujourd’hui systématiquement alignés sur les projets européens, dont ils ne sont que des produits conformes. En matière de recherche, la France a perdu son indépendance nationale dans l’indifférence générale. Entretenir la diversité des projets, entre appels nationaux et européens, serait pourtant une mesure très simple à adopter. Les deux pourraient être parfaitement complémentaires.
On estime que les chercheurs passent un tiers de leur temps à préparer des réponses à des appels d’offres dont 90% n’aboutissent à rien. C’est une perte financière colossale. Les cerveaux de nos chercheurs sont employés à remplir des dossiers administratifs sans fin qui, le plus souvent, sont classés sans suite… Il s’agit là d’un grand gâchis. Les appels d’offres font la part belle aux attentes des industriels et favorisent la prise en charge d’intérêts privés par les finances publiques. Ils permettent aussi de répondre aux préoccupations politico-idéologiques du moment.
Bref, nombre de vrais travaux ne rentrent pas dans les cases et sont abandonnés. Pour la science, les résultats sont désastreux : quantité de recherches novatrices ne sont pas financées, faute de pouvoir être immédiatement bancables ! On écrase la vraie recherche innovante, originale… Alors dans un système pareil, comment donner l’illusion que l’on réussit encore à faire de la science ? Comment mettre du verni ? La solution vient des moyens de publication. Tout commence avec l’évaluation des chercheurs. Comment diable évaluer la production de matière grise par les scientifiques dont les activités, par définition, sont souvent incompréhensibles pour le commun des mortels ? L’évaluation se fera sur un principe simple, se basera sur un critère et un seul, mesurable, érigé en référence absolue, la sacro-sainte publication.
Le premier effet néfaste est que cette obligation de publication, (qui est une obligation de résultat pour les chercheurs !) nourrit de colossales bases de données bibliographiques entièrement aux mains d’entreprises privées anglo-saxonnes, qui ne se privent pas ensuite de vendre les produits de ce travail, les articles, plusieurs dizaines, parfois plusieurs centaines d’euros. Les revues françaises sont d’ailleurs absentes de ce mécanisme de captation à effet lucratif, de façon flagrante.
Dans le processus d’évaluation des chercheurs, moteur de la progression de carrière, personne parmi les « pairs » nommés dans les commissions ne va lire un seul article. On se contentera du titre des revues et des couvertures, comme si les cinéphiles limitaient leur passion du cinéma à la lecture d’affiches. Ce qui est écrit ou exposé dans l’article n’a aucune importance, seule une déclaration éditoriale suffit. Le cosignataire au énième rang de dix publications peut ainsi être considéré comme un chercheur actif et performant. On aboutit à ce paradoxe incroyable : les directeurs de labo sont des gens qui publient énormément, alors qu’ils passent l’essentiel de leur temps à faire de l’administration. Ils ne consacrent plus aucun temps à des travaux scientifiques, mais ils continuent à publier… Sacré tour de force ! Ceci est possible parce que la position dominante permet de publier et de s’imposer dans les programmes de recherches en cours. Votre nom figure sur la couverture, donc vous êtes un grand scientifique… Les dés du système de publication sont pipés. Les directeurs de labo sont ainsi régulièrement invités à occuper le premier rang, laissant aux petites mains, chercheurs moins connus ou étudiants, les dernières positions.
Le second effet, pervers, se situe à l’aval, et transforme la recherche, en profondeur. Désormais est considéré comme bon chercheur celui ou celle qui publie, publie, et publie encore.
Nous entrons dans le syndrome de la nausée d’écriture chronique. Pour tenir la cadence, pour être classé parmi les meilleurs, la quantité prends très largement le pas sur la qualité.
Un exemple, parmi d’autres, de stratagème très à la mode pour publier en nombre : associer des auteurs, jusqu’à plusieurs dizaines, pour un papier de quelques pages. Chaque auteur peut reproduire le mécanisme avec d’autres « volontaires » à l’infini. C’est magique : tout le monde devient instantanément productif. Le phénomène est exponentiel. Des groupes de publiants se structurent et se cooptent sans même relire les papiers signés à tour de rôle par d’autres membres du groupe. Certains chercheurs passent ainsi leur temps à « copublier », à tel point que leurs listes infinies de publications devraient, dans un monde normal, attirer l’attention de tout observateur un peu scrupuleux. Ce système n’est pas sans danger. Mais qui a écrit réellement le papier et peut en garantir la véracité ? La paternité scientifique des publications est complètement diluée. Cela a d’ailleurs provoqué certains problèmes dans le recrutement des chercheurs ces dernières années, de véritables ratés, où des malheureux se sont retrouvés à des postes bien plus qualifiés que leur niveau ne le permettait… Quelques scandales de ce type ont vu le jour dans l’actualité récente : des chercheurs, des directeurs de laboratoire, voire des responsables de hautes instances de la recherche attaqués en justice pour plagiat, ou comment le copier-coller devient un acte routinier… Autant de mal fait à la science, autant de crédibilité sacrifiée, absolument fondamentale à l’exercice de l’activité scientifique qui part en fumée et s’évanouit sur l’autel de la vanité.
Le phénomène de plagiat est peu médiatisé. L’attention se porte le plus souvent sur les étudiants, amateurs connus de copies intégrales, mais peu d’informations remontent à propos de leurs « maîtres ». Les sites des universités relayent volontiers les avertissements de rigueur à destination des étudiants, et en viennent même à utiliser des logiciels pour vérifier que copies ou dossiers ne sont pas frauduleux –avec un succès très limité. Pourtant, l’inventivité de nombre de professeurs et chercheurs « publiants » en la matière est proprement stupéfiante. Certes, les techniques varient considérablement d’une discipline à l’autre. Les principes du plagiat reposent pourtant sur des techniques simples, difficilement détectables par des moyens conventionnels, en particulier pour des non-spécialistes.
La pratique la plus courante dans la recherche consiste à s’auto-plagier, c’est-à-dire à multiplier les emprunts à des écrits précédents, sans oublier les « auto-citations » (avec doigté) qui augmenteront l’H-index mécaniquement. Lindsay Waters, ancien directeur des publications de l’Université Harvard, a écrit un petit ouvrage prophétique sur le sujet, sous forme de pamphlet, intitulé L’éclipse du savoir2 : la multi-publication implique une fragmentation de la pensée, un émiettement qui sont hautement préjudiciables aux développements scientifiques. Avec pour conséquence un effondrement des lectures ! Les articles sont cités, relayés, publicisés, téléchargés, mais rarement lus. Sur le fond, la dilution du contenu scientifique signifie également une chute phénoménale de la qualité. Paradoxe remarquable des revues à impact factor : la citation comme référence unique est érigée en marqueur de qualité par un tour de passe-passe, la plus-value scientifique par article n’ayant jamais été aussi faible du fait de la dilution.
Il existe évidemment d’autres techniques de plagiat, qui impliquent des tiers. Espionner son voisin de labo n’est pas inutile, mais le plus efficace consiste à recourir aux outils numériques. Les traductions automatiques autorisées par nos navigateurs internet permettent d’accéder à une littérature scientifique infinie, parfaitement réutilisable en l’état. Il suffit de corriger le français ou l’anglais pour produire des écrits intraçables par les logiciels de détection de plagiat. « Piquer » des idées à droite et à gauche, y compris dans des corpus non-scientifiques, n’a jamais été aussi aisé. Pour se donner bonne conscience, la plupart adopteront une position de principe biaisée : la connaissance doit circuler. « Relayer » des écrits -autre manière de nommer le plagiat- serait intrinsèque à la logique scientifique… Le procédé est pourtant parfaitement illégal.
On objectera que ces pratiques ont leurs propres limites. Les écrits les plus sérieux échappent au plagiat lorsqu’expériences et production-traitement de données remplacent heureusement la réplication des idées. Les imposteurs seraient moins nombreux dans la hard science que dans la soft science. Sauf que cette hard science est depuis longtemps décriée pour son inefficacité et se fait de plus en plus rare. Expériences et constitution de bases de données prennent énormément de temps, nécessitent des financements importants et ne garantissent pas de résultats certains. Tous critères dont l’évaluation bibliométrique souhaite s’affranchir. Pour contourner l’obstacle, les scientifiques « durs » auront recours à d’autres biais que le plagiat, la manipulation de données, voire l’invention. Ces procédés sont très difficilement détectables, à l’instar du plagiat « intelligent ». Et lorsque le pot aux roses est découvert par des collègues ou concurrents, le plus souvent au hasard des expérimentations, les institutions sont souvent promptes à étouffer des scandales susceptibles de mettre en cause les décideurs eux-mêmes. La disparition intégrale des publications à une main et le recours obligatoire aux écrits collectifs est à comprendre en ce sens : une dilution de la paternité (qui a plagié ?), donc du risque juridique, une dilution de la compétence (qui a écrit ?), une dilution du contenu (qu’est-ce qui est neuf ?). Je ne m’étonnerai jamais assez devant ce spectacle époustouflant : les critères d’évaluation actuels sont inverses de ceux d’une science honnête, efficace, productive, inventive.
Autre exemple, combien de firmes privées, ou de lobbies payent, ou plus sournoisement financent les chercheurs auxquels ils fournissent des articles clés en main avec mission pour eux de les publier dans des revues dites de prestige ? Des opérations de prête-nom ont vu le jour et ont même été démasquées. Ces comportements et pratiques sont à l’opposé de la notion de science.
C’est un réel problème, car, il n’y a pas de quantification possible de la qualité. Le prestige d’une revue n’est-il pas une garantie suffisante de la qualité du travail d’un chercheur ? Eh bien non, plus dans les faits. De nombreux scandales émaillent régulièrement l’actualité sur ce sujet, comme ces articles rédigés par des robots linguistiques et acceptés par des grandes revues. L’évaluation bibliométrique constitue au final une très forte incitation à la fraude, au plagiat. Ce phénomène qui n’est pas propre au milieu scientifique est aujourd’hui sorti de sa marginalité, et fort heureusement, des fraudes sont mise à jour régulièrement3
Aucune revue, même la plus prestigieuse, ne peut revérifier ce que font les chercheurs dans les labos. De nombreuses recherches d’extrême qualité, de découvertes, d’idées novatrices ou de nouvelles voies de recherches ont été révélées dans des revues considérées comme secondaires, souvent dans des langues autres que l’anglais. Le jeu des éditeurs scientifiques est évident. Le mécanisme valorise leur position et garantit leurs revenus. Ce sont les bénéficiaires en dernier ressort de l’inflation des publications. Outre l’avantage stratégique que le contrôle des principaux organes de publication constitue entre les mains d’éditeurs anglo-saxons, on considérera également le fait que les grandes revues sont des revues mainstream pilotées par des comités scientifiques où l’on retrouve les multi-publiants dont il a été question plus tôt. L’innovation passe rarement par elles et les découvertes doivent passer par l’innovation. C’est la quadrature du cercle. Ici comme dans la presse, seul le maintien d’une grande diversité de revues peut permettre d’échapper au monopole de la pensée unique.
L’ordre d’apparition des auteurs est une des variables sur lesquelles les publiants et leurs évaluateurs s’appuient. En pratique, le premier auteur est censé être celui ou celle qui a le plus contribué au papier, et ainsi de suite par ordre régressif. Or, cet ordre n’exprime plus du tout l’implication des auteurs (la paternité donc), mais des positions de pouvoir au sein des institutions. La boucle est bouclée. Ce fonctionnement démontre clairement qu’occuper une position de pouvoir, un poste clé, permet de devenir, ou plutôt, de se faire classer comme scientifique de haut rang ! On en vient à se dire qu’un chercheur efficace est quelqu’un qui sait s’entourer d’une main-d’œuvre docile, pas quelqu’un qui s’échine sur la paillasse… Le prestige scientifique est devenu une opération de transfert. Officiellement, il existe le ranking des auteurs ou H index, qui est dérivé de l’Impact Factor des revues. Cet indice prétend quantifier la productivité scientifique en fonction du niveau de citation des travaux. Pour faire court, plus un article est cité, plus ses auteurs obtiennent un indice élevé. C’est le principe de l’audimat appliqué à la recherche. Cela ne veut rien dire, ce n’est absolument pas représentatif de la qualité d’un travail que d’être cité. Ce système virtuel est digne d’un réseau social ou vous compteriez des centaines de clics, donc autant « d’amis » … La qualité d’une émission TV est-elle garantie par son niveau d’audience ? On aurait plutôt tendance à croire l’inverse. Mais non, dans la science, avec l’appui des plus hautes autorités, on pense qu’un bon chercheur est un chercheur connu, cité. Nous retrouverons ces « chercheurs » sur les plateaux TV, pour le meilleur et de temps en temps pour le pire : les fameux « experts » souvent décriés, toujours invités. In fine, le nombrilisme intellectuel se développe et avec lui la force de l’auto-conviction. Plus on croit en soi-même, plus on a de chances de se faire connaître et de grimper dans les hiérarchies.
Pour résumer, le problème des publications est étroitement lié à la fragilité institutionnelle constatée ces dernières années au sein de la recherche française. Des pratiques considérées comme « limite » du point de vue déontologique sont devenues systématiques, quitte à bafouer le droit de la propriété intellectuelle.
Recherche participative, financements privés et mécénat
Une des alternatives à ces dérives se trouve peut-être, et cela doit être sujet à un véritable débat de fond, dans le financement de la science par le biais du don individuelle ou du mécénat, c’est la recherche participative.
Alors que faut-il entendre dans ces notions de recherche participative ? Et bien tout simplement la possibilité que tout un chacun puisse par un acte généreux donner quelques euros4, quelques dizaines ou quelques centaines d’euros pour un projet scientifique qui lui tient à cœur, à une entreprise ou à une personne fortunée de réaliser un mécénat, et pourquoi pas pour certains travaux de grandes ampleurs, offrir du temps5, mais d’une manière très cadrée de façon à ne pas sortir du protocole scientifique rigoureux. De très nombreux chercheurs, entre les XVIIIe et XXe siècles, ont bénéficié des retombées du mécénat. C’est à cela, en partie, que nous devons l’essor historique considérable des sciences, mais aussi des arts. Le mécénat veut qu’un généreux donateur finance un chercheur, un projet, un artiste, et ce, sans attente de retour, par simple curiosité intellectuelle, cela suppose d’ailleurs des élites financières cultivées, tournées vers les sciences et les arts…
Dans le sponsoring, au contraire, les conflits d’intérêts peuvent vite survenir : l’argent y est octroyé en échange d’une visibilité, d’une légitimité ou d’une publicité en faveur du financeur. La recherche scientifique participative, parfois dénommée science contributive, est très certainement l’avenir d’une recherche forte, très diversifiée et riche d’un vivier insoupçonné, à condition que des cadres stricts soient posés dès le départ. La science contributive doit être pensée et réfléchie afin de ne pas confondre contribution et ouverture totale au pillage. Cela ne peut bien entendu concerner la recherche industrielle ou les travaux qui relèvent de la sécurité nationale. Dans la mesure où l’on considère que la science n’est pas une somme de connaissances captives, ce principe de participation ouvert à toutes les bonnes volontés n’a rien de neuf, il est même relativement ancien. Cela permettrait de faire émerger de nouveaux projets ou de mener à bien des recherches jugées sans intérêt, juste parce qu’elles ne cadrent pas avec la ligne directrice.
Il est étonnant de constater que la plus-value scientifique de travaux est souvent liée à des initiatives originales, en marge, non reconnues par le système officiel de la recherche. Par définition, la science est participative dans le sens où tout savant est dépositaire de savoirs antérieurs transmis par des maîtres ou professeurs qui ont bien voulu partager ce savoir. La participation est inscrite dans les gènes de la science. Elle exprime l’intégration dans une communauté si ce n’est sociale et actuelle, du moins intellectuelle et intemporelle. Participation rime avec transmission, et l’outil privilégié de cette passation est l’écrit, le livre. Les grands éditeurs scientifiques contemporains sont ainsi dépositaires d’une mission fondamentale. Mais cette transmission-participation est désormais soumise à paiement préalable, fait inédit dans l’histoire des sciences, car encore une fois, ces grands éditeurs scientifiques monnayent très cher la diffusion des publications. Énorme pouvoir que de contrôler les conditions de la transmission, qui, du coup, devient fort élitiste. En effet, l’abonnement à ces publications capte une part non négligeable des budgets des organismes de recherches. Au sens sociologique, la participation est aussi cette capacité qu’auraient des personnes issues de la société civile de contribuer à la production de connaissances scientifiques à travers des contributions directes ou indirectes telles que des actions spécifiques, une participation matérielle ou intellectuelle, un soutien financier, aide bénévole, etc.
Au sens politique, enfin, introduire une dose de participation dans le développement scientifique, c’est faire œuvre d’ouverture démocratique dans un monde hiérarchique, en particulier dans le système français, extrêmement jacobin et centralisé. La participation consiste ici à laisser libre cours à des projets non pilotés par le haut, hétérodoxes. Cet élan est vital, car il permet de renouveler les approches scientifiques, il apporte le souffle d’air indispensable au renouvellement des paradigmes, concepts et méthodes. Les organismes de recherche et l’université en France sont fondés sur le principe inverse de celui de participation. Les relations sont uniquement verticales et top-down. Le développement d’une recherche participative hors institutions officielles serait un moyen d’échapper au poids écrasant des castes établies depuis trop longtemps à la tête des structures de recherche et à leur monopole intellectuel.
La recherche participative est ainsi le complément indispensable d’une recherche institutionnelle dont la capacité de discernement et d’initiative est contrainte et limitée par des impératifs fonctionnels et des connivences économiques.
1 ) Cet article reprend une partie de la publication « Réflexions sur la recherche française… », Raymond PICCOLI, Les Notes de l’Institut Diderot, 2018, ISBN 979-10- 93704-45-6. http://www.institutdiderot.fr/reflexions-sur-la-recherche-francaise/
2) http://lettres-scpo.asso.univ-poitiers.fr/spip.php?article353 « L’éclipse du savoir » de Lindsey Waters est un essai traduit de l’anglais et publié en 2008 aux éditions Allia qui dépeint l’évolution du système universitaire américain qui s’est transformé en véritable usine de production, laissant de côté la transmission de savoir.
3) www.pacte-grenoble.fr/blog/des-outils-bibliometriques-comme-puissante-incitation-a-la-fraude-et-aux-mauvaises-pratiques/
4) Exemple d’un passage de la science publique à la science participative. Il s’agit du projet LISE. Cet hypertélescope destiné à la détection et à l’observation des exoplanètes a été imaginé alors que son concepteur, Antoine Labeyrie, occupait la chaire d’Astrophysique du Collège de France. Les premiers financements du projet provenaient donc d’instituts et d’organismes d’États. Puis vint le temps de la retraite et avec celle-ci l’arrêt du financement. Pour autant, l’hypertélescope LISE continue à être mis au point et construit dans les Alpes du Sud grâce à une belle équipe de bénévoles issus de différents domaines, tous plus motivés les uns que les autres, organisés en association. Les subsides qui permettent de continuer l’aventure proviennent de dons et d’adhésions. Cet exemple est exceptionnel dans la mesure où les résultats attendus sont susceptibles de dépasser les attentes des plus gros équipements publics, financés à hauteur de plusieurs milliards d’euros.
5) Depuis que Pluton a été rétrogradée du rang de planète à celui de planète naine, notre système solaire ne compte plus que huit planètes officielles. Pour autant, l’éventualité de l’existence d’une « planète X » ou « 9e planète » attise la curiosité des astronomes du monde entier. La NASA vient donc d’avoir l’idée de créer un programme de recherche contributive qui recourt au talent d’observateurs internautes passionnés afin de mener cette quête. Le projet, intitulé « Backyard Worlds : Planet 9 », s’articule autour d’un site participatif sur lequel chaque chercheur en herbe peut visionner des images captées par la mission d’exploration WISE. Le principe est simple : si un internaute détecte des objets en mouvement à partir d’animations réalisées sur plusieurs années, il peut le signaler aux scientifiques de la NASA. Autant d’yeux supplémentaires qui augmentent la probabilité d’une découverte.
Sur le même sujet également, Cap sur l’Innovation du professeur polonais Aleksander Nawrat
This post is also available in: EN (EN)DE (DE)