Nous publions ici in extenso la contribution d’un groupe de chercheurs en écologie à la réflexion sur les priorités pour l’élaboration d’une Stratégie Nationale de Recherche. Cette contribution entre dans le cadre de la consultation publique lancée par le Ministère de l’Education Nationale, de l’Enseignement Supérieur et de la Recherche, en avril-mai-derniers, et apporte un éclairage original sur le système français de recherche et d’innovation.

********

Monsieur le Ministre de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche,

Madame le Secrétaire d’Etat chargé de l’Enseignement supérieur et de la Recherche,

A l’occasion de la consultation publique sur la stratégie nationale de recherche, nous, collectif de chercheurs et d’enseignants-chercheurs affiliés à des laboratoires français de recherche publics, souhaitons contribuer à cette réflexion en apportant un éclairage original et qui, nous l’espérons, permettra de faire progresser le débat sur le financement de la recherche.

Tout d’abord, si une « stratégie nationale » doit être établie et si l’avis de la communauté scientifique est sollicité pour la définition des modalités de cette stratégie, nous pensons utile de porter un regard critique sur la valeur de l’opinion et des arguments des scientifiques. Ensuite, si l’on convient, comme indiqué sur le site de cette consultation publique, qu’une stratégie nationale se doit de « réaffirmer le rôle de stratège de l’Etat en matière d’orientation et de programmation de la recherche », de « promouvoir la recherche fondamentale comme le socle essentiel pour le développement d’une science de haut niveau », tout en répondant « aux défis scientifiques, technologiques, environnementaux et sociétaux auxquels la France devra faire face dans les décennies à venir en définissant un nombre restreint de priorités scientifiques et technologiques », il nous semble que cette stratégie ne peut être établie uniquement en faisant la liste des priorités à donner à la recherche. Elle doit également comporter une réflexion sur les modes d’attribution des moyens – financiers, matériels et personnels – d’agir sur ces priorités.

*****

POURQUOI NOUS NE SOUHAITONS PAS DONNER DE PRIORITÉS DE RECHERCHE 

En démocratie, une consultation publique n’est pas l’équivalent d’un vote au cours duquel chacun peut être amené à s’exprimer individuellement, indépendamment des particularismes de la communauté auquel il appartient. En conséquence, il est probable qu’une telle consultation n’aboutisse pas à un résultat représentatif des priorités importantes aux yeux de la majorité des chercheurs. Nous pensons qu’à défaut de rendre compte de « priorités majoritaires », une telle consultation ne ferait que traduire les rapports de pouvoir en place et les crispations du monde de la recherche face à des financements perçus comme incertains.

Tout d’abord, il est assez vraisemblable que cette consultation aura été d’autant plus relayée au sein de certaines disciplines que ces disciplines sont plus concernées par les réorientations possibles du budget de la recherche. SI tel est le cas, il faut s’attendre à un biais dans la participation des chercheurs à cette consultation et, in fine, dans le résultat obtenu. Comment tenir compte des priorités de recherche qui seraient énoncées par des communautés scientifiques disparates, aux participations inégales à cette consultation ?

Par ailleurs, même si l’ensemble de la communauté scientifique se mobilisait de façon homogène pour répondre à cette consultation, les suggestions qui en sortiraient pourraient ne traduire que le déséquilibre démographique entre disciplines scientifiques. Ce déséquilibre devrait-il nécessairement se traduire en une asymétrie de l’importance à accorder aux priorités de recherche entre disciplines ?

Enfin, les pratiques de la recherche diffèrent entre disciplines et amènent, de facto, à des degrés de cohésion différents entre champs disciplinaires. Il est ainsi probable que les modalités de réponse à la consultation diffèreront entre disciplines et que ces différences influenceront la visibilité et le poids relatif des contributions récoltées. Par exemple, parce que les recherches cliniques sur les maladies orphelines sont mises en compétition face aux recherches sur le cancer ou la maladie d’Alzheimer, il faut s’attendre à ce que les priorités affichées par la recherche biomédicale soient particulièrement précises. A l’inverse, les revendications affichées par les chercheurs en mathématiques sont souvent

plus générales et tournées vers une redistribution plus égalitaire des fonds alloués à la discipline. De telles disparités existent parce que le coût de la recherche est hétérogène entre disciplines, mais aussi parce que les traditions disciplinaires favorisent et récompensent des comportements différents. Notre but n’étant pas de discourir du bien-fondé de ces hétérogénéités de la pratique scientifique, il semble aussi vain de vouloir ajouter notre empreinte de biologistes au cahier de doléances que pourrait devenir cette consultation publique.

*****

Dans ce contexte, il nous semble que l’intérêt de la consultation pourrait venir d’un aperçu des réflexions menées par la communauté scientifique sur la possible construction d’un modèle de financement de l’innovation plus juste, plus réactif et plus efficace. A l’heure actuelle, il n’existe pas véritablement d’étude exhaustive portant sur l’efficacité respective des modes d’attribution des ressources publiques à la recherche, toutes disciplines confondues, pour la bonne raison que ce qui est habituellement mesuré comme indicateur de performance de la recherche dans ces différentes disciplines, à savoir les publications scientifiques et la palanquée d’indicateurs associés, n’a pas la même échelle selon les disciplines. Cependant, des études scientifiques sérieuses se sont attaquées à la comparaison des différents systèmes de financement et de récompense de la recherche publique et privée. Il est assez peu vraisemblable que le comité qui sera chargé d’établir les conclusions de cette consultation publique soit intéressé par une revue détaillée et exhaustive de cette littérature. De fait, nous nous contenterons de donner quelques points saillants ainsi que les références aux études primaires d’où proviennent ces conclusions.

LE MODE DE FONCTIONNEMENT DE L’ANR EST INADAPTÉ 

L’agence nationale de la recherche (ANR), créée en 2005, est une agence de moyens dont le mode de fonctionnement a été initialement calqué sur celui de la National Science Foundation (NSF) américaine. Brièvement, rappelons que la NSF est une agence de moyens américaine qui finance la recherche hors du secteur biomédical (qui, lui, est dévolu au National Institutes of Health [NIH], aux budgets séparés). La NSF finance une recherche dite « sur projet » en demandant aux chercheurs souhaitant un financement de produire un bref projet (15 pages) indiquant la recherche qu’ils souhaitent effectuer et une estimation des coûts associés à cette recherche. Ces financements sont alloués à la suite d’appels d’offre mettant en compétition l’ensemble des projets. Ces appels d’offre sont pluriannuels, et les rapports effectués sur les projets soumis sont rendus aux chercheurs soumissionnaires afin de leur permettre d’améliorer la qualité de leur proposition en cas de rejet ou de corriger le plan de financement en cas d’acceptation du projet.

Au fil des ans, l’ANR a malheureusement étendu le contenu du document à soumettre en exigeant un niveau de détail administratif hérité, cette fois, des appels d’offres européens (notamment, des appels d’offres issus des programmes FP6 et FP7). Ainsi, le chercheur français désireux de voir ses recherches financées par l’ANR devra non seulement décrire la recherche qu’il souhaite entreprendre et le plan de financement envisagé, mais aussi décrire assez longuement les « verrous technologiques », « les ruptures », la « stratégie de valorisation », ainsi que les actions de « dissémination » – bref, nécessairement épicer un projet se fondant sur des éléments rationnels avec un jargon de représentant de commerce. Pour qui a déjà participé à l’écriture de tels projets, remplir ces rubriques revient souvent à aligner avec emphase, tel un publicitaire, les formulations techno-scientifiques toutes faites du moment (compter le nombre de fois où les mots « novel », « breakthrough », « opportunity », « outlet », « deliverable », « roadmap » ou « challenge » sortent dans un tel projet tend à donner le vertige). Et à prétendre que toute recherche proposée est éminemment novatrice et sera génératrice de « breakthroughs »… A l’opposé, on ne répétera jamais assez que la réplication de recherches obtenues dans d’autres laboratoires et la confirmation des résultats est un des impératifs de la science qui n’est malheureusement pas pris en compte dans les orientations des appels d’offre ce qui tend, de fait, à faire baisser la qualité des études scientifiques publiées (1). Cette double nécessité de satisfaire à la litanie techno-scientifique de l’innovation et de ne proposer que des projets de recherche strictement

nouveaux ne peut que susciter l’incompréhension (voire l’agacement) au sein de la communauté scientifique.

La cour des comptes a analysé par deux fois (2) (en février 2011 dans un rapport spécifique sur l’agence et en juin 2013 dans un rapport thématique sur le financement public de la recherche comme enjeu national) un certain nombre de travers techniques de l’ANR. Il est probablement inutile d’en donner ici une liste exhaustive, mais il est intéressant de constater que, même en 2013, l’ANR ne s’était toujours pas dotée d’un moyen de mesurer l’impact de ses financements sur l’état de la recherche en France. En d’autres termes, il n’existe pas à l’heure actuelle d’indicateurs permettant de dire qu’un euro investi par l’ANR dans un laboratoire de recherche a fait augmenter sa productivité scientifique de X publications par an en comparant des statistiques pré- et post-financement par l’agence. La cour des comptes souligne également la baisse constante du montant moyen alloué aux projets lauréats, la baisse constante du taux de réussite aux appels d’offres de l’ANR (figure ci-contre) et les problèmes liés à la politique de recours massif aux contrats à durée déterminée liée à la durée des projets financés par l’ANR. Notamment, concernant le taux de réussite aux appels d’offres ANR, la cour des comptes met en regard le taux de succès actuel (moins de 20%) avec celui observé dans des agences de moyens similaires à l’étranger (40% pour la Deutsche Forschungsgemeinschaft [DFG] allemande, 25% pour les research councils britanniques).

Evolution du taux de succès aux appels à projet ANR 

Un des griefs que l’on entend aussi très souvent dans les laboratoires de recherche provient d’une différence importante entre la NSF et l’ANR : tandis que la NSF rend les évaluations des projets aux porteurs des projets évalués, afin de leur permettre d’améliorer leurs propositions, l’ANR ne fournit que des synthèses ultra-concises résumant plusieurs rapports par des experts internationaux et une délibération de comité de sélection des projets en moins d’une page de texte, souvent très peu utile pour comprendre les raisons d’un refus de financement. Cet état de fait entretient une impression d’arbitraire qui semble particulièrement inappropriée à l’aune du volume de travail effectué par les chercheurs pour écrire au mieux leurs projets de recherche, et des experts internationaux pour les évaluer. En d’autres termes, il serait plus acceptable que le « grand jeu de l’ANR » ressemble autant à une loterie si, dans le même temps, les exigences rédactionnelles liées à la soumission d’un projet étaient diminuées. On ne peut pas exiger des chercheurs un tel niveau de détail dans la description de leurs projets en omettant de leur présenter des rapports tout aussi détaillés sur l’évaluation de ces projets.

Enfin, le mouvement « Sauvons la Recherche » a entrepris, depuis 2006, de dresser les différentes sources de mécontentement des chercheurs vis-à-vis de l’ANR (3). Parmi les arguments encore peu ou pas évoqués ici figurent le fait que le fonctionnement de l’ANR et de ses appels à projet est très coûteux (le coût de la procédure d’évaluation des projets soumis en réponse à un appel d’offres ANR est estimé à 75% du montant des aides distribuées (4), en grande partie du fait de la faible quantité de projets lauréats et de la grande quantité de projets à évaluer). Les chercheurs regrettent aussi que le développement de l’ANR se soit accompagné d’une augmentation du poids relatif des CDDs5 dans la réalisation des projets de recherches, ce qui a tendance à déstructurer le fonctionnement des laboratoires.

L’agacement manifeste des chercheurs vis-à-vis du mode de fonctionnement de l’ANR (niveau de détail administratif demandé, technicité du vocabulaire imposé, priorité à la nouveauté dans les projets à soumettre, brièveté des rapports d’évaluation, sentiment d’arbitraire, coût de fonctionnement de l’ANR, etc.) ne doivent cependant pas masquer des interrogations plus profondes sur le mode de financement de la recherche que propose l’ANR. Le financement de la recherche « sur projets » n’est en effet pas la seule modalité envisageable. La combinaison d’un financement sur appel à projets et d’une orientation très forte vers la valorisation des innovations technologiques par des brevets est une des stratégies possibles de pilotage de la recherche. Prétendre que ce serait la seule efficace relèverait de l’idéologie.

D’AUTRES MODES DE FINANCEMENT DE LA RECHERCHE SONT POSSIBLES 

Dans un article récent paru dans la revue scientifique Nature (6), John Ioannidis défend l’idée que le financement de la recherche par projet est contre-productif, ou tout du moins une option à ne réserver qu’à une faible proportion du budget public de financement de la recherche, et que la meilleure option reviendrait à financer directement les chercheurs en leur laissant plus de liberté. Selon cet auteur, le système de financement sur projet réduit le temps dont les chercheurs disposent pour faire de la recherche en les obligeant à une course permanente pour l’obtention de nouveaux financements – une situation que Leo Szilard, physicien, co-inventeur du réacteur nucléaire et instigateur de la pétition contre l’utilisation de la bombe atomique, avait décrite dès 1961 dans The Voice of the Dolphins lorsqu’il imaginait, avec ironie, comment il serait possible de ralentir la science : « On pourrait mettre en place une fondation dotée annuellement de 30 millions de dollars. Les chercheurs ayant besoin d’argent pourraient y faire des demandes, en se montrant convaincants. Comptons pour examiner les dossiers dix comités, chacun composés d’une douzaine de chercheurs. Prenons les chercheurs les plus actifs et nommons-les membres de ces comités… Premièrement, les meilleurs chercheurs seraient soumis à leurs laboratoires et occupés à l’évaluation des dossiers. Deuxièmement, les chercheurs en quête d’argent se concentreraient sur des questions jugées prometteuses, et sur lesquelles ils seraient à peu près sûrs de pouvoir publier rapidement. Les premières années, il y aurait certainement une augmentation notable de la production scientifique ; mais à force de rechercher les choses évidentes, bientôt la science se tarirait… Il y aurait des modes et ceux qui les suivraient auraient les crédits. Ceux qui ne les suivraient pas n’en auraient pas et apprendraient rapidement à suivre les modes à leur tour. » (7).

Cette situation de course permanente et de perte de temps générale s’explique non seulement par le niveau d’exigences de détail demandées dans les appels d’offres, mais aussi par l’importance croissante donné au nombre de financements obtenus dans l’évaluation des chercheurs par les organismes de recherche. Cet façon d’évaluer les chercheurs s’expliquent en partie du fait de la compétition pour les postes de chercheurs et d’enseignants-chercheurs, et aussi en partie du fait d’une incitation à rapporter des subsides dans les laboratoires de recherche pour faire face aux baisses de crédits récurrents (8). Face à ce constat, différentes options de financement de la recherche seraient plus adaptées à celle adoptée que le mode de fonctionnement actuel d’organismes tels que la NSF ou l’ANR.

Option 1 : financer tout le monde de la même manière 

Cette option reviendrait à diviser à parts égales le budget public de recherche par le nombre de chercheurs et enseignants-chercheurs. A l’évidence, les montants alloués pourraient être si faibles qu’ils deviendraient insignifiants pour les laboratoires de recherche dont le fonctionnement est très coûteux (par ex. en biologie ou en physique expérimentale). En revanche, ce système pourrait être tout à fait adapté aux exigences des disciplines théoriques pour lesquelles les besoins sont principalement limités aux financements de la bureautique et des contrats de doctorants et post-doctorants. Par ailleurs, une étude scientifique cherchant à mettre en relation les fonds alloués à des projets de recherche avec les résultats obtenus (en termes de publications et de citations) a conclu que l’efficacité des financements était sub-linéaire, c’est-à-dire qu’allouer 100 k€ de plus à un projet en ayant déjà 300 k€ était moins rentable que d’allouer 100 k€ à un projet ne disposant d’aucun budget (9).

A condition d’allouer ces petits budgets par équipe de recherche, il semble assez raisonnable de penser que ce mode de fonctionnement suffirait à certains laboratoires de science théorique pour tourner avec un flux relativement constant d’étudiants et de post-doctorants. Les qualités évidentes de cette méthode de financement sont l’absence totale de recours à l’évaluation des projets pour leur financement, et donc l’absence de risque de biais d’évaluation et la réduction des contraintes

administratives à un strict minimum pour les chercheurs. Les problèmes reconnus concerneraient l’impossibilité de financer des études expérimentales coûteuses et son absence de caractère méritocratique. Ce dernier point, cependant, est assez ténu à l’aune du mode de fonctionnement actuel des agences de financement sur projet de par le monde puisque environ 30% des publications liées à des prix Nobel en médecine, physique et chimie ne sont pas issues de tels financements (10). Un autre argument assez fort allant dans ce sens provient d’une méta-analyse récente qui a mis en relation le nombre de citations des publications de projets financés et le classement des projets lors de leur évaluation pour financement, dans le cadre de la recherche biomédicale dans le domaine des maladies cardio-vasculaires (11). Cette étude démontre une absence totale de corrélation entre ces deux grandeurs, confirmant de fait l’idée que le processus d’évaluation des projets de recherche est assez myope sur l’impact potentiel des projets acceptables. Une autre étude, restreinte au domaine de l’écologie, démontre à peu près la même chose (12).

Option 2 : financer au hasard 

Une autre option avancée par Ioannidis consisterait à allouer les financements de recherche selon une procédure aléatoire. Cela reviendrait, en moyenne, à financer tous les chercheurs de la même manière, mais en réduisant le nombre de chercheurs financés, et, à budget égal, en augmentant donc les montants alloués, de manière à pallier l’impossibilité de financer des recherches coûteuses associée à un traitement totalement égalitaire des financements. Il faut noter que, malgré l’aspect apparemment saugrenu d’une répartition au hasard des ressources, le système actuel s’en accommode bon gré, mal gré. En effet, on estime que l’équivalent Australien de l’ANR pour la recherche médicale décide du fait de financer un projet de recherche de manière aléatoire dans environ un cas sur trois (13). Les chiffres n’existent pas pour l’ANR, mais on peut penser que, une fois les moutons noirs enlevés de la liste des projets soumis à un appel d’offre, une répartition aléatoire des ressources ferait aussi bien l’affaire que les fastidieux classements actuellement en vogue pour départager les lauréats immédiats des projets sur liste d’attente (cf. l’étude de Danthi et coll.11 citée précédemment). En fait, il est assez vraisemblable que les biais qui entachent l’évaluation des projets (14) (trop grande proximité ou au contraire trop peu de connexions avec le sujet décrit, entraînant respectivement des biais de compétition ou de méconnaissance de l’état de l’art) empêchent une description fine de la valeur supputée des bons projets soumis, si tant est qu’une telle description fine ait un sens dans l’absolu puisqu’il peut paraître assez absurde de vouloir quantifier a priori l’impact de projets de recherche qui tendent, par nature, à explorer les frontières de la connaissance et où, donc, l’expertise scientifique doit logiquement trouver ses limites.

Option 3 : financer au vu des résultats récents 

Autant juger de la qualité d’un projet non encore réalisé peut relever de l’arbitraire, autant, selon Ioannidis, une évaluation qui ne se fonderait que sur la carrière récente (cinq dernières années) d’un chercheur permettrait d’investir les finances de la recherche entre de bonnes mains. Deux possibilités sont alors à envisager : (i) une évaluation des dossiers par les pairs ou (ii) une comptabilisation automatique d’indicateurs faciles à obtenir (notamment, en se fondant sur l’impact des indices bibliométriques). D’emblée, on peut arguer qu’une telle option, quelle que soit la modalité choisie, ne pourra s’appliquer de manière uniforme pour les chercheurs tout nouvellement recrutés et ceux ayant déjà une certaine expérience. Par ailleurs, contrairement à un financement sur projet, une telle manière de financer ne laisse pas de place aux accidents de parcours et tendrait à faire s’accumuler les ressources sur les têtes de ceux en ayant déjà beaucoup obtenu par le passé.

La possibilité d’une allocation des financements sur la base d’une évaluation par les pairs des dossiers de publication génère des critiques évidentes. D’une part, ce serait prendre le risque de favoriser des décisions subjectives et de favoritisme – voire de népotisme – qui pourraient être associée à un tel système: des arrangements entre évalués et évaluateurs seraient difficilement contrôlables. D’autre part, le coût (indirect) d’une telle opération serait énorme car, même en allouant des ressources aux chercheurs évalués pour cinq ans, un tel système reviendrait à faire évaluer les dossiers d’un cinquième des chercheurs et enseignants-chercheurs chaque année par une autre fraction importante de cette même population. La diminution de la charge d’évaluation liée à ce système ne pourrait que passer par une périodicité plus longue, ce qui reviendrait à condamner les perdants d’une évaluation pour plus longtemps.

Le cas de l’évaluation automatique des chercheurs et enseignants-chercheurs ne pourrait donner lieu à la même possibilité d’arbitraire que l’évaluation par les pairs, mais s’exposerait à des problèmes spécifiques. Comme le souligne Ioannidis, il n’existe aujourd’hui pas de consensus sur les bonnes métriques permettant de rendre compte du succès d’un chercheur. Pire, il est assez vraisemblable que de telles métriques, si elles existent, dépendent fortement de la discipline considérée – pour qui connaît le système de compte-rendu annuel d’activités [CRAC] propre au CNRS et son petit frère, le recueil d’informations pour un observatoire des activités de recherche en sciences humaines et sociales [RIBAC], cette dépendance des métriques à la discipline de rattachement des chercheurs tombe sous le sens. Par ailleurs, soulignons que de telles métriques doivent nécessairement se fonder sur l’utilisation de bases de données, recueillies soit avec l’aide des évalués (ce qui implique une certaine charge administrative), soit automatiquement à partir des données disponibles sur les bases en ligne comme ISI Web of Knowledge, ORCID ou Google scholar. Cette dernière option ne pourrait pas se prémunir d’une analyse fondée sur des données erronées, inévitable fatalité pour qui a déjà tenté de chercher la liste de publications d’un John Smith à l’aide de Google scholar. Enfin, il est utile de mentionner que, dans l’éventualité où un consensus se ferait autour d’une certaine batterie d’indicateurs de productivité scientifique, l’existence-même de ces indicateurs entraînerait immédiatement un changement des comportements et des mentalités des chercheurs (avec une résistance probablement variable entre disciplines en fonction de leur degré de dépendance aux financements de l’ANR), pas forcément souhaitable pour l’efficacité générale de la recherche (par exemple, si les indicateurs choisis se focalisaient sur les citations immédiates des papiers publiés, il serait assez prévisible que tous les scientifiques cherchent à faire citer leurs papiers par le plus de collègues possibles – on sait, depuis l’ascension réelle du fictif I. Antkare au firmament des indices H que la manipulation des données de citations est plus qu’envisageable (15)).

Option 4 : financer au vu des pratiques de recherche 

Une option originale envisagée par Ioannidis, qu’il nomme sobrement « scientific citizenship » reviendrait à allouer des financements, ou tout du moins à moduler les financements obtenus, en fonction d’indicateurs mesurant l’adéquation du travail du chercheur aux bonnes pratiques et aux recommandations ayant pour but d’améliorer le fonctionnement d’ensemble du système de recherche. Par exemple, rendre ses données publiques (16), travailler avec beaucoup de rigueur (par exemple, en répliquant systématiquement ses expériences), effectuer une description méticuleuse des protocoles utilisés, chercher à publier à la fois ses résultats positifs et « négatifs », s’occuper du maintien de logiciels ou de bases de données publics, ou encore s’investir dans l’amélioration du système de revue par les pairs pourraient être des activités reconnues et récompensées par des subventions de recherche. Une telle aspiration pourrait aussi, dans le contexte français, trouver un point de jonction avec les revendications assez récurrentes des enseignants-chercheurs concernant la prise en compte de leurs charges d’enseignement et d’organisation de l’enseignement dans leurs évaluations personnelles. En reconnaissant le rôle nécessaire d’activités qui ne se soldent pas directement par des publications dans des revues scientifiques à très fort impact, une telle option permettrait de favoriser l’émergence de modèles de carrière hétérogènes, mais également reconnus, au sein des laboratoires et, ainsi, favoriser l’émergence de collaborations fructueuses entre, par exemple, des passionnés des bases de données publiques, passant beaucoup de temps à les maintenir, et des chercheurs au profil plus classique.

Option 5 : financer des orientations de recherche 

Une modification assez simple des appels d’offres actuels de l’ANR pourrait être de ne demander qu’une description sommaire des orientations de recherche envisagées, option que Ioannidis appelle « project with broad goals ». Cette manière de procéder aurait plusieurs avantages. Tout d’abord, cela diminuerait avantageusement les temps passés à écrire et évaluer ces projets. Ensuite, cela permettrait une plus grande flexibilité d’exécution pour les projets lauréats, de sorte que les pistes initialement envisagées, si elles se révélaient infructueuses, pourraient être mises de côté au profit de nouvelles pistes ayant émergé depuis le dépôt du projet. Enfin, contrairement aux financements sur dossier (options 3 et 4), cette option n’entraînerait pas nécessairement une accumulation des ressources sur ceux en ayant déjà bénéficié par le passé. Il est important de noter qu’un tel système est déjà pratiqué partiellement par les NIH et pleinement par le Howard Hughes Medical Institute (HHMI), avec des résultats extrêmement probants. En particulier, il semble que ce système, lorsqu’il est couplé à une évaluation des dossiers des candidats au financement, permettent d’obtenir de meilleurs résultats que la forme traditionnelle de financements sur projet (17).

Option 6 : financer des « centres d’excellence » 

Cette option, non évoquée par Ioannidis mais présente néanmoins dans la littérature18, consiste à utiliser une partie du financement public de la recherche pour créer des centres « hors université » ayant pour vocation d’attirer en leurs murs, pour des périodes plus ou moins longues, des chercheurs titulaires ou non, d’organiser le financement de groupes de travail et/ou de permettre le financement de post-doctorants autour d’une thématique propre à l’institut. En France, le Centre de Synthèse et d’Analyse de la Biodiversité (CESAB) créé par la Fondation pour la Recherche sur la Biodiversité (FRB) a une telle vocation : ce centre possède son appel d’offres propre qui lui permet de financer jusqu’à une quinzaine de groupes de travail et de post-doctorants simultanément, autour de questions liées à la biodiversité, l’écologie et l’environnement au sens large. Les Etats-Unis ont expérimenté différentes formes de centre d’excellence, notamment le National Center for Ecological Analysis and Synthesis (NCEAS), le National Institute for Mathematical and Biological Synthesis (NIMBioS), etc. Ces organismes, tous financés par la NSF (contrairement au CESAB qui n’est en rien financé par l’ANR) pour des durées relativement longues (5 à 10 ans) et qui peuvent être renouvelés en fonction des résultats obtenus, permettent de développer un pan entier de recherche de manière parfois spectaculaire (dans le cas du NCEAS (19)), même si, pour les Engineering Research Centers20 (ERCs) et les Science and Technology Centers (21) (STC), il semble que l’efficacité du dispositif n’ait pas forcément été au rendez-vous (18).

Option 7 : financer avec flexibilité 

Ici, il convient d’évoquer une amélioration au système classique de financement sur projet, tel que celui de l’ANR, évoquée à plusieurs reprises dans la littérature. Cette variation consisterait à moduler le montant de l’aide accordée pour un projet lauréat en fonction de critères définis à l’avance, par exemple en se fondant sur une analyse rétrospective des productions passées du chercheur ou consortium soumettant le projet (22,23). Cette modulation (« sliding scale » en anglais) permettrait de financer un plus grand nombre de projets et de manière plus égalitaire, une condition qui semble en général plus propice à l’innovation scientifique (24). Un des corollaires de cette modulation serait également la possibilité pour les chercheurs lauréats d’adapter leur plan de recherche au montant fourni, ceci s’accompagnant d’un suivi moins strict, du point de vue scientifique, des résultats (livrables dans le jargon de l’ANR) du projet (24). Le fait de ne pas financer la totalité d’un projet peut paraître absurde dans certains cas, mais pour des projets souvent présentés sous forme de tâches et de « work packages », on pourrait assez naturellement repenser l’utilisation d’un financement modulé pour n’accomplir que certaines tâches, quitte à redemander un financement complémentaire si les tâches restantes semblent mériter une exploration rapide.

UN DÉBAT SUR LE « COMMENT FINANCER » PLUTÔT QUE SUR LE « QUOI FINANCER » 

La littérature scientifique, en particulier d’origine américaine, abonde de publications telles que celles de John Ioannidis, par exemple sur le processus d’évaluation des projets (14), sur les impacts des financements publics et privés dans une discipline donnée (25), sur les pour et les contre des financements centralisés (24), sur les moyens de mesurer les impacts de programmes de recherche (26), etc. Côté français, cependant, les prises de position pour ou contre l’existence ou le mode de fonctionnement de l’ANR ne sont que très peu assises sur des données factuelles, en particulier concernant l’efficacité des aides de l’ANR. Nous ne souhaitons pas, dès à présent, trancher quant à la « bonne » manière de financer la recherche, mais plutôt présenter les questions en suspens d’un débat qui, malheureusement, n’a pas encore eu lieu.

Qu’est-ce qu’un système de recherche et d’innovation ? 

Avant de dessiner les contours d’un système plus efficace de financement public de la recherche, il nous semble important de revenir sur la définition et les caractéristiques d’un « système de recherche et d’innovation ». Reprenant une étude classique (27), un système de recherche doit nécessairement être caractérisé par :

1. une sélection des projets et/ou des chercheurs,

2. un ou des financement(s) de la recherche,

3. une ou des entité(s) servant à absorber les risques associés à la recherche,

4. des incitations visant à augmenter l’innovation,

5. des moyens de disséminer et d’utiliser les innovations produites.

 

Une évaluation du système de recherche doit donc poser deux questions au sujet de chacune de ces cinq caractéristiques : (i) est-elle efficace ? (ii) quel est son coût pour la société ? La question du financement a déjà été traitée plus haut, et nous développerons un peu la question des incitations plus loin, mais il importe également de considérer quelques éléments concernant la sélection, l’absorption des risques et la dissémination des résultats de la recherche.

Si l’on s’intéresse au système français existant actuellement, on s’aperçoit que les chercheurs et projets sont sélectionnés (via les comités de sélection, sections du comité national, etc. d’un côté et via les comités ANR de l’autre). L’efficacité de ces deux sélections n’est pas évaluée à l’heure actuelle – non seulement on n’a pas l’équivalent des données de Danthi et coll.(11) ou de Scheiner & Bouchie (12) pour juger de l’utilité des classements des projets établis par l’ANR, mais il n’y a pas eu non plus d’études rétrospectives pour juger de la performance des chercheurs classés aux concours CNRS, IRD, INRA, etc. ou sur des postes d’enseignants-chercheurs. Le coût de ces deux procédures de sélection est considérable (voir plus haut pour le coût des évaluations ANR), mais les données ne semblent pas avoir été calculées dans le cas des comités de sélection pour le recrutement de chercheurs ou d’enseignants-chercheurs. A ce stade, il faut mentionner aussi le fait que l’AERES procède également à une évaluation des laboratoires, des équipes, des filières d’enseignement, des écoles doctorales, etc., bref de toutes les composantes du ministère de l’enseignement supérieur et de la recherche et, en cela, fait probablement double emploi avec les évaluations du travail des chercheurs effectuées par les revues à comité de lecture, par les comités de sélection de projets de recherche, etc. Toutes ces évaluations ont un coût, et on en est à se demander si le coût de l’évaluation ne dépasse pas de très loin le coût possible qui serait associé à des franges « non-publiantes » de la communauté scientifique.

Il est aussi intéressant de mentionner que la question de savoir « qui absorbe le risque ? » est rarement posée. La recherche est une activité risquée à plusieurs titres. D’une part, les résultats d’un projet ne peuvent être prédits à l’avance ; d’autre part, les conditions d’une recherche peuvent changer et son coût peut augmenter du fait de ces changements (par exemple, du fait de pannes de machines coûteuses). Si on se contente de s’intéresser au risque associé à la prédictibilité des résultats d’un projet, il est remarquable de constater que l’ANR anticipe ce risque d’une manière toute particulière puisque, dans les points à décrire pour les demandes de financement, figure une prévision des « jalons » (« milestones ») et des livrables (« deliverables ») censés être prédits au moment du dépôt du projet. Absorber les risques reviendrait, normalement, à en reconnaître l’existence sans demander de garanties ; à l’inverse, les agences de financement (ANR en tête) s’empressent de demander un cadre prévisionnel qui laisse peu de place à l’imprévu et à la trouvaille « spontanée ».

Enfin, la question des moyens de dissémination et d’utilisation de l’innovation fait rarement partie du débat sur le système de recherche français. Si les chercheurs sont habitués aux publications scientifiques comme moyens de disséminer entre chercheurs, la question d’un développement de moyens de dissémination des chercheurs vers la société civile et/ou vers les entreprises est un tabou qu’il faut briser. L’attitude du monde de la recherche vis-à-vis de la vulgarisation est très hétérogène. Certains passionnés sont prêts à prendre sur leur temps déjà fragmenté pour faire des conférences à destination du grand public ; d’autres ne voient pas leur intérêt quand l’entièreté de leur évaluation en tant que chercheur se fait sur la taille de leur dossier de publications. Comme évoqué plus haut au sujet des modes de financement de la recherche (option 4), il serait envisageable de financer la recherche au vu des pratiques des chercheurs ; en particulier, on peut penser que si l’engagement vis-à-vis de la dissémination des résultats de la recherche comptait pour l’obtention de financements futurs, la qualité et la quantité de la science vulgarisée tendrait à augmenter.

Financer des projets ou des personnes ? 

Si la question se pose véritablement en ces termes dans les pays anglo-saxons, il faut cependant ici mettre un bémol de taille : le mode de fonctionnement actuel des laboratoires français, ou en tout cas le modèle idéal professé par les universités et les établissements publics de recherche, n’est plus celui d’un professeur isolé dirigeant une équipe de maîtres de conférences à ses ordres et encadrant une armée de stagiaires et doctorants (modèle dit « du mandarinat » que l’on retrouve en Suisse, en Allemagne ou aux Etats-Unis sous des formes un peu différentes), mais une équipe composée de plusieurs chercheurs et enseignants-chercheurs, aux centres d’intérêt proches mais variés et aux programmes de recherche indépendants, collaborant chacun avec des personnes différentes et tâchant d’apprendre leur savoir-faire à un petit nombre d’étudiants. Ce modèle est antithétique d’un financement qui se ferait strictement « par personne » car cela pousserait assez fortement à revenir vers un mandarinat de fait, les chercheurs n’ayant obtenu que peu de financement étant obligés de s’accrocher aux basques d’un grand ponte reconnu et financé. Une telle dérive pourrait être perçue, à raison, comme un retour en arrière sur les habitus de la recherche française et ainsi gommer une des spécificités de notre système qui le rend attrayant aux yeux des jeunes chercheurs étrangers.

Il convient donc de remplacer le débat « projets vs. personnes » par une interrogation sur la pertinence de financer des projets ou des équipes de recherche. Si l’on s’en tient aux indications de Ioannidis évoquées plus haut6, cela reviendrait soit à faire évaluer les laboratoires ou équipes de recherche de manière relativement régulière et de leur attribuer des subsides dépendant de cette évaluation (ce qui est déjà fait actuellement puisque l’une des missions anciennement dévolues à l’agence d’évaluation de la recherche et de l’enseignement supérieur [AERES] était justement de classer les laboratoires de manière à en déterminer le montant des financements par leurs instituts et université de tutelle). Donc le financement « par équipe » ou « par laboratoire » existe déjà de fait dans le système français… Ceci suggère qu’opérer un changement dans la manière de financer la recherche ne nécessite pas forcément de réinventer le système mais pourrait très bien s’accommoder d’une modification des équilibres budgétaires entre « financements récurrents » (c’est-à-dire les montants alloués directement aux laboratoires sur la base de leurs évaluations quinquennales) et financements sur appels d’offre (appels d’offre ANR, opérations « d’excellence » liées au grand emprunt, …).

Hétérogénéité des besoins par discipline et recherche interdisciplinaire 

Une des missions originelles de l’ANR est de fournir un guichet unique pour le financement de la recherche. Initialement, cette mission se traduisait par une multitude d’appels d’offres fléchés et un appel d’offres dit « blanc » qui permettait aux chercheurs de proposer des projets sur des thématiques non couvertes par les appels d’offres fléchés. Actuellement, cette structuration des appels d’offres a disparu au profit d’un appel d’offres quasi-unique (appel d’offres dit générique) dans lequel tous les projets doivent trouver leur place en s’affichant comme une réponse à un « défi ». Cette dynamique générale – passer d’appels d’offres hétérogènes offerts par les différents instituts de recherche, ministères ou autres offices parapublics à une agence unique de financement, puis d’appels d’offres disciplinaires hétérogènes à un appel d’offres générique se déclinant par défi – est assez facilement identifiable à une simplification des modes de fonctionnement (côté pile) ou à une négation pure et simple des spécificités et attentes de financement des différentes disciplines (côté face). Bien sûr, même l’aspect guichet unique n’est pas exact car il existe encore des appels d’offres liés aux organismes de recherche, par exemple les projets exploratoires premiers soutiens (PEPS) du CNRS, mais leurs financement se sont rétrécis comme peau de chagrin.

Au risque de se répéter – et de répéter les conclusions de la cour des comptes –, il faut souligner qu’une évaluation rigoureuse des conséquences du passage au guichet unique, tant sur l’efficacité de la recherche (nombre de publications par chercheurs) et de l’efficience du financement (argent absorbé par l’attribution des financements / argent effectivement distribué aux laboratoires de recherche), n’existe pas. Aussi peut-on s’interroger sur le bien-fondé d’une concentration renforcé des moyens de financement sur un petit nombre d’appels d’offres si l’on ne mesure pas les effets, bénéfiques ou non, des premiers pas qui ont été faits dans cette direction. A l’inverse, des scientifiques présentent l’argument exactement inverse (24), en demandant à ce que le financement de la recherche ne se fasse pas à guichet unique et ce pour des raisons d’efficacité générale du système de recherche. Il est difficile de conclure quant à la bonne option, mais peut-être l’existence même d’arguments soutenant les deux factions ne devrait pas précipiter la mise en place d’une solution aussi extrême que celle proposée avec l’appel d’offres générique présenté cette année par l’ANR, ou tout du moins devrait-elle soutenir l’existence indépendante d’un appel d’offres « blanc » qui permettrait de financer une recherche moins appliquée que les réponses aux défis sociétaux.

Nous souhaitons mettre en exergue ici quelques questions importantes relatives à l’hétérogénéité des financements et des besoins entre disciplines, questions qui devraient susciter le débat à l’occasion de cette consultation publique sur la stratégie nationale de recherche :

1. Le financement public de la recherche doit-il être homogène entre champs disciplinaires ? En particulier, à l’aune de l’hétérogénéité des coûts de la recherche entre disciplines, ne doit-on pas envisager que le financement de la recherche devrait s’adapter à cet état de fait ?

2. Si hétérogénéité de financement il doit y avoir, comment devraient se prendre les décisions d’allocations de budget entre champs disciplinaires ? Quelle serait la meilleure façon de procéder pour que le résultat de cet arbitrage soit à la fois juste et efficace ?

3. En termes opérationnels, comment devrait se traduire une telle hétérogénéité de budgets entre disciplines (par exemple, doit-on envisager plusieurs appels d’offres séparés ou un affichage disciplinaire fort des « défis » de l’appel d’offre générique) ? Quels seront les critères d’éligibilité pour qu’un chercheur puisse prétendre à un financement disciplinaire donné ?

4. Si le financement de la recherche est fractionné par discipline, comment financera-t-on la recherche aux interfaces de ces disciplines ? L’ANR doit-elle proposer des modes de financement similaires à ceux de la mission interdisciplinaire du CNRS pour favoriser l’interdisciplinarité ?

Une (méta)priorité thématique émergente : financer la recherche sur l’évaluation du système de financement de la recherche 

Malgré les considérations développées plus haut sur la (non) pertinence d’une proposition de thématique de recherches « prioritaires », nous proposons néanmoins une unique thématique de recherche prioritaire, qui concerne toutes les thématiques de recherche : évaluer le système de financements de la recherche. Cette évaluation est le préambule d’une critique du système, de propositions et de décisions pour le financement sur le long terme de la recherche française. Si la société civile et les chercheurs souhaitent une meilleure efficacité des financements et du fonctionnement de la recherche française et une meilleure efficience du système d’attribution de financements, c’est-à-dire une meilleure création et diffusion des connaissances, alors il est nécessaire de :

1. Déterminer les meilleurs critères d’évaluation de l’efficacité des financements de la recherche ;

2. Evaluer si l’on doit financer peu de gros projets, beaucoup de petits projets, ou un mélange intermédiaire, et en ce dernier cas, évaluer en quelle proportion ;

3. Evaluer l’efficacité des commissions de sélection et d’attribution de financements pour la recherche : sont-elles capables de prédire la production scientifique qui sera issue d’un projet ? Quels sont les modes d’évaluation des projets les plus efficaces ?

4. Evaluer l’efficacité des services d’aide à la rédaction de projets, d’accompagnement et de gestion des projets scientifiques ;

5. Evaluer l’efficacité des services de transfert des connaissances (publications de brevets, créations d’entreprises, créations d’emplois de chercheurs dans des entreprises, etc.) ;

6. Evaluer l’efficacité des brevets dans la diffusion de la connaissance, le financement de la recherche, le dynamisme de l’économie et le bon fonctionnement social.

Par ailleurs, si une telle priorité de recherche devait émerger et être financée, le développement de cette thématique serait l’occasion de favoriser des études à plus large échelle, portant sur les facteurs favorisant la création et la diffusion des connaissances :

7. Quels sont les facteurs favorisant la créativité des chercheurs : la qualité de leur environnement de travail ? Une grande quantité d’argent ? Une grande quantité de temps ? Cela dépend-il des disciplines ?

8. Quels sont les comportements que l’on se doit de favoriser et récompenser ? L’honnêteté du chercheur et sa propension à partager ses compétences, données et connaissances ? Son implication dans la diffusion des connaissances (responsabilité dans un journal scientifique, enseignement) ? Son implication dans l’évaluation des études scientifiques (activité d’arbitre pour les comités de lecture) ?

Un effet pervers du système de financement actuel : l’utilisation de moyens publics pour acquérir des financements publics 

Que penser des sociétés privées qui proposent des services cherchant « à bénéficier et tirer le maximum de ces mécanismes » de financement de la recherche ? En quelques mots, cela revient à utiliser de l’argent public pour acheter un service permettant de maximiser les chances d’obtenir de l’argent public. Bien entendu, cet argent pourrait être utilisé pour financer directement des projets de recherche, mais comme l’écrit une de ces sociétés de services sur son site internet : « Les universités et instituts de recherche ne peuvent pas laisser des scientifiques expérimentés perdre leur temps sur la recherche de financements. Nous pouvons le faire bien plus efficacement. Nous pouvons par exemple vous offrir les services d’un manager intérimaire – un professionnel expérimenté qui pourra travailler à temps partiel pour votre organisation et lancer de nouveaux projets, candidater à des subventions publiques et s’assurer de leur obtention. » (28). De telles sociétés sont florissantes et profitent de la mise en compétition à outrance des chercheurs français. Quoi de plus normal ? Pour faire de la recherche il faut de l’argent et du temps, et pour avoir de l’argent, il faut faire de la recherche. Que reste-t-il à sous-traiter : le temps !

Bien d’autres sociétés privées profitent du système de recherche, fondé surtout sur le nombre de publications écrites par un chercheur. Ces sociétés proposent leurs services d’aide à la rédaction d’articles scientifiques, ainsi qu’à tout le processus de publication, depuis la soumission jusqu’aux réponses aux éditeurs et arbitres des comités de lecture. Ces sociétés permettent-elles de rendre plus efficace la recherche et ses financements ? Rien n’est moins sûr. Plus efficiente ? Là, il n’en est pas question. Toujours est-il que ces sociétés vivent en grande partie de financements publics qui pourraient servir à financer la recherche. Il est facile d’imaginer que la qualité de la recherche et des publications scientifiques ne sont pas améliorées par l’utilisation de tels services : comment une personne non-experte d’un domaine peut-elle avoir une influence positive sur la qualité d’un texte scientifique ? Son unique effet réside en sa capacité à augmenter la visibilité d’une étude, pas à en changer le contenu.

Le monde de la recherche française doit se poser la question des origines d’une telle dérive des modes d’utilisation des financements de la recherche, et de si elle est souhaitable. Si l’on juge qu’elle ne l’est pas, alors nous nous devons de la juguler en imposant des critères aux chercheurs lors de leurs demandes de financement. Les projets ne doivent pas prévoir une quelconque rétribution de sociétés d’aide à la rédaction de projets. Les chercheurs faisant appel à des sociétés d’aide à la publication doivent être défavorisés.

De la non-nécessité de recourir aux brevets 

Un autre moyen de « piloter » la recherche qui n’a pas été évoqué jusqu’à présent est fourni par les brevets. En effet, les instituts de recherche, qu’ils se déclarent à visée fondamentale ou appliquée, incitent de plus en plus les chercheurs et enseignants-chercheurs à déposer des brevets, et cette incitation au brevet peut s’interpréter, d’une certaine manière, comme un pilotage de l’équilibre entre recherche fondamentale et recherche appliquée.

Le bien-fondé du système des brevets d’un point de vue de droit ou d’un point de vue moral est hors de notre propos. Néanmoins, nous aimerions rappeler brièvement que, par contre, le bien-fondé du système de brevets d’un point de vue économique et scientifique est loin d’être une évidence. Joseph Stiglitz, prix Nobel d’économie ayant passé une certaine partie de sa carrière de scientifique à s’intéresser à l’économie de l’innovation et aux effets des asymétries d’accès aux technologies pour l’économie, est l’auteur d’une étude27 qui compare les effets sur le pilotage de la recherche et sur l’économie de trois systèmes incitatifs pour la recherche : les brevets, les récompenses et la subvention publique directe. Pour Stiglitz, comprendre et optimiser la politique de recherche et les incitations à l’innovation est un thème central de ce qu’il nomme l’économie de la connaissance, c’est-à-dire l’économie liée à une société dans laquelle une grande part des richesses produites provient du savoir et de ses utilisations.

Le système des brevets donne naissance à plusieurs types d’inefficiences économiques, ainsi qu’à des inefficacités du système de recherche :

1. l’existence de brevets assure l’existence de monopoles qui, en retour, distordent la concurrence, et créent des coûts économiques (du fait de l’absence de concurrence) et sociaux (par exemple, dans l’accès aux nouvelles molécules pharmaceutiques) très forts ;

2. le système de brevets est extrêmement dépendant de la sphère juridique entraînant, de fait, d’énormes coûts en avocats, conseillers, etc. ;

3. récompenser une découverte par un brevet crée une disparité entre l’utilité des inventions brevetées et les bénéfices potentiels concédés aux inventeurs. En particulier, l’utilité sociale marginale liée à un brevet provient essentiellement du fait qu’une invention soit disponible plus tôt que ce qu’elle n’aurait été en l’absence de brevets (en gros, l’utilité pour la société de permettre de breveter une invention est d’inciter les chercheurs à chercher plus vite). Si effectivement la même invention avait été trouvée, plus tard, en l’absence de brevets, on peut s’interroger sur le bien-fondé d’accorder en retour un monopole sur l’idée et ses utilisations aux chercheurs détenteurs du brevet – une telle récompense est disproportionnée avec l’utilité sociale d’une avance de quelques années ou dizaines d’années sur la découverte d’une innovation ; en fait, cette récompense correspond à l’utilité totale de l’innovation, pas à l’utilité marginale liée à son invention précoce ;

4. le système des brevets entraîne des problèmes socio-économiques et légaux importants dans certaines disciplines, en particulier lorsqu’un brevet revient à « clôturer les biens communs » (« enclosing the commons »), c’est-à-dire mettre une étiquette privée sur un bien qui aurait dû rester dans le domaine public (27). Par exemple, breveter des méthodes de médecine traditionnelle revient à un acte de piraterie que le cadre légal de dépôt des brevets ne sanctionne pas forcément ;

5. le système de brevets peut ralentir le rythme des découvertes car il crée un coût d’accès à la connaissance ou à son utilisation (29). Par exemple, l’utilisation de connaissances nouvelles liées à une innovation brevetée est nécessairement onéreuse et donc restreinte d’accès, ce qui ne peut rendre plus rapide la découverte d’innovations qui en découleraient ;

6. l’existence de monopoles, fondés sur des brevets, peut amener certaines entreprises en situation de monopole à adopter des comportements anticoncurrentiels visant à ralentir ou empêcher l’innovation chez les entreprises concurrentes (voir par exemple le jugement rendu contre Microsoft en Europe et dans l’Iowa (27)) ;

7. les contours d’un brevet étant souvent difficile à définir explicitement, l’existence de brevets peut décourager l’innovation de par la possibilité d’actions en justice fondées sur une interprétation abusive de l’objet d’un brevet – par exemple, lorsque deux brevets concurrents peuvent réclamer des droits. Cet effet de « patent thicket » (27) explique, par exemple, la lenteur initiale du développement des avions, du fait de l’existence des brevets des frères Wright et de G. Curtiss ;

8. enfin, les brevets peuvent altérer la dynamique d’innovation en induisant des changements dans les directions de recherche entreprises, notamment si contourner un brevet devient une entreprise obligatoire ou, au contraire, périlleuse.

Pour toutes ces raisons, J. Stiglitz recommande (27) un système d’incitation à l’innovation mixte comprenant à la fois des appels à projet, des récompenses publiques visant à accélérer la recherche sur des objectifs qui paraissent socialement utiles et atteignables (et remplaçant les brevets afin de faire tomber ces découvertes dans le domaine public), et des brevets limités à des pans techniques de la science (par exemple, en empêchant de breveter des gènes ou des molécules existant déjà dans la nature, mais par contre en laissant la possibilité de breveter la technique permettant la restauration de tel gène ou la synthèse de telles molécules).

*****

En guise de conclusion, nous aimerions dresser un rapide inventaire des recommandations qui nous semblent prioritaires :

1. Revoir le mode de fonctionnement de l’ANR, a minima (i) en exigeant que l’ANR remette aux porteurs de projets évalués les rapports émis par les évaluateurs et (ii) en réduisant le volume et la quantité de détails demandés pour les projets soumis, de manière à améliorer le rapport coût/bénéfice pour les chercheurs soumettant des projets.

2. Plus généralement, intégrer une réflexion sur le « comment financer la recherche » à cette consultation publique sur la stratégie nationale de recherche. Notamment, prendre conscience que le financement sur appel à projets n’est pas nécessairement la seule possibilité, ou la meilleure, et qu’il peut-être préférable d’envisager d’autres options.

3. Prendre conscience de l’existence d’études scientifiques solides qui mettent en exergue les défauts des différents modes de financement de la recherche choisis par les différents pays. Prévoir de s’appuyer sur de telles études pour justifier et motiver des changements dans la politique de financement de la recherche.

4. Mettre en place une thématique émergente à financer qui consisterait, justement, à effectuer de telles études en France de manière à évaluer l’efficacité et l’efficience du système actuel.

5. Questionner le bien-fondé d’un système incitant à breveter systématiquement toute découverte qui pourrait avoir un usage commercial. A l’heure de l’open access et des licences libres, du partage de données et de la science participative, la prépondérance des brevets comme incitation à l’innovation dans les programmes des instituts de recherche et des universités apparaît comme un anachronisme.

Dans l’attente des résultats de cette consultation publique, nous vous prions d’agréer nos sentiments distingués,

Le 23 Mai 2014,

Signataires, par ordre alphabétique 

Sylvain Billiard (MC Université Lille 1)

David Bohan (DR INRA Dijon)

Thierry Boulinier (DR CNRS Montpellier)

Simon Chamaillé-Jammes (CR CNRS Montpellier)

Elodie Chapuis (CR IRD Montpellier)

Rémi Choquet (IR CNRS Montpellier)

Isabelle Chuine (DR CNRS Montpellier)

Martin Daufresne (CR IRSTEA Aix-en-Provence)

Tanguy Daufresne (CR INRA Montpellier)

Mélanie Debiais-Thibaud (MC Université Montpellier 2)

Mathilde Dufaÿ (MC Université Lille 1)

Anne Duputié (MC Université Lille 1)

Benoît Facon (CR INRA Montpellier)

Hélène Frérot (MC Université Lille 1)

Elise Huchard (CR CNRS Montpellier)

Nicolas Loeuille (PR Université Paris 6)

François Massol (CR CNRS Lille)

Doyle McKey (PR Université Montpellier 2)

Xavier Morin (CR CNRS Montpellier)

Maxime Pauwels (MC Université Lille)

Mathieu Thomas (post-doctorant CNRS Montpellier)

Florence Volaire (CR INRA Montpellier)

BIBLIOGRAPHIE 

1. Ioannidis, J. P. A. PLoS medicine 2, e124 (2005).

2. http://www.collectif-papera.org/IMG/pdf/Rapport_annuel_1702011_ANR_.pdf

http://www.sauvonsluniversite.com/IMG/pdf/rapport_thematique_financement_public_recherche.pdf

3. http://sauvonslarecherche.fr/spip.php?article1479

http://sauvonslarecherche.fr/spip.php?article1903

http://sauvonslarecherche.fr/spip.php?article3453

http://sauvonslarecherche.fr/spip.php?article3462

http://sauvonslarecherche.fr/spip.php?article3463

4. http://sauvonslarecherche.fr/spip.php?article3462

5. http://sauvonslarecherche.fr/spip.php?article3463

6. Ioannidis, J. P. A. Nature 477, 529-531 (2011).

7. http://sauvonslarecherche.fr/spip.php?article2895

8. http://dynamicecology.wordpress.com/2014/05/19/are-us-researchers-slowly-boiled-frogs-or-thinking-out-of-the-box-about-the-future-of-nsf/

9. Fortin, J.-M. et Currie, D. J. PLoS ONE 8, e65263 (2013).

10. Tatsioni, A., Vavva, E. et Ioannidis, J. P. A. The FASEB Journal 24, 1335-1339 (2010).

11. Danthi, N., Wu, C. O., Shi, P. et Lauer, M. S. Circ Res, 302656 (2014).

12. Scheiner, S. M. et Bouchie, L. M. Frontiers in Ecology and the Environment 11, 406-407 (2013).

13. Graves, N., Barnett, A. G. et Clarke, P. Nature 469, 299-299 (2011).

14. Chubin, D. E. Evaluation Review 18, 20-30 (1994).

15. http://hal.inria.fr/docs/00/71/35/64/PDF/TechReportV2.pdf

16. Baggerly, K. Nature 467, 401-401 (2010).

17. Azoulay, P., Graff Zivin, J. S. et Manso, G. The RAND Journal of Economics 42, 527-554 (2011).

18. Gaughan, M. et Bozeman, B. Research Evaluation 11, 17-26 (2002).

19. Hackett, E. J., Parker, J. N., Conz, D., Rhoten, D. et Parker, A. in Scientific Collaboration on the Internet (eds. Olson, G. M., Zimmerman, A. et Bos, N.) 277-296 (MIT Press, Cambridge, MT, 2008).

20. http://erc-assoc.org/content/current-centers-0

21. http://www.nsf.gov/od/iia/programs/stc/

22. Forsdyke, D. R. The FASEB Journal 5, 2313-4 (1991).

23. Forsdyke, D. R. Accountability in Research 2, 237-241 (1993).

24. Berezin, A. Know Techn Pol 11, 5-26 (1998).

25. Moses, H., Dorsey, E., Matheson, D. M. et Thier, S. O. JAMA 294, 1333-1342 (2005).

26. Cozzens, S. E. Evaluation and Program Planning 20, 77-89 (1997).

27. Stiglitz, J. E. Duke Law Journal, 1693-1724 (2008).

28. http://www.pnoconsultants.fr/

29. Murray, F. et Stern, S. Journal of Economic Behavior & Organization 63, 648-687 (2007).