Les prises de position que vous venez de lire dans ce livre blanc ont suscité un certain nombre de réactions. Voici quelques commentaires que nous avons sélectionnés pour la postérité…

Yannick Maignien, ingénieur de recherche au CNRS :

Excellent article et initiative. Je peux me tromper, mais je vous trouve optimiste sur la capacité de l’administration française a évoluer rapidement vers l’ouverture des données publiques de (ou plutôt sur) la Recherche.

Ayant été Directeur du TGE ADONIS (CNRS) et responsable de la création d’ISIDORE entre 2007 et 2011 (puis viré par le CNRS), sur ces même finalités de transparence et d’interopérabilité, mais en SHS, je ne peux que témoigner de l’importance des obstacles de tout genre, de la part des directions des institutions de la Recherche ou de l’Enseignement supérieur…mais aussi de nombreux protagonistes qui font leur fond de commerce de l’Open … (ce qui ne facilite pas les choses). Certains ont très bien compris que compétition, rivalités personnelles et carriérisme passaient par ce nouveau terrain de lutte !

Cf. un extrait : « Les nouvelles frontières numériques des sciences » http://www.donneesdelarecherche.fr/spip.php?article186

Cela dit, bravo pour votre étude et votre initiative, que je signe des deux bras.

Stéphanie Dord-Crouslé, chargée de recherche au LIRE (université Stendhal Grenoble 3 / université Jean Monnet Saint-Etienne / Université Lumière Lyon 2 / CNRS / ENS Lyon) :

Article très intéressant !

Pour info, j’ai porté un projet financé par l’ANR (Corpus 2007) et il a fallu que je me batte pour faire un rapport final (ils m’avaient administrativement « perdue » depuis 2 ans et semblaient n’y accorder aucune importance !) et pour savoir si je pouvais bien le mettre sur HAL !

Il y a en effet du boulot pour savoir qui est financé pour faire quoi et évaluer ce qui est effectivement produit au terme du financement…

Gaïa, blogueuse (sous pseudonyme) assidue sur l’enseignement supérieur et la recherche :

Puisque que vous m’y avez invité, voici quelques commentaires. La lecture du billet m’a beaucoup intéressé et me parait contenir beaucoup d’éléments constructifs. D’autres sont plus discutables et je vais focaliser mes commentaires sur ces derniers.

L’article précise bien que les données auxquelles vous voulez accéder ne sont pas des données scientifiques mais des données sur la recherche (données administratives). En tant que chercheur (et membre d’université, labo, école doctorale) je peux vous assurer qu’on nous sollicite beaucoup pour fournir ce genre de données, avec des formats différents et toujours avec des questions posées un peu différemment ; souvent aussi avec des informations stupides et inutiles et qui prennent beaucoup de temps à agréger. S’il pouvait y avoir une amélioration du système, ça serait d’avoir un service unique de collecte de données dans lequel les financeurs, administrateurs et contribuables viendraient prendre ce qui les intéresse.

Vous voulez savoir « qui fait quoi » ou essayer de comprendre comment ça marche (la structure du système de la recherche). Je crois que vous vous faites de douces illusions. Mais je peux vous assurer que de l’intérieur personne n’y comprend rien (on fait juste illusion, pour ne pas paraitre idiot …). C’est devenu beaucoup trop compliqué. S’il y a là quelque chose à réclamer c’est d’abord un choc de simplification de grande ampleur.

Vous avez l’air de penser que pour avoir des données quantitatives sur la recherche il suffirait que les chercheurs mettent leurs travaux sur un serveur « archives ouvertes ». Je n’ai rien contre cette idée, au contraire, mais vous n’allez pas en extraire grand-chose, mis à part de compter les publications (en termes de données « administratives » sur la recherche).

Non les données quantitatives sur la recherche ne sont pas enfouies dans les organismes. Hormis les aspects financiers, la capitalisation des productions existent dans les moteurs de recherche (payants, de type Scopus ou Thompson Reuters). C’est là que vous trouverez beaucoup de choses sur la recherche française (et aussi partout ailleurs) ; selon les disciplines, les labos, les universités, les pays … Certaines sont gratuites (exemple : Scimago). Comme mentionné un peu plus haut dans les commentaires, l’OST est aussi un formidable outil, avec beaucoup de données (certes ce n’est que macroscopique, pas possible d’aller voir le projet bidule financé par l’agence truc).

En filigrane, vous semblez reprocher à l’ANR des manquements. D’accord, critiquer l’ANR c’est de bon ton. Mais je pense que vous vous trompez de cible. L’ANR a fait un réel effort de transparence et d’incitation à ce que les projets et résultats soit disponibles et accessibles (obligation d’avoir un site web pour chaque projet, de rendre des compte périodiquement sur les résultats, etc …). Si le travail est mal fait c’est certainement un peu à cause de l’agence qui n’arrive pas à bien tout suivre mais c’est aussi à cause des chercheurs qui font rarement ce travail consciencieusement. Par ailleurs l’ANR n’est que petite partie de la recherche. Vous n’aurez qu’une vision très parcellaire de la recherche avec l’ANR.

A mon sens la seule structure qui pourrait être adaptée à votre requête c’est l’AERES (agence d’évaluation). Cette agence a évalué tout le monde et a donc des données qualitatives et quantitatives sur tous les volets (financiers, production, effectifs, …), à une granulométrie qui va jusqu’à l’équipe de recherche (quelques personnes). C’est une mine formidable d’informations. Malheureusement on vient de la fermer …

Voilà pour ces quelques commentaires « critiques », qui ne doivent en aucun cas occulter la qualité de votre travail très intéressant.

Emilien Schultz, doctorant au GEMASS (université de Paris-Sorbonne / CNRS) sur les « effets de la création de l’Agence Nationale de la Recherche » :

Cet article est très intéressant, riche et effectivement souligne la difficulté que tout observateur peut avoir quand il s’intéresse à la recherche française : obtenir une vision d’ensemble. Et effectivement, l’accès aux données quand il est possible est réservé à un petit nombre de privilégiés (en fait, pour le cas abordé de l’ANR, cela est très fortement lié à la jeunesse de l’agence – créée en 2005 – qui n’a intégré l’ensemble de ses programmes que sur le tard, et que la critique nourrie subie d’une part de la communauté scientifique française n’a pas favorisé un projet de normalisation des pratiques de financement).

La transparence de l’utilisation de l’argent public, à partir du moment où il ne contribue pas à exposer trop facilement des chercheurs au feu de l’actualité, ne peut qu’être revendiquée. Je souhaiterais juste ouvrir un peu la discussion sur le risque de réifier l’objet “projet” auquel on pourrait attribuer une signification unique (sans pour autant prétendre ajouter des éléments neufs au débat, simplement rappeler quelques points qui semblent pertinents, car si la discussion sur les dérives de la scientométrie a déjà été fortement nourrie concernant la bibliographie, cela est moins le cas sur la question des financements). A moins de généraliser la feuille de temps et un suivi précis de la répartition des sommes sur l’ensemble des partenaires d’un projet (car souvent, il y a plus d’un laboratoire), on risque de créer une fiction au moment d’agréger les données. Ajouté à cela la balkanisation croissante des sources de financements (si on en reste à la recherche fondamentale qui ne bénéficie ni de fondations biomédicales, ni d’entreprises privées, la gamme de financement peut aller des appels internes aux organismes aux grands financeurs internationaux type HFSP en passant par les bourses de thèses ministérielles), l’ANR n’est ni négligeable, ni représentative dans beaucoup de situations. Sans même aborder le fait que le rapport à l’argent des différentes thématiques de recherche varie dans des proportions telles qu’à somme comparable, on compare des réalités radicalement différentes, et que des arrangements locaux plus ou moins importants contribuent à rendre flou la portée de telles données (entre les laboratoires qui mettent en commun tous leurs financements sur projets, et les laboratoires hautement compétitif où seule l’équipe est pertinente, comment identifier le niveau pertinent d’analyse). Et ça, c’est sans parler du problème de mesure d’impact, et de l’attribution de telle ou telle publication à un financement, ce qui pour certains domaines de recherche peut relever de la fiction pure et simple. A trop rationaliser, on risque de forcer les éléments à rentrer dans les cases des tableaux excel, dont j’attends avec impatience l’analyse dans le prochain volet de l’enquête

Tout ça pour dire la trivialité suivante : l’evidence based policy menée à partir de constitution de base de données de ce type risque, à moins d’une vigilance constante sur les formes réelles d’interdépendance qui existent entre financements et pratiques de recherche, d’approfondir la dynamique de découplage déjà soulignée dans la tendance à la managerialisation de la recherche (cf. C. Vilkas (2009), « Des pairs aux experts: l’émergence d’un ‘nouveau management’ de la recherche scientifique ? », Cahiers internationaux de sociologie, (1), 61-79)

Encore une fois, merci pour cette enquête qui soulève de très nombreuses questions.

Un lecteur anonyme réagissant sur le site du Monde :

Pourquoi se limiter aux EPA, donc à vocation administrative, sachant que l’essentiel de la recherche hors universités est réalisée dans les EPST (Etablissements publics scientifiques et techniques) ? Ceux-ci font des bilans, annuels et pluriannuels, plus ou moins quantifiés. Les Régions en France ont aussi un rôle dans le financement de la recherche.

Gilles Saint-Martin :

Encore du temps consacré par les chercheurs a entrer des données dans ses systèmes administratifs au détriment du temps dédié à la recherche. L’analyse des publications des UR suffit à donner des informations sur l’orientation de la recherche en France. L’OST fait ça très bien. Ces informations sont accessibles sur le Web of Knowledge. Elles permettent un pilotage de la politique scientifique française.

En revanche, je souscris aux propos de l’article sur la nécessité « de faire advenir une politique de la recherche fondée sur des preuves (evidence based) ». L’utilité sociale des résultats de recherche analysée à travers les changements induits par ces résultats (l’impact) reste une dimension totalement absente du pilotage de la recherche publique en France.

Un lecteur fâché écrivant à la rédaction du Monde :

Je viens de prendre connaissance de la tribune intitulée « pour un accès aux données sur la recherche française ».

Depuis peu à la retraite après une carrière de 35 ans de délégué régional d’organisme de recherche d’abord à l’INSERM puis à partir au CNRS et passionné par le le rôle et l’organisation de l’ESR en France, je suis désagréablement surpris par le contenu de cette tribune.

En effet ses rédacteurs  méconnaissent de nombreuses sources d’information dont l’essentielle est l’Observatoire des Sciences et des Techniques (OST) GIP interministériel et interorganismes qui publie tout les deux ans un état de la recherche en France  y compris la valorisation par régions, sites ,disciplines, sous-disciplines sans oublier les rapports à la demande.

Ces rapports constituent une mine d’information et en plus ils sont téléchargeables et gratuits.

Les laboratoires quant  à eux sont soumis à évaluation quadriennale par leur tutelle en « partenariat » avec l’AERES crée en 2006 mais effectivement leur contenu reste relativement confidentiel..

L’ANR est une agence de moyens permettant un pilotage politique mais ne peut constituer en rien une source plénière d’informations.

  Je suis en tout cas surpris qu’un docteur en biologie et un ingénieur en agronomie se lancent sur ce créneau sans beaucoup de préparation semble-t-il.

Nicolas Alarcon, responsable du secteur documentaire Lettres-Sciences humaines à l’université de La Réunion :

Merci pour cet article édifiant. Je n’avais jamais entendu parler de CERIF, n’y a-t-il pas une certaine méfiance des acteurs français à utiliser des spécifications rédigées par (pour ?) la Grande-Bretagne, même si produites dans un cadre européen. Pourtant, on voit clairement les avantages pour l’administration de la recherche.

Sur l’intéropérabilité de GRAAL avec HAL, je serai moins enthousiaste que vous, je n’ai jamais vu d’exploitation massive de cette intéropératibilité. Sur le papier, ça semble fonctionner malgré les problèmes répertoriés mais avez-vous des exemples concrets de mise en production ?

Les retards de Caplab sont aussi très inquiétants mais le plus dur à avaler est que la solution proposée risque de ne même pas répondre aux standards en vigueur. C’est décourageant.

Un lecteur fâché de notre Tumblr épinglant les sites web de labo kitschs, réagissant sur le site Educpros :

Que c’est petit. Tout n’est pas que communication dans la vie. Qu’importe que le design soit démodé. L’important c’est qu’il fonctionne pour le public visé et, non, ce public n’est pas constitué de ceux qui s’en moquent. En ce qui concerne la page de Martin Karplus, donné en exemple, personnellement je préfère celle de Strasbourg, bien mieux centré sur lui, ses recherches, ses publications à celle de Harvard où on est noyé dans un fatras d’informations sur tout ce qui se fait là bas … Se moquer -mal- d’individus pour vendre son propre business de com’ … pathétique

Un autre lecteur en désaccord avec le précédent réagit sur le site Educpros :

Belle initiative ! Rassurant qu’il y ait un poil d’irrévérente critique constructive dans l’air ! Non, je ne pense pas qu’il suffise que le design convienne à ceux qui ont fait la page. Sinon à faire une recherche qui n’intéresse et ne mobilise que les chercheurs ? On ne peut pas justifier l’indigence d’une page [web] par cet argument. Si ces sites [annuaires de chercheurs ou sites de laboratoires] sont si pauvres dans leur design, c’est que personne en France n’en a fait un enjeu national, une culture, comme c’est le cas aux Pays Bas ou tout le monde est conscient des enjeux d’une bonne communication visuelle et où le bon designer est aussi respecté que le bon médecin. Le Design Graphique et de données servent précisément à ça, rendre clair et intelligible des contenus quels qu’ils soient de façon à ce qu’ils soient accessibles au plus grand nombre, compréhensibles et valorisés dans leurs singularités.

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

Pour une meilleure visibilité de la recherche française Copyright © 2015 by Antoine Blanchard et Elifsu Sabuncu is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre