Categories
Outils

Retour aux sources avec WebPlotDigitizer

Super ce graphique dans le papier des concurrents… pardon chers confrères, mais si seulement vous pouviez avoir les données brutes. Inversez le cours du temps avec WebPlotDigitizer qui vous les donnera ! Fini le temps passé à mesurer à la règle votre écran d’ordinateur (si, si, on sait que vous l’avez fait ).
Categories
Interview

Franck Lépine : « Se présenter, même sans un CV parfait »

En pleine période des concours – certains dossiers sont examinés en ce moment même – Franck Lépine, ancien membre d’un des comités de section du CNRS (la 04), nous raconte l’envers du décor.

Être membre d’un comité de section, on imagine que c’est une grosse dose de travail ingrat et peut-être un zeste de conflit d’intérêt. Pourquoi s’engager là-dedans ? 


C’est en effet un travail qui prend du temps et qui peut être délicat. Peu de gens se présentent et on m’avait convaincu de le faire. J’étais surpris d’être élu ! D’un côté, le travail dans le comité est très gratifiant car on a l’impression d’être utile pour la communauté. De l’autre, il est frustrant quand on voit passer des dizaines de bons candidats pour seulement quelques places aux concours. Je m’attendais à voir beaucoup de conflits d’intérêt, mais ce n’a pas été le cas. Nous avons évidemment tous des biais, nous ne sommes pas des ordinateurs, mais le fait d’être vingt membres autour de la table limite fortement la portée d’opinion extrême.

Qu’est-ce qui est déterminant chez un candidat : son CV, son projet, l’équipe d’accueil ? 


Tout est important, mais rien n’est déterminant. S’il existait une carte d’identité du candidat parfait, on se priverait de certains talents. J’ai vu des gens sortir du lot alors qu’ils avaient un profil très atypique. Mon message aux potentiels candidats est de ne pas se censurer même s’ils pensent ne pas avoir le profil parfait. Par contre, lorsqu’on s’y engage, le concours se prépare très en amont et avec l’équipe d’accueil. L’audition également doit être soignée. Lorsque les candidats confondent l’audition avec une conférence ce peut être rédhibitoire. Le comité n’est pas intéressé par les détails de la dernière publication du candidat, il veut savoir si c’est la bonne personne pour ce projet et dans ce laboratoire.

Certains candidats se plaignent du manque de transparence des décisions et de l’absence d’un retour officiel. Qu’en pensez-vous ? 

Contrairement à ce que certains pensent, les candidats peuvent appeler les membres du comité après publication des résultats pour demander un retour, c’est complètement transparent. Mais il serait trop difficile de donner un retour officiel. Nous ne pouvons pas remplir de grille d’évaluation et résumer en dix lignes le travail de vingt personnes pendant plusieurs mois est tout simplement impossible. Par contre, chaque membre de la commission a un avis personnel – comment a-t-il perçu la candidature ? – qui est plus utile qu’un avis officiel trop succinct. De plus, il est important pour chaque candidat de discuter avec un maximum de chercheurs afin de nourrir sa réflexion.
Categories
Actualité

Et si on se passait de l’ANR ?

Plus grand monde ne veut la disparition de l’Agence nationale de la recherche, nous assurait Antoine Petit, le PDG du CNRS dans notre interview parue le 24 janvier dernier (allez, relisons-la).
Et bien si, indique Christophe Blondel, chercheur au laboratoire de physique des plasmas et trésorier national du SNCS-FSU, qui lui rappelle (et nous apprend) que sa suppression a été mise sur le tapis par au moins deux syndicats de chercheurs lors des travaux préparatoires à la Loi recherche il y a quelques mois… mais que cette proposition ne figure pas dans les rapports. Aux dernières nouvelles, les préversions de la loi Recherche en circulation proposent de doubler le taux de réussite aux appels à projet, le passant à 30%. On vous en reparlera, bien sûr.
Categories
Interview

Clémentine Gozlan : « Les inégalités proviennent d’abord de la baisse des crédits »

Clémentine Gozlan est chercheuse au centre de sociologie des organisations de Science po. Elle analyse pour TheMetaNews les raisons de la colère de la profession contre le financement sur appels à projet et son bras armé, l’Agence nationale de la recherche

La mise en concurrence des allocations de recherche (ANR et autres) accroit-elle les inégalités entre équipes ?

La concurrence n’est pas une nouveauté dans le système de recherche. Selon les premiers sociologues des sciences, c’est même l’un des piliers de son fonctionnement. Cependant, les conditions de mise en compétition ont beaucoup changé entre les années 1950 et aujourd’hui.

De quelle manière ?

La systématisation d’un discours politique sur la nécessaire concentration des ressources et le « darwinisme » en science – selon lequel seul.e.s les meilleur.e.s survivront dans la course aux crédits scientifiques –,  dont on trouve des traces en France dès les années 1990 voire un peu avant, accentue vraisemblablement l’effet Mathieu déjà observé de longue date : ceux et celles qui sont déjà consacrés obtiennent encore davantage de ressources. Pour autant, la création de l’ANR en tant que telle n’est pas la seule raison de l’accentuation des inégalités. Il faut d’abord y voir une conséquence de la baisse des crédits récurrents des laboratoires. L’accroissement des inégalités résulte aussi de l’alignement progressif de l’ensemble des appels à projets sur des critères identiques. Une même définition de la qualité scientifique profite alors aux mêmes chercheurs et aux mêmes établissements, disqualifiant certaines thématiques de recherche ou disciplines.

Quel impact des taux de réussite particulièrement bas aux appels d’offres de l’ANR ? (environ 15%)


Ils sont en cause dans l’accroissement des inégalités entre équipe. L’accentuation des inégalités n’est pas nécessairement le produit d’une volonté consciente de la part des évaluateurs de projets. Elle résulte du fait que les équipes qui savent déjà répondre aux exigences des appels à projets, tout en bénéficiant déjà d’une solide réputation scientifique, sont les équipes les moins « risquées » à financer. Les équipes les plus en vue sont ainsi les plus à même de susciter l’approbation des jurys, dans un contexte de sélectivité accrue. Cela peut avoir pour effet de ne reconnaître que des travaux déjà reconnus, au détriment de projets de recherche aux débouchés plus incertains, mais qui peuvent apporter des innovations majeures. Enfin, il faut souligner que certains laboratoires ont décidé de mettre place une forme d’impôt sur les crédits des projets obtenus, afin de les redistribuer partiellement et ainsi de tempérer les inégalités entre équipes : dans les centres de recherche qui ont fait ce choix, 5 à 10% des budgets obtenus sur contrats sont versés dans un pot commun qui alimente le fonctionnement collectif du laboratoire.

Pourquoi le système d’appels d’offre cristallise-t-il aujourd’hui autant d’opposition ? 

Dans un article co-écrit avec Jérôme Aust (2018) [voir aussi cet article dans The Conversation, NDLR] nous nous sommes interrogés sur l’émergence relativement tardive des critiques du financement sur projet, alors que celui-ci est introduit dès la fin des années 1950 en France. Nous avons mis en lumière plusieurs processus. Tout d’abord, si le financement sur projet est bien une invention ancienne, il ne concerne que des pans très restreint finalement du champ de la connaissance scientifique : toutes les disciplines n’ont pas vocation à être soumises à un même régime de soumission à des appels d’offre, c’est même une minorité d’entre elles, les discipline émergentes, qui en bénéficient ponctuellement.

Pourtant la compétition concerne tous les chercheurs…

Il ne faut pas confondre financement sur projet et compétition : dans les années 1970, la mise en compétition est très discrète, du fait de la faible publicité de ces appels. Ainsi, l’attribution de certains financements sur projets, en plus de n’être pas généralisée à tous les domaines, ne bouleverse pas l’économie d’ensemble du système. Les utilisateurs et les promoteurs des appels à projet limitent également les inégalités que ces dispositifs induisent, en en faisant des instruments de financement de la recherche à la fois ponctuels et complémentaires, qui n’ont pas vocation à remplacer les modes de financement récurrent de la recherche. Ces conditions d’utilisation du financement sur projet participent de l’acceptabilité politique de cet instrument. Cette acceptabilité s’érode dans les années 2000, à mesure que la part du financement sur projet concurrence celle du financement dit récurrent ou de base aux laboratoires, et qu’il devient un instrument au service de “l’excellence”, c’est-à-dire en l’occurrence, qu’il devient un outil au service de rares heureux élus, au détriment de l’ensemble de la communauté scientifique.

Que s’est-il passé alors chez les chercheurs ?


De nombreux fronts critiques émergent alors : ils soulignent d’une part les inégalités majeures induites par le fait que les taux de succès de l’ANR baissent très rapidement.  Ils ciblent les effets pervers de la généralisation des appels sur projets- certains domaines de recherche se prêtant moins que d’autres au format des appels, sur un temps relativement court et avec un objectif finalisé. Le caractère très chronophage de la rédaction de projets conséquents, qui ont de très faibles chances d’être financés, la rigidification des critères “d’excellence”, qui formatent en partie la recherche et la pilotent, sont aussi des motifs de contestation parmi les chercheurs. Dans certains domaines qui requièrent en particulier d’importants crédits de fonctionnement, comme la biologie, l’échec à obtenir des financements sur projets a des conséquences dramatiques sur la survie des équipes de recherche. Il convient enfin de souligner les effets très ambigus de ce système sur la précarité : les ANR sont devenus des moyens de financer des thèses et des post-doctorats, maintenant ainsi dans le système de jeunes chercheuses et chercheurs qui, faute de contrats, en auraient été exclus plus tôt. Mais dans le même temps, ils contribuent à rallonger considérablement la période d’incertitude et d’enchainement de CDD pour les (moins en moins) jeunes, dans l’espoir d’obtenir, à des âges de plus en plus tardifs, un premier poste de titulaire.

La science mondiale fonctionne-t-elle plus ou moins massivement par des systèmes d’appels d’offre et quel serait le niveau psychologique “acceptable” de réussite ?


Les appels à projets sont utilisés dans de nombreux pays, mais il ne faut pas y voir un standard international uniforme. Là encore, leurs conditions d’utilisation varient beaucoup d’un pays à l’autre. En Suisse, par exemple, les politiques scientifiques sont largement financées par le Fonds national suisse qui intervient massivement par appels à projets. Mais les taux de succès approchent souvent la barre des 50 %. Ce qui change tout, bien sûr. En 2019, en Allemagne, les taux de succès à la DFG sont de 35%, tandis qu’aux États-Unis, la National Science Foundation finance en moyenne de 27% des projets soumis.

Quelle place occupe le financement par projet par rapport aux fonds publics ?

Cette place peut considérablement varier selon la discipline : alors que la NSF soutient à près de 70% le développement des sciences informatiques aux États Unis, pour l’ensemble des disciplines confondues ce taux est de 25%. Ainsi, pour comprendre les critiques qui peuvent peser sur l’ANR, il faut considérer, d’une part, la possibilité pour les chercheurs d’obtenir des financements par d’autres moyens que par une institution de financement sur projet unique. D’autre part, les taux de succès chez nos voisins européens ou internationaux restent bien au dessus de ceux de l’ANR. Des taux de succès au moins deux fois plus élevés, de plus de 30%, minimiseraient peut-être le découragement et la perte de temps lié à la rédaction très chronophage des projets.

Y a-t-il des effets mesurables sur la qualité ou la quantité de savoirs produits ?


Nous disposons encore de peu d’études sur cette question. Des travaux en Allemagne ont montré que le financement de la recherche a bien un effet en terme de réorientations thématiques des chercheurs. Les appels d’offre peuvent ensuite conduire à abandonner certains domaines de recherche dans lesquels il n’y a pas beaucoup de financements à obtenir ; d’autres montrent que les système d’évaluation scientifique renforcent, en économie, l’hégémonie du courant dominant et restreint le pluralisme de la discipline. La variété des effets des appels d’offre et des usages qu’en font les scientifiques invite à apprécier au cas par cas l’influence de ces dispositifs de gouvernement sur les conduites des chercheurs.
Categories
Actualité

Citez-moi, citez-moi, citez-moi !

Hallucinante, cette révélation de manipulation massive de citations par un bioinformaticien. Mais qu’est-ce qui pousse à frauder aussi effrontément ?

Un après-midi de février, la nouvelle est tombée : le chercheur sino-américain Kuo-Chen Chou vient d’être banni du Journal of Theoretical Biology (Elsevier) pour avoir profité de son statut d’éditeur et forcé la citation de ses articles (parfois plus de 50 d’un coup !). Ce n’est pas tout, le chercheur à la retraite aurait également demandé à être co-auteur des articles qu’il gérait, après les avoir reviewé. Et l’on vous passe les conflits d’intérêt (voir plus bas). Auprès de Nature, le bioinformaticien accusé de coercition réfute et affirme que ses algorithmes sont mentionnés car ils sont « très efficaces et reconnus par de nombreux utilisateurs ». Au point que ces derniers y consacreraient des articles entiers : publié en 2019 dans Journal of Theoretical Biology, cet article est par exemple un bel hommage au travail de Chou… qui est d’ailleurs le dernier auteur de l’article. Coïncidence ?
La méthode Chou en quatre étapes

D’après le bureau éditorial d’Elsevier, le Kuo-Chen Chou est accusé d’avoir :
– géré des articles de collègues proches (conflits d’intérêt) ;
– attribué comme reviewers des collègues proches ou lui-même sous un pseudonyme ;
– demandé aux auteurs de mentionner ses travaux dans le titre, de les discuter dans l’introduction ou la conclusion, ou de citer une longue liste de ses articles (parfois jusqu’à 50);
– demandé à être auteur de l’article à la fin du processus de reviewing.
Après la manipulation de citations par les revues, c’est la manipulation de citations par des chercheurs eux-mêmes, en tant que reviewers ou éditeurs, qui est dénoncée depuis quelques années. Pourquoi frauder ? Pour intégrer la fameuse liste des highly cited researchers (HCR pour les intimes) ! For recognition of course mais aussi pour l’argent… En effet, « certaines universités payent des chercheurs reconnus afin d’apparaître dans leurs affiliations et monter dans les classements internationaux » rappelle Didier Torny, sociologue des sciences. Le classement de Shanghai, ça vous dit quelque chose, non ?

Jusqu’en 2016, Kuo-Chen Chou a justement pour seconde affiliation l’université King Abdulaziz en Arabie Saoudite. Cette université est connue pour ses pratiques douteuses et son entrée fracassante dans les classements en 2014. Admis dans les HCR en 2014, le chercheur sino-américain n’apparaît plus dans la liste de 2019. L’entreprise Clarivate Analytics qui la publie a en effet décidé de retirer les chercheurs présentant un nombre anormalement élevé d’auto-citation. Au total, Kuo-Chen Chou a tout simplement doublé son nombre de citations en 2019 !
Ce scandale sans précédent est-il un arbre qui cache la forêt ? Comme nous confie Didier Torny qui est spécialiste en peer-review et bibliométrie, « uniquement les mauvais se font prendre, ceux qui ne sont pas prudents ». Mais la responsabilité incombe surtout au bureau éditorial de la revue d’Elsevier, qui n’a rien vu (ou rien voulu voir). Le journal propose maintenant d’enlever les citations forcées, reste à savoir comment les identifier.
Categories
Actualité

Il y a du monde à la tribune

Si la mobilisation se mesurait au nombre de tribunes publiées, février 2020 aurait tout d’un mai 68 de la recherche…

 Ce ne sont pas moins de cinq tribunes à propos de la LPPR parues dans Le Monde (derrière un paywall malvenu), dont une de Frédérique Vidal herself, qui sont venues pimenter le débat en ce début de mois de février fiévreux (big up pour l’allitération). On les a classées par pure taquinerie de la plus “LPPR compatible” à la moins “LPPR compatible” : 

Tout d’abord, of course, celle de Frédérique Vidal elle-même : « A mes collègues scientifiques, je veux dire que le gouvernement a entendu leur appel à réinvestir massivement dans la recherche » ;

Le texte de Philippe Froguel : « Vite une loi pour une science française productive, imaginative et compétitive », qui répond d’ailleurs à la numéro 4 de notre classement ;

L’analyse de Christine Musselin : « La Loi de programmation pluriannuelle pour la recherche ne doit pas consacrer une seule forme d’excellence » ;

La diatribe de 700 directeurs de laboratoires : « Notre politique de recherche serait-elle faite par et pour 1 % des scientifiques ? » ;

Une charge d’un collectif de chercheuses et d’universitaires spécialistes du genre : « Une réforme néolibérale contre la science et les femmes ».