La recherche scientifique a toujours été évaluée. Tant Newton qu’Einstein ont vu leurs articles évalués, critiqués et parfois refusés. Cette évaluation est cependant faire par des pairs qui connaissent le sujet et peuvent évaluer la validité des arguments et des données. Ce système d’évaluation qualitative reste fondamentalement stable pendant environ 300 ans et est fondé sur l’idée qu’une publication est une unité de savoir.
Ce qui est nouveau depuis les 20 dernières années est que les évaluations ont changé d’échelle et aussi de méthode. On évalue plus seulement les publications et les demandes d’octrois des chercheurs mais aussi les laboratoires et même les universités. De plus, non content de voir les chercheurs publier leurs travaux et ainsi faire avancer les connaissances, on veut qu’elles aient toutes un « impact » élevé. Ces transformations se font en bonne partie sur la base de l’idéologie du nouveau management public appliquée aux universités, qui mène à la quantification des évaluations grâce aux données bibliométriques et à la multiplication des « indicateurs » d’impact scientifique. L’usage d’indicateurs d’impact est exacerbé par compétition accrue entre universités, laquelle est une conséquence du déclin des investissements gouvernementaux. C’est ainsi qu’émergence au début des années 2000 un marché de « classements » d’universités dites « mondiales » ou « globales » en réponse à la rhétorique de « l’internationalisation ». Tout cela a modifié profondément la signification attribuée aux publications scientifique. D’unités de savoir rendues publiques elles se sont transformées, au cours des deux dernières décennies en unités comptables. Cette modification en apparence banale a engendré plusieurs phénomènes délétères pour la production du savoir : multiplication des « errata », croissance des fraudes, émergence de revues prédatrices, trafic d’évaluation par les pairs.
Mon exposé présentera ces transformations et fournira des exemples des effets pervers suscités par la course aux classements et conclura par des suggestions permettant de stopper les dérives de l’évaluation.