L’excellence scientifique ne se résume pas aux seuls chiffres

Le mois dernier, l’Université de Stanford a publié une liste des 2% des scientifiques les plus cités au monde. Bien que la couverture médiatique en Inde se soit principalement concentrée sur le nombre de scientifiques indiens répertoriés (52), l’idée de classer les résultats de la recherche reste une idée controversée dans la communauté scientifique, car elle se transforme souvent en débats sur la qualité de la recherche. la créativité.

Pour comprendre ces classements, il est important de comprendre ce qu’ils mesurent et s’ils se rapportent à ce qui est perçu comme l’excellence scientifique. Le rang attribué aux scientifiques est basé sur le nombre d’autres publications citant leurs travaux. Plus de citations indiquent qu’un travail particulier a été cité par ses pairs et est une mesure de sa pertinence et de son importance possible.

Le scientifique américain de l’information Eugene Garfield a été le pionnier d’un système qui utilisait les citations comme base pour classer les scientifiques après la Seconde Guerre mondiale, lorsque de nombreuses nouvelles revues scientifiques ont commencé à être publiées. Lorsque les revues sont passées au numérique dans les années 1990, les données sur les citations sont devenues facilement disponibles et le classement basé sur les citations a gagné en popularité. L’une de ces mesures proposées par le physicien Jorge Hirsch en 2005 est l’indice h (indice de Hirsch), qui montre la productivité et l’impact des citations d’un scientifique. Le classement de Stanford est basé sur un indice composite qui prend en compte six indicateurs différents, dont le h-index.

Mais les citations sont-elles un bon indicateur de la qualité de la recherche ? Les preuves disponibles ne sont pas concluantes. Le prix Nobel en sciences et la médaille Fields en mathématiques sont largement considérés comme représentant les normes les plus élevées d’excellence en recherche. L’équipe dirigée par Stanford a étudié les citations de 47 lauréats du prix Nobel (2011-2015). Si le critère est le nombre total de citations, seules 15 d’entre elles recevront le rang le plus élevé ; 18, si l’indice h est utilisé, et 37, l’indice composite est utilisé.

Étant donné que l’étendue et les pratiques des citations varient considérablement d’un domaine à l’autre, tout mécanisme utilisant des citations uniques peut être trompeur. Par exemple, en 2022, aucun des lauréats du prix Nobel ou de la médaille Fields n’a obtenu moins de 1 000 rangs. Alors qu’un médaillé Fields figurait sur la liste à 1 023, de nombreux autres gagnants n’étaient pas répertoriés. De plus, les 500 premiers rangs étaient principalement occupés par des scientifiques biomédicaux, un biais compréhensible de s’appuyer entièrement sur les mesures de citation. Si cette tentative bien intentionnée de quantifier la recherche se heurte à de tels écueils, nous devons faire attention à ne pas interpréter les classements comme indiquant nécessairement l’excellence scientifique.

L’exercice a également soulevé involontairement d’autres problèmes épineux, tels que les universitaires gonflant artificiellement les citations ou s’appuyant sur trop d’auto-citations pour travailler avec le système. Les données de Stanford ont tenté d’atténuer ce problème en donnant un autre tableau de classement sans tenir compte des auto-références. Ces modifications aident quelque peu à agir contre les pratiques contraires à l’éthique, mais ne peuvent pas freiner l’utilisation inappropriée des mesures basées sur les citations.

Depuis 2005, de nombreuses universités et agences de financement du monde entier ont été accusées d’utiliser l’indice h et les facteurs d’impact des revues pour évaluer les candidats à des postes universitaires ou à des subventions de recherche au lieu d’un examen par les pairs. En 2012, un groupe d’éditeurs de revues et d’éditeurs a présenté la déclaration d’évaluation de la recherche de San Francisco, appelant la communauté à “éliminer l’utilisation de mesures basées sur les revues dans les considérations de financement, de désignation et d’avancement” et soulignant le “besoin”. d’évaluer la recherche sur ses mérites, et non sur la base de la revue dans laquelle elle a été publiée.” En 2014, le Département indien des sciences et de la technologie a soutenu cette déclaration : La quantification des résultats de la recherche ne peut pas mesurer à elle seule la créativité scientifique. C’est, au mieux, l’un des nombreux aspects qui contribuent au profil d’un chercheur. Si les statistiques étaient la seule mesure de l’excellence, alors Sachin Tendulkar, avec une moyenne au bâton de test de 53,78 et classé 23e dans la liste des moyennes au bâton les plus élevées en carrière dans les matchs de test, ne serait pas mentionné comme l’un des plus grands joueurs de cricket de tous les temps.

Comme dans le sport, l’excellence scientifique ne se résume pas aux seuls chiffres. La liste de classement du groupe de Stanford prend tout son sens si elle est lue avec la mise en garde de ses auteurs : “Toutes les mesures de citation ont des limites, et leur utilisation doit être rigoureuse et judicieuse.”

MS Santhanam est professeur de physique, Indian Institute of Science Education and Research, Pune

Les opinions exprimées sont de nature personnelle

Leave a Reply

Your email address will not be published. Required fields are marked *