Thème 1 : Si nous avions une baguette magique, que voudrions -nous changer dans l’évaluation ou la promotion des chercheurs, des chercheuses et des ITA pour favoriser une recherche éthique et responsable à l’Inserm ?

Eléments introductifs de réflexion fournis aux ateliers

Déclarations internationales sur les critères d’évaluation des chercheur·es :

  • en défaveur des indicateurs bibliométriques chiffrés (DORA)

  • en faveur de critères prenant en compte le caractère éthique et responsable de la recherche (Hong Kong: p.ex., en plus de la productivité et de la qualité, prendre en compte la reproductibilité, l’accès et le partage en science ouverte, la traduction ou l’impact pour la société)

Expériences positives mentionnées dans l'atelier

  • développement de formations pour les évaluateurs·trices

  • le fait que des évaluations aient lieu (et surtout in vivo) et soient intégrées dans le fonctionnement des structures

Problèmes identifiés par l'atelier

des évaluations qui ne reflètent pas la diversité des activités du métier :

  • les évaluations prennent en compte uniquement certaines activités du métier, les autres ne sont pas abordées

  • difficulté de prendre en compte les activités spécifiques de chaque chercheur·e

  • pratiques de recherche (reproductibilité) et de publication (signature) différentes selon les laboratoires

  • pas toujours de cohérence des évaluations de chercheur·es dans les équipes mixtes, absence de lien entre les commissions

des procédures d’évaluation peu explicitées et différentes d’une situation à une autre :

  • difficulté de trouver des évaluateurs·trices pertinent·es et sans conflits d’intérêts

  • évaluation pas toujours transparente : attendus et pondération pas explicités, variant d’une commission d’évaluation à l’autre

  • évaluation des ITA très différente et encore moins d’explicitation, trop peu d’accompagnement de la progression de carrière

  • redondance de différentes procédures d’évaluation et absence de mémoire de l’évaluation d’une année sur l’autre

un cadre systémique qui pousse à l’évaluation quantitative :

  • difficultés à comparer (y compris au niveau international) sans recourir aux chiffres

  • système de l’édition scientifique fonctionnant sur la base d’une économie lucrative; revues prédatrices

Idées de solutions issues de l'atelier

former les personnels à l’évaluation :

  • mieux former les évaluateurs·trices (les personnels et les structures) mais aussi les chef·fes d’équipes, notamment aux biais et préjugés de genre

  • assurer une continuité dans la passation entre les CSS successives

  • sensibiliser aux problématiques éthiques et déontologiques

améliorer la gestion de carrière des personnels :

  • mieux accompagner la progression de carrière des personnels

  • mentorat pour les jeunes chercheur·es, entretien annuel pour les chercheur·es

améliorer les procédures d’évaluation :

  • plus de transparence et d’objectivité dans les évaluations (levée de l’anonymat pour le peer review et publication des conclusions de l’évaluation; besoin d’une communication bilatérale entre évalué·e et évaluateur·trice)

  • mieux prendre en compte la diversité des activités du ou de la chercheur·e ou de l’ITA et adapter les critères à l’étape de carrière de la personne évaluée

  • évaluer sur une base qualitative plutôt que quantitative

  • valoriser les travaux ayant mené à des résultats dits « négatifs »

repenser et expliciter les pratiques de recherche et d’évaluation au niveau de terrain :

  • expliciter la politique du laboratoire en matière de publication, de critères d’évaluation

  • repenser les pratiques de signature (p.ex. suppression de la pondération d’importance dans l’ordre des signataires de publications)

améliorer les conditions de travail

  • financer la recherche au niveau du laboratoire et pas de l’individu pour lever la pression

  • plus de moyens humains et financiers pour lever la pression sur les personnels

Your newsletters

SUBSCRIBE
Co-Building space Login