Quelles bonnes pratiques en matière d’utilisation de l’intelligence artificielle dans les recherches impliquant l’Inserm ?
Les systèmes d’intelligence artificielle (SIA) sont devenus d’usage courant. Ils sont un champ de la recherche et en permettent le développement et le rayonnement. Un exemple ? : des développeurs de SIA ont reçu en 2024 deux prix Nobel ! Celui de physique est allé à John J. Hopfield (Princeton University) et Geoffrey Hinton (University of Toronto) « for foundational discoveries and inventions that enable machine learning with artificial neural networks »[1]. Celui de chimie a récompensé Demis Hassabis et John Jumper de l’équipe Google DeepMind qui a conçu le logiciel AlphaFold de prédiction de la structure des protéines [2].
L’utilisation croissante de SIA dans la recherche médicale et en santé, notamment au sein d’institutions telles que l’Inserm, soulève des enjeux majeurs à la fois prometteurs et posant questions. Les SIA servent évidemment à soutenir la démarche scientifique, mais leur usage se développe également au sein de l’administration pouvant à terme impliquer l’aide à la décision en matière de projets, de gestion et de ressources humaines. Les SIA offrent des avantages indéniables : ils permettent de traiter des quantités massives de données, d’accélérer la découverte de nouveaux mécanismes à l’origine de pathologies, ils peuvent aider à révéler de nouveaux biomarqueurs, à prédire la survenue de pathologies et permettre d’envisager une médecine de plus en plus personnalisable. Au quotidien, les SIA deviennent de remarquables outils d’aide à la rédaction de texte en produisant des résumés, le plan d’un document, en proposant des améliorations de style, en corrigeant l’orthographe, la grammaire, en aidant à la génération de codes informatiques et à leur vérification ou encore comme outil de traduction, tous usages qui permettent de gagner du temps sur des tâches à faible valeur ajoutée. Cependant, cette révolution technologique s’accompagne également d’impacts délétères, par exemple leur coût énergétique et son retentissement écologique, et de nombreuses questions sur les effets de plus ou moins long terme de ces technologies, les incertitudes et risques associés, qui concernent notamment la qualité et la confidentialité des données, les biais algorithmiques, l’interprétabilité des résultats, la dépendance aux technologies propriétaires, la fragilisation de pratiques et des infrastructures en cas d’attaques malveillantes, ou encore la perte de souveraineté.
Un organisme de recherche comme l’Inserm doit aborder cette question afin d’établir une politique claire quant à l’usage des SIA tant dans la recherche que dans l’administration, et permettre à ses personnels de connaître ses préconisations et favoriser les débats. Un guide de bonnes pratiques est d’autant plus important que la qualité de la production scientifique utilisant les SIA ira de pair avec la responsabilité des scientifiques qui utiliseront ces systèmes. C’est pourquoi, le comité d’éthique de l’Institut, en collaboration avec le conseil scientifique et des animateurs du programme LORIER ont mené une réflexion qui aboutit à une dizaine de recommandations quant au bon usage des SIA à l’Inserm. Dans une note, qui sera accessible d’ici quelques jours sur la page du comité d’éthique de l’Inserm, nous appelons à la transparence dans l’utilisation des SIA, à la responsabilité des utilisateurs dans les résultats obtenus et la détection des biais potentiels, à la prudence concernant la manipulation des données et, en particulier, au respect de toutes les règles de confidentialité, aux risques concernant la divulgation prématurée de résultats, la communication vers le public.
Notre capacité à apprendre à utiliser, contrôler et réguler ces technologies sera un facteur crucial pour en minimiser les effets négatifs anticipables et maximiser leurs impacts sur l’innovation biomédicale et l’amélioration de la prise en charge de tous les patients. Ce travail d’arbitrage doit faire l’objet de débats réguliers et être mené de façon collective et transparente.
Hervé Chneiweiss,
Président du Comité d’éthique de l’Inserm
Center for Neuroscience at Sorbonne University (NeuroSU)
UMR CNRS 8265 – Inserm 1341 – Sorbonne Université
[1] “This year’s two Nobel Laureates in Physics have used tools from physics to develop methods that are the foundation of today’s powerful machine learning. John Hopfield created an associative memory that can store and reconstruct images and other types of patterns in data. Geoffrey Hinton invented a method that can autonomously find properties in data, and so perform tasks such as identifying specific elements in pictures.” https://www.nobelprize.org/prizes/physics/2024/press-release/ ”