IA - Hallucinations et illusions de l'IA dans la science
L'intelligence artificielle transforme la manière dont la recherche scientifique est menée. Qu'il s'agisse d'aider à l'analyse de la littérature ou de générer des données synthétiques, les outils d'IA sont intégrés à l'ensemble du processus de recherche dans l'espoir d'accélérer la découverte. Toutefois, un nouvel article publié dans Nature met en garde contre les risques épistémiques d'une dépendance excessive à l'égard de l'IA, qui pourrait compromettre les objectifs mêmes d'augmentation de la productivité et de l'objectivité que l'IA promet.
Les auteurs de l'article, Lisa Messeri et M.J. Crockett, s'appuient sur leur expertise en sciences cognitives, en épistémologie, en anthropologie et en études scientifiques et technologiques pour analyser la manière dont l'IA s'articule avec la nature sociale de la production de connaissances. Ils identifient quatre grandes "visions" que les scientifiques ont actuellement de l'intégration de l'IA : Oracle (pour rechercher et résumer la littérature), Surrogate (pour générer des données), Quant (pour analyser de grands ensembles de données) et Arbiter (pour rationaliser l'examen par les pairs).
Bien que ces visions visent à surmonter des limites telles que le temps et l'attention limités des chercheurs, Messeri et Crockett affirment qu'elles peuvent se retourner contre eux en favorisant les "monocultures scientifiques". Les monocultures apparaissent lorsqu'une approche unique de la recherche, comme le fait de s'appuyer principalement sur des outils d'intelligence artificielle, domine les diverses alternatives. Tout comme les monocultures agricoles sont vulnérables aux parasites et aux maladies, les monocultures scientifiques risquent de réduire le champ d'investigation et d'introduire des erreurs.
Plus précisément, les auteurs mettent en garde contre les "monocultures du savoir" qui donnent la priorité aux questions les mieux traitées par l'IA, en marginalisant d'autres approches valables. Les "monocultures de connaisseurs" émergent également en promouvant l'idée que les outils d'IA peuvent atteindre une véritable objectivité en représentant toutes les perspectives, alors qu'en réalité, ils intègrent les perspectives de leurs concepteurs.
Mais les risques les plus graves peuvent provenir des "illusions de compréhension" - des erreurs métacognitives où les scientifiques surestiment ce qu'ils comprennent grâce à l'IA. L'"illusion de la profondeur explicative" se produit lorsque les modèles prédictifs sont pris pour des modèles qui rendent compte de tous les phénomènes. L'"illusion de l'étendue de l'exploration" fait croire aux chercheurs que toutes les hypothèses sont prises en compte, et pas seulement celles que l'IA peut tester. Enfin, l'"illusion de l'objectivité" nous empêche de voir le point de vue inhérent à l'IA.
Pour se prémunir contre ces risques, Messeri et Crockett insistent sur la nécessité de cultiver la diversité, tant en termes de méthodes de recherche ("diversité cognitive") que de participants ("diversité démographique"). Si l'IA promet des gains d'efficacité qui augmentent la productivité, une dépendance excessive à l'égard d'une seule approche menace de limiter artificiellement les problèmes abordés par la science et les points de vue pris en compte. Les auteurs affirment que nous devons gérer les nouveaux outils de manière responsable afin de garantir qu'une production accélérée ne nuise pas à une véritable compréhension.
Pour l'avenir, ils préconisent d'évaluer séparément les visions spécifiques de l'IA et d'examiner comment les niveaux d'expertise affectent la confiance dans les résultats. Des équipes interdisciplinaires pourraient favoriser l'examen nécessaire. Le rôle croissant de l'industrie privée dans le développement de l'IA universitaire soulève également des questions de transparence. Dans l'ensemble, cette analyse provocatrice incite à poser des questions difficiles sur l'encouragement d'une science de haute qualité par rapport à la maximisation des résultats, et sur l'équilibre entre l'indispensable diversité cognitive de l'humanité et la productivité technologique. À une époque de profonds changements, le maintien d'un tel équilibre peut s'avérer essentiel pour préserver la capacité de la science à apporter de la lumière et non des illusions.
Référence(s)
-
Messeri, L., Crockett, M.J. Artificial intelligence and illusions of understanding in scientific research. Nature 627, 49-58 (2024). https://doi.org/10.1038/s41586-024-07146-0
- Green turtle bounces back from brink in...on October, 2025 at 8:01 am
- 'How growing a sunflower helped me fight anorexia'on October, 2025 at 5:04 am
- Fossil found on Dorset coast is unique 'sword...on October, 2025 at 12:20 am
- Naked mole rats' DNA could hold key to long lifeon October, 2025 at 6:06 pm