IA | Alucinaciones e ilusiones de la IA en la ciencia
La inteligencia artificial está transformando la forma en que se lleva a cabo la investigación científica. Desde la ayuda en la revisión de la bibliografía hasta la generación de datos sintéticos, las herramientas de IA se están incorporando a todo el proceso de investigación con la esperanza de acelerar los descubrimientos. Sin embargo, un nuevo artículo publicado en Nature advierte de que una dependencia excesiva de la IA conlleva riesgos epistémicos que podrían socavar los propios objetivos de aumento de la productividad y la objetividad que la IA promete.
Los autores del artículo, Lisa Messeri y M.J. Crockett, se basan en su experiencia en ciencias cognitivas, epistemología, antropología y estudios sobre ciencia y tecnología para analizar cómo la IA interactúa con la naturaleza social de la producción de conocimiento. Identifican cuatro "visiones" principales que tienen actualmente los científicos para incorporar la IA: Oracle (para buscar y resumir bibliografía), Surrogate (para generar datos), Quant (para analizar grandes conjuntos de datos) y Arbiter (para agilizar la revisión por pares).
Aunque estas visiones pretenden superar limitaciones como el tiempo y la atención limitados de los investigadores, Messeri y Crockett sostienen que pueden ser contraproducentes al fomentar "monocultivos científicos". Los monocultivos surgen cuando un único enfoque de la investigación, como basarse principalmente en herramientas de IA, domina sobre otras alternativas. Al igual que los monocultivos agrícolas son vulnerables a plagas y enfermedades, los monocultivos científicos corren el riesgo de reducir el alcance de la investigación e introducir errores.
En concreto, los autores advierten de la existencia de "monoculturas del conocimiento" que dan prioridad a las cuestiones que se abordan mejor mediante IA, marginando otros enfoques válidos. Las "monoculturas del saber" también surgen al promover la idea de que las herramientas de IA pueden lograr una verdadera objetividad al representar todas las perspectivas, cuando en realidad incorporan las perspectivas de sus diseñadores.
Pero los riesgos más graves pueden venir de las "ilusiones de comprensión", errores metacognitivos en los que los científicos sobrestiman lo que comprenden debido a la IA. La "ilusión de profundidad explicativa" se produce cuando se confunde que los modelos predictivos captan plenamente los fenómenos. La "ilusión de amplitud exploratoria" induce a los investigadores a pensar que se tienen en cuenta todas las hipótesis, no sólo las que la IA puede probar. Y la "ilusión de objetividad" nos ciega ante el punto de vista inherente a la IA.
Para resistir estos riesgos, Messeri y Crockett insisten en cultivar la diversidad tanto en términos de métodos de investigación ("diversidad cognitiva") como de participantes ("diversidad demográfica"). Aunque la IA promete mejoras de eficiencia que aumentan la productividad, una dependencia excesiva de un único enfoque amenaza con restringir artificialmente los problemas que aborda la ciencia y los puntos de vista incluidos. Los autores sostienen que debemos gestionar las nuevas herramientas con responsabilidad para garantizar que la aceleración de los resultados no socave la comprensión genuina.
De cara al futuro, piden que se evalúen por separado las visiones específicas de la IA y se considere cómo afectan los niveles de experiencia a la confianza en los resultados. Los equipos interdisciplinarios podrían fomentar el necesario escrutinio. El creciente papel de la industria privada en el desarrollo de la IA académica también plantea problemas de transparencia. En general, este provocador análisis lleva a plantear preguntas difíciles sobre cómo incentivar la ciencia de alta calidad frente a la maximización de los resultados, y cómo equilibrar la indispensable diversidad cognitiva de la humanidad con la productividad tecnológica. En una era de profundos cambios, mantener ese equilibrio puede ser clave para conservar la capacidad de la ciencia de arrojar luz, no ilusiones.
Referencia(s)
-
Messeri, L., Crockett, M.J. Inteligencia artificial e ilusiones de comprensión en la investigación científica. Nature 627, 49-58 (2024). https://doi.org/10.1038/s41586-024-07146-0
Pulse TAGS para ver artículos relacionados :
AI | INVESTIGACIÓN | SOCIEDAD
- Green turtle bounces back from brink in...on October, 2025 at 8:01 am
- 'How growing a sunflower helped me fight anorexia'on October, 2025 at 5:04 am
- Fossil found on Dorset coast is unique 'sword...on October, 2025 at 12:20 am
- Naked mole rats' DNA could hold key to long lifeon October, 2025 at 6:06 pm