人工智能|科学中的人工智能幻觉和错觉
人工智能正在改变科学研究的方式。从协助文献综述到生成合成数据,人工智能工具正被纳入整个研究过程,希望能加速发现。然而,发表在《自然》杂志上的一篇新观点论文警告说,过度依赖人工智能会带来认识论上的风险,可能会破坏人工智能所承诺的提高生产力和客观性的目标。
本文作者丽莎-梅塞里和 M.J. 克罗克特利用认知科学、认识论、人类学和科技研究方面的专业知识,分析了人工智能如何与知识生产的社会性相融合。他们指出了科学家目前对人工智能的四种主要 "设想":Oracle(搜索和总结文献)、Surrogate(生成数据)、Quant(分析大型数据集)和Arbiter(简化同行评审)。
虽然这些愿景旨在克服研究人员有限的时间和注意力等限制,但梅塞里和克罗克特认为,它们可能会助长 "科学单一文化",从而适得其反。当一种单一的研究方法(如主要依赖人工智能工具)主导了多种多样的替代方法时,就会产生单一科学。正如农业单一栽培易受病虫害影响一样,科学单一栽培也有可能缩小研究范围并带来错误。
具体来说,作者对 "单一知识文化 "提出了警告,这种文化优先考虑使用人工智能最能解决的问题,而将其他有效的方法边缘化。"单一知识文化 "的出现还因为有人鼓吹人工智能工具可以通过代表所有观点来实现真正的客观性,而实际上这些工具只代表了设计者的观点。
但最深层次的风险可能来自 "理解错觉"--元认知错误,即由于人工智能,科学家高估了他们所理解的东西。当预测模型被误认为完全捕捉到现象时,就会出现 "解释深度错觉"。探索广度的错觉 "使研究人员误以为所有假设都被考虑在内,而不仅仅是那些人工智能可以测试的假设。而 "客观性错觉 "让我们看不到人工智能固有的立场。
为了建立抵御此类风险的能力,梅塞里和克罗克特强调在研究方法("认知多样性")和参与者("人口多样性")方面培养多样性。虽然人工智能有望提高效率,但过度依赖任何单一方法都有可能人为地限制科学所要解决的问题以及所包含的观点。作者认为,我们必须负责任地管理新工具,确保加速产出不会损害真正的理解。
展望未来,他们呼吁分别评估具体的人工智能愿景,并考虑专业知识水平如何影响对结果的信任。跨学科团队可以促进必要的审查。私营企业在开发学术人工智能方面发挥着越来越重要的作用,这也引起了人们对透明度的关注。总之,这一具有启发性的分析促使人们提出一些棘手的问题:激励高质量科学与最大化产出,以及平衡人类不可或缺的认知多样性与技术生产力。在一个深刻变革的时代,保持这种平衡可能是保持科学发光而不是幻想的能力的关键。
参考文献
-
Messeri, L., Crockett, M.J. 人工智能与科学研究中的理解假象。自然》 627, 49-58 (2024).https://doi.org/10.1038/s41586-024-07146-0
- Green turtle bounces back from brink in...on October, 2025 at 8:01 am
- 'How growing a sunflower helped me fight anorexia'on October, 2025 at 5:04 am
- Fossil found on Dorset coast is unique 'sword...on October, 2025 at 12:20 am
- Naked mole rats' DNA could hold key to long lifeon October, 2025 at 6:06 pm