AI | 人工智能会削弱同行评审的严谨性吗?
学者们逐渐接受了计算辅助工具,将其作为加速书面成果和分析工作的一种手段。然而,随着这些自动化系统熟练程度的提高,它们也有可能巧妙地引导知识讨论。斯坦福大学的一组研究人员进行了首次定量深度研究,探讨了语言模型在选定学术领域的普遍影响。
研究小组在 ChatGPT 于 2022 年 11 月首次亮相之前和之后,对提交给著名机器学习会议的评论以及在杰出科学期刊系列上发表的论文进行了研究。通过开发新的统计技术来衡量特定文本经过人工智能工具重大修改或生成的可能性,他们发现了无可争议的证据,表明LLM在评论内容中得到了利用,尽管不同领域的程度各不相同。
最值得注意的是,他们估计去年ICLR、NeurIPS、CoRL和EMNLP的评论中有6.5-16.9%的句子可能被人工智能做了基本校对之外的有意义的修改。另一方面,他们在自然刊物发表的评语中没有发现统计学意义上的重大偏差。这些发现与人们的预期一致,即机器学习专家可能是技术的早期采用者,因为他们拥有丰富的知识和使用工具的能力。
补充分析揭示了应用 LLM 的方式和时间。在临近截止日期前提交的评论,或者来自不太愿意与作者进行讨论的审稿人的评论,与更高的预期人工智能影响相关。缺乏学术参考文献或论文评价内容差异较小的评论同样与人工智能信号的放大有关。
虽然这项调查无法证明因果关系,但这些模式引起了人们的疑问,即是否轻松和时间压力可能会影响一些评审人的判断,并可能使评审过程出现偏差。从更广泛的意义上讲,在人工智能广泛存在的情况下,内容的同质化引发了人们对具有代表性的专业技能和多样性的更多担忧,而长期以来,同行评审一直是人工智能的有力支持。
创作者们强调,这只是一种新方法的初步发现,跨学科合作仍势在必行。尽管如此,他们的高层次估计和语言线索为有条不紊地检查人工智能对学术对话和信息形成的蔓延而又微妙的影响提供了一个宝贵的起点。只有通过这样透明的衡量标准,我们才能保证这些强大的工具能够增强而不是不适当地引导人类的决策和交流。
参考文献
- UK to dispose of radioactive plutonium stockpileon January, 2025 at 5:03 pm
- Giant iceberg on crash course with island,...on January, 2025 at 12:01 am
- Trump vows to leave Paris climate agreement and...on January, 2025 at 3:20 am
- 'Dark oxygen' mission takes aim at other worldson January, 2025 at 1:05 am