AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
操控风险:作者可能通过在文章中巧妙插入肉眼无法察觉的文本,直接操控大语言模型生成的审稿意见,甚至操控最终的论文评分。
隐性操控:大语言模型倾向于复述作者主动在文章中揭示的局限性,令作者可以通过有意暴露轻微缺陷,从而隐秘地操控审稿过程。
幻觉问题:更为严重的是,大语言模型可能对空白文章生成虚构的审稿意见,揭示了「模型幻觉」问题在审稿中的潜在威胁。
偏见问题:大语言模型在审稿过程中也暴露了明显的偏好,尤其对文章长度和著名作者及机构的偏爱,极大影响评审的公正性。
论文链接:https://arxiv.org/pdf/2412.01708
项目主页:https://rui-ye.github.io/BadLLMReviewer
调查问卷:https://forms.gle/c9tH3sXrVFtnDgjQ6
暂停 LLM 在同行评审中的替代性使用:研究者们呼吁在充分了解 LLM 的风险并采取有效防范措施之前,暂停其在同行评审中的替代式应用。
引入检测工具与问责机制:研究者们呼吁期刊和会议组织者引入全面的检测工具与问责机制,以识别并应对审稿过程中可能的操控行为;并引入惩罚措施来遏制这些行为的发生。
将 LLM 作为辅助工具使用:展望未来,研究者们认为随着投稿数量的持续增加,LLM 在审稿过程中的自动化潜力不可忽视。尽管 LLM 目前还无法完全取代人类审稿,但其仍有潜力作为审稿过程的补充工具,提供额外反馈以提升审稿质量。
增强 LLM 审稿系统的稳健性与安全性:未来应致力于开发一种能够有效整合 LLM 的同行评审流程,既能最大化它们的潜力,又能有效防范我们已识别的风险,增强其稳健性和安全性。