编译 | 李思辉 张鸿悦
资深环境科学家、韩国忠南大学教授洪成进(Seongjin Hong)最近很不爽,他带领团队完成的一篇环境化学论文被拒稿了。更让他生气的是,给出拒稿意见的评审人很可能不是人,而是AI。
洪成进是如此意难平,以至于他专门在《泰晤士高等教育》撰文吐槽,其团队论文疑因AI工具生成的评审意见被拒稿。这一指控引发众多学者对AI不当介入同行评审及其风险的激烈讨论。
图片由AI生成
?
从模糊矛盾且偏离主题的评审意见,到期刊主编以“极不可能”来否认指控,有评论认为,这起“AI审稿疑云”已超越个案,直指学术诚信与科技伦理的核心问题:在应对审稿人短缺与效率压力的同时,如何守护同行评审的严谨、专业与公正性?
一场AI审稿疑云
今年年初,洪成进团队向某知名国际环境科学期刊投稿一篇关于“新型环境分析方法现场应用”的论文。
通过首轮评审后,团队根据审稿人意见进行了详细修订。然而,修订稿提交后,论文却因一位审稿人第二轮出人意料的负面报告而遭拒稿。“意见自相矛盾,且与论文无关。”洪成进在文中指出,这份评审报告存在显著异常。
首先,审稿人提出了首轮未提及的全新质疑点。例如,针对一项明确聚焦于环境化学领域现场分析方法的研究,评审意见却批评其未能提供“全面的生态评估”,甚至要求补充“对动物交配行为的影响分析”——这些要求更符合行为生态学的研究范畴。
其次,报告存在明显的逻辑矛盾与事实偏差。该报告声称“化学分析的可重复性未充分解释”,而事实上,该问题已在论文多个章节明确阐述。
评审语言本身也很奇怪。“评语像用关键词拼凑的模板。”洪成进发现,报告充斥着诸如“需要更多验证”“缺乏全面性”等笼统、公式化的评语。更蹊跷的是,审稿人在报告开头承认“作者回应了提出的问题”,却在未提供充分理由的情况下称“无法推荐该文发表”。
基于自身15年研究经验,以及发表150余篇论文并担任期刊副主编的经历,洪成进注意到,近年来表面流畅但缺乏深度和专业责任感的评审报告逐渐增多。由此,他怀疑此评审意见可能部分或全部由AI生成。
为验证猜想,洪成进用大型语言模型ChatGPT生成模拟评审意见并进行比对,发现二者在语言风格和论证缺陷上高度一致。“它读起来像自动回复,而非深思熟虑的科学评判。”洪成进表示。
面对其提交的详细证据,期刊主编仅回应“审稿人使用AI的可能性极低”,并建议将修订稿作为新投稿重新提交——这意味着团队三个月的修订工作归零。洪成进直言:“科学研究不应依赖运气。若评审沦为关键词驱动的机械流程,学术信任的基石将崩塌。”
证据还是臆断?
洪成进的指控在学术界引发争议,两方观点鲜明对立。
支持者认同其经验判断,认为资深研究者对评审异常情况具备敏锐辨识力。评论者J. Miller指出,经验丰富的学者往往能察觉评审中的非典型信号。J. Smith则表示,这一事件是对AI工具潜在风险的必要警示。
然而,反对的声音同样强烈。评论者Roger认为,在缺乏确凿证据的情况下使用“可能”一词,弱化了指控的严肃性,有规避举证责任之嫌。Graff则指出,未公开具体期刊名称削弱了质疑的立论基础。
围绕这一事件,双方争论主要聚焦于几个核心问题。
核心争议首先指向举证。反对者强调学术评审本就存在主观性,并非AI独有现象,在传统人工评审中也时有发生。匿名评论称:“哪位资深学者没遭遇过更令人费解的拒稿?”也有观点认为洪成进“两头通吃”——用“可能”规避法律风险,又借舆论向期刊施压。
此外,关于AI在审稿中的伦理界限成为焦点。多数学者支持AI作为有限辅助工具,用于查重、语法检查或文献初筛,但坚决反对其生成完整的评审意见。评论者T. Kim的观点颇具代表性:“若审稿人无暇或无意进行深入评审,应直接拒绝邀请,而非依赖AI代劳。”
更深层次的讨论聚焦系统性风险与批判性思维的弱化。有学者指出:“当学生用AI写作业、审稿人用AI生成报告,批判性思维将集体退化。”这种忧虑并非空穴来风,斯坦福大学一项研究显示,超过半数的研究生承认用AI撰写“非核心”论文章节。由此可见,AI渗透已构成贯穿学术链条的现实风险。
类似争议并非孤例。《自然》2024年调查显示,30%的编辑承认AI检测结果会影响终审决定。剑桥学者莎拉·康纳的担忧引发共鸣:“我们批判学生依赖AI,却对审稿环节的自动化视而不见,这是学术版的‘何不食肉糜’。”
值得注意的是,尽管立场存在分歧,争论双方在一个关键问题上达成了共识:无论引发此次争议的评审意见是否涉及AI工具,低质量同行评审意见已是当前学术出版体系中一个不容忽视的痼疾。解决这一深层问题,比单纯争论单次事件是否涉及AI,更具普遍意义。
重构学术公信力
面对自动化审稿的潜在风险,国际上正积极寻求解决之道,核心在于提升透明度与强化责任。洪成进表示:“科学研究不应依赖运气。同行评审必须建立在公平、透明和专业知识的基础之上。”
透明化被视作重建信任的关键。洪成进呼吁建立披露机制:审稿人需声明AI工具使用范围,期刊应说明评审流程的自动化程度。
这一立场与国际顶级期刊的实践相呼应。2024年3月,Nature母公司Springer Nature明确规定:允许AI辅助初筛,但所有结果必须人工复核,严格禁止完全依赖AI做出审稿结论。
2025年6月,Nature进一步宣布,将随论文全文公开所有评审意见及作者回应。主编Magdalena Skipper强调:“让评审过程晒太阳,才能重建信任。”
技术检测与人机协同是另一道关键防线。目前,刊物出版商正着手开发AI内容检测系统,但现有技术仍存在瓶颈。数据显示,当前主流检测工具如iThenticate 2.0对非英语母语者论文误判率高达15%。这些工具主要依赖文本统计特征进行分析,虽能进行初步筛查,却难以精准区分“AI辅助写作”与“完全AI生成”的文本。
面对技术局限,强化人工监督至关重要。麻省理工学院出版社建议:编辑必须对AI辅助内容进行实质性复核并签字担责。同时,部分期刊也在探索“开放评审抗辩权”,允许作者对疑似AI痕迹过重的评审提出质疑,触发编委会仲裁。
在此背景下,一场学术信任保卫战已然展开。技术浪潮不可逆,但如洪成进所言:“若评审沦为自动化黑箱,科学信任的根基将受侵蚀。”在效率与严谨的博弈中,确保评审透明化与坚守人的主体性,仍是不可退守的底线。
相关链接:
https://www.timeshighereducation.com/opinion/my-paper-was-probably-reviewed-ai-and-thats-serious-problem
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。