“最近几个月,编辑们在编辑待发表论文的参考文献时,发现有数字对象识别码(DOI)却无法检索到对应的引用文献,说明这些引用是虚构的。”近日,《柳叶刀》副主编Sabine Kleinert表示,论文写作过程中使用生成式人工智能(AI)并产生“幻觉式引用”,这种行为应该被制止。
Sabine Kleinert(受访者供图)
?
10月20日,由北京大学儿童青少年卫生研究所、《柳叶刀》及联合国教科文组织全球健康与教育教席(北京大学)联合主办的“中国儿童青少年健康发展研讨会”在北京大学医学部举办。会议期间,Sabine Kleinert就研究人员使用生成式AI等话题,接受了《中国科学报》采访。
Sabine Kleinert介绍说,使用生成式AI引发的新型科研不端行为,是时下的热门话题。尽管生成式AI的使用正在增加,但由于目前尚无技术手段能可靠地识别,出版机构只能依靠作者的诚信声明。《柳叶刀》也不例外。
据了解,《柳叶刀》系列期刊的投稿页面设置了一个复选框,询问作者是否在其研究成果中使用了生成式AI。如使用,则需要具体描述使用情况,包括大语言模型的名称、版本、确切提示词、使用目的以及在文章手稿中的位置。如果作者选择了“是”,编辑会在投稿系统中收到提示。
“当我们发现一些不适当的‘幻觉式引用’,也就是说,在一篇论文中的大部分内容使用了AI且未予以声明时,即使我们开始接收了这篇论文,最后也会拒稿,然后会告诉作者,这样的做法是不恰当的。如果这种情况非常普遍,我们可能会与作者所在的机构沟通,说明他们需要接受关于生成式AI合理使用的教育。”Sabine Kleinert表示。
据Sabine Kleinert介绍,《柳叶刀》曾收到过一些通讯栏目的投稿,编辑们高度怀疑这些信件大量使用了生成式AI,尽管没有确凿证据。“这些信件没有任何价值。它们只是总结了一下已发表的论文,评论一下,然后强调一些局限性,而这些其实论文本身已经做过了。这类信件我们每天大概会收到五篇,一律直接拒稿。”
不过,Sabine Kleinert也承认,在将人类从繁琐的任务中解放出来、从而拥有更多时间进行批判性思考上,AI的确“非常棒”。“生成式AI可以用于改善语法和语言表达,甚至用于查阅已有的研究成果,或对其进行总结,这些都是合理的用途。”她指出,关键在于,要对使用情况“保持诚实和透明”。
Sabine Kleinert着重指出了一些不被允许使用AI的场景,包括同行评审、撰写述评文章。“因为审稿人可能会将未发表的论文输入到公共系统中,成为公开文献的一部分,这会破坏研究的保密性。”同样由于涉及保密问题,相关专家在撰写与论文同期发表的相关评论时,也不被允许使用生成式AI。
据了解,2024年《柳叶刀》成立科研诚信小组,旨在评估和制定《柳叶刀》系列期刊内部应对科研诚信问题的相关政策,并思考监控和塑造使用生成式Al的最佳方式。
Sabine Kleinert透露,未来,《柳叶刀》还将成立科研诚信委员会,旨在规范全球的科研发表工作。“我们计划在明年二月举行启动会议,来自世界各地、背景各异的委员将聚在一起,讨论委员会的工作范围、工作组的组成以及他们的任务。我可以非常肯定地说,生成式AI及其对科研诚信的影响,将会是讨论的重要内容之一。”
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。