近年来,围绕着生成式人工智能(AI)的使用问题,全球各高校与学术期刊都密集发布了大量规范与指引。
一方面,不少高校在课程论文、毕业论文中明确列出AI工具的“可用清单”与“禁用边界”,要求学生声明是否使用AI,甚至细化到“可用于语言润色,不得用于内容生成”之类的操作性条款。
另一方面,国际主流学术期刊与出版机构也相继更新投稿须知,强调AI不得署名为作者,要求披露AI使用情况,并重申作者对论文内容的最终责任。
表面看来,这些规定回应迅速、态度审慎,体现了学术共同体对伦理风险的高度重视。仔细审视便不难发现,这些规则虽然形式上更新了对象,但其核心伦理逻辑依然高度延续了传统学术不端治理的路径:通过划定“允许与禁止”的边界、强调披露与检测试图识别违规行为并加以惩戒。换言之,它们本质上仍然是一套“抓作弊”的制度设计,只是将新的技术工具纳入既有的监管框架之中。
但在我看来,这种以过程审查与违规识别为中心的伦理思路,正日益暴露出与生成式AI现实使用方式之间的结构性错位。当AI使用变得日常化、碎片化且难以追踪,当“使用程度”无法被可靠查证,当披露越来越依赖个人自觉,这套建立在可核查前提之上的伦理治理模式,是否仍然能够有效运行,已成为一个无法回避的问题。
正是在这样的背景下,重新反思AI时代学术伦理的基本假设与评价重心,就显得尤为必要。
“使用程度”作为伦理边界:无法查证的治理乱象
围绕生成式AI的学术伦理讨论,往往从“是否该使用AI”起步。但如今,这个问题已失去了实际意义,无论是教学科研,还是论文写作与数据处理,AI的使用已成为常态。
在学术实践中,AI并不只被用于“代写”或“生成文本”等极端场景,还“嵌入式”参与写作——协助梳理论证结构、优化逻辑衔接、润色语言表达、生成摘要草稿、调整标题风格……这种碎片化、低强度却高度频繁的使用方式,使AI逐渐成为学术写作环境的一部分,而非外在工具。
因此,任何建立在“全面禁止”或“完全回归人工写作状态”上的伦理设想都缺乏现实基础。问题不在于AI会不会被使用,而在于当AI使用成为常态后,学术伦理以什么作为判断基础。
当前,多数高校与期刊的AI规范试图通过“使用范围”或“介入程度”划定合规与否的边界,如允许语言润色,但禁止实质性改写;允许辅助写作,但禁止生成核心内容……从价值立场看,这类区分并非毫无道理,但问题是它们几乎全部无法被有效查证。
实际操作中,语言润色与内容改写之间,并不存在稳定、可测量的分界点。看似“润色”的操作可能已改变句法结构、论证顺序甚至论述重心;而“改写”也可能并未引入任何新的实质性观点。将高度连续的写作行为强行切割为“合规”与“违规”,本身在技术上难以成立,也是一种不现实的伦理假设。
更重要的是,生成式AI并不会留下稳定、可审计的使用痕迹。除非完全依赖使用者的自我披露,否则外部几乎不存在可靠的证据链。检测工具的局限性使其无法承担“裁决性证据”的角色,这一点早已被反复证明。在此情况下,任何试图以“使用了多少AI”为标准的规范,最终都只能停留在文本层面,无法转化为真正可执行的制度。
在此前提下,“披露机制”成为全球学术规范的共同选择。无论是医学、自然科学,还是人文社科领域的期刊,几乎都要求作者对AI工具的使用情况作出声明,并强调作者对最终成果负全部责任。
但这一机制本身内含一个难以回避的悖论,即它完全依赖使用者的诚实与自觉,却缺乏外部核验手段。
当AI使用变得低成本、高频率且深度嵌入写作流程,个人披露将不可避免地呈现选择性与象征性——全面、细致的披露会显著增加写作成本,而不披露或部分披露又几乎不可能被识别与追责。
由此,“披露机制”逐渐从一种实质性的伦理工具,演变为一种“形式化合规”的象征行为。
在投稿系统中勾选选项、在论文末尾附加声明、在学校承诺书中签字确认,这类行为在当下会存在,甚至将来依然会存在一段时间,但它们却越来越难以反映真实的AI介入程度。
剽窃概念的结构性动摇:从“来源不当”到“主体失真”
在我看来,生成式AI真正撼动的并非某一条具体的学术规范,而是“剽窃”这一概念赖以成立的伦理基础。
长期以来,学术界对于剽窃的界定始终围绕一个相对清晰的核心——未经标注使用他人的观点或语言。该界定之所以成立,有赖于两个前提:一是学术成果可被追溯明确来源;二是文本与作者间存在相对稳定的对应关系,即“谁在说什么”。
但生成式AI的介入正系统性地瓦解这两个前提。当生成式AI参与写作,文本的“来源”就变得高度弥散。许多由AI生成或协助生成的表述,并不直接对应某一篇论文或某位学者,甚至未必能被还原为某个清晰的思想出处。它们更像是一种统计意义上的“语言合成”,其生成逻辑并非复制,而是重组、概括与模拟。在此情况下,“是否使用他人的原句或原意”的剽窃核心判据将愈发难以适用。
更为关键的是,AI并不只是改变“文本如何产生”,而且开始动摇“谁在生产知识”这一更深层的问题。
传统学术伦理中,写作被视为学术主体能力的直接体现。文本不仅是观点载体,更是研究者理解能力、判断能力与论证能力的外在呈现。而剽窃被视为严重不端行为的原因,不仅在于其侵犯了他人知识产权,更因其伪造了作者的学术能力与研究劳动。
但在生成式AI时代,真正需要警惕的恰恰不是“文本是否完全原创”,而是文本背后是否存在一个真实且能对其负责的学术主体。
如果一篇论文的语言、结构、论证乃至问题意识大量依赖AI生成,作者虽不真正理解其中逻辑、不具备独立完成研究的能力,却仍以“研究者”身份署名并接受评价,这已不是技术使用问题,而是更深层的伦理失真。这种失真并非发生在“文本来源”层面,而是发生在学术主体层面。
也就是说,目前学术伦理所面对的风险,正在从“偷用他人的思想”,转向“伪造自己的学术存在”。
在此意义上,AI带来的伦理挑战并非“表达是否经过机器润色”或“句子是否由模型生成”,而是学术主体是否仍承担着理解、判断与创造的核心责任。换言之,当AI被用来弥补语言能力、协助表达甚至启发思路时,它仍处在工具地位;而当AI被用来替代理解和思考,甚至替代决策时,学术主体便开始空心化,学术写作也沦为表演性的产出。
因此,“剽窃”概念正在经历结构性转向——它不但指向“来源不当”,而且指向“主体失真”;不仅关乎“是否引用别人”,还关乎“作者是否具备其呈现的学术能力”;不只是文本伦理的问题,还是学术身份与学术责任的问题。
这一转向恰恰解释了,为何单纯依赖AI检测、文本比对或使用披露,无法从根本上解决学术伦理危机。因为真正的问题不在文本表层,而在于学术制度是否仍能区分哪些成果背后是真实的研究者,哪些成果背后只是被AI托举的虚假主体。
从这一角度看,生成式AI并未削弱学术伦理的要求,反而抬高了相关门槛。未来,学术伦理不仅须确认“这段话是谁写的”,还必须追问这项研究是否源自真实的理解,这个署名是否对应一个真实承担责任的学术主体。
这才是生成式AI时代“剽窃”概念被重写的真正起点。
评价重心的必然转移:从过程审查到结果问责
当“剽窃”的伦理内涵从“来源不当”转向“主体失真”后,学术评价体系必然发生结构性迁移。因为这两者本质上是同一件事的两个侧面——如果真正的风险是学术主体被AI“替身化”,那么治理与评价就不可能继续停留在对写作过程的洁癖式审查,而必须回归一个根本问题——这项成果是否能证明作者真实的研究能力与学术贡献。
过去,学术界之所以高度重视过程规范(引用格式、写作痕迹、文本原创性、写作过程的“纯度”),是因为这些过程指标在相当长时间里具有可视性与可核验性——文本可以比对、引用可以核查、方法与材料可以追溯。于是,过程规范不仅是一套道德要求,也是一套低成本的制度规定——它帮助学术共同体在有限时间内判断一个成果是否可信。
然而,生成式AI改变了这一切。写作过程越来越不可见、不可证、不可复原;“用了多少AI”不再是可测量变量;披露高度依赖自觉;检测不具备裁决性。于是,制度被迫承认:继续把评价资源押注在“过程合规”上,将产出越来越小的治理回报,甚至制造越来越多的误伤与争议。
在此情况下,评价重心转向“结果问责”并非某种道德立场的选择,而是制度理性上的必然——当过程指标失灵,制度只能把注意力转移到更可检验、可追责、可复现的结果指标上。
在我看来,未来的制度理性主要表现在以下方面:
第一,从“写作是否纯人工”转向“贡献是否可被识别”,即创新成为检验的第一要素。
当AI参与写作成为常态,文本的“写作方式”将难以成为评价依据;相反,创新性将重新成为最硬核的检验指标。此处的创新并不等同于“用新词”或“写得更漂亮”,而是有3个更扎实的层次。
一是问题创新,即是否提出了此前未被看见、未被清晰界定或被长期误解的问题。
二是证据创新,即是否引入了新材料、数据、文本、田野调查数据或档案,使论证拥有不可替代的基础。
三是解释创新,即是否在既有材料上,给出更强的解释力,能回应反例并解决旧解释无法解决的矛盾。
众所周知,AI能帮助组织语言,甚至帮助生成“像样的”论证框架,但它很难替代真正的创新。因为创新要求作者对领域知识的结构性掌握、对研究缺口的敏感,以及对证据与理论关系的深度判断。
换言之,AI能提高表达效率,却难以稳定产出可持续的学术增量。因此,当过程纯度不再可靠时,学术共同体将更自然回到“贡献识别”的硬标准。
第二,从“文本路径合规”转向“结论可检验”,即可复现与可反驳成为未来的学术底线。
当AI使写作过程难以追踪时,制度最自然的替代策略是强化“可检验性”。也就是说,评价不再主要追问“你怎么写出来”“写作是否符合学术规范”,而要追问“你的内容是否能被检验”。这里至少包含3层含义。
一是可反驳性。需思考论断是否有明确边界,以及是提供了可被质疑、被推翻的条件,还是仅给出不可触碰的“漂亮说法”。
二是可复现性。需要厘清数据从何而来、处理步骤是否透明、分析脚本或编码规则是否可重复。即便在质性研究中,也应体现材料选择、解释路径、证据链条的可追踪性。
三是可核查性。引用是否对应真实来源、事实陈述能否被查证、关键材料能否被第三方检索或复核。
在生成式AI环境中,这些标准更为重要,因为AI最容易制造“表面自洽的幻觉”——文本看似逻辑顺畅,但事实细节、引用、出处和推理链条可能存在严重虚构或误导。一旦评价体系把“可核查”与“可复现”提升到核心位置,就等于把治理焦点从文本形态转回到知识生产的真实性,让AI难以成为“替身工具”。
第三,从“披露与声明”转向“责任归属”,即作者必须在场并承担解释义务。
“主体失真”最典型的表现之一,就是作者无法对论文关键部分作出清晰解释,对于为何如此界定概念、为何如此选择材料、为何如此设定模型等问题,其回答要么含混,要么套话连篇,要么直接重复文中句子。这是“学术替身化”的可见症状。
因此,结果问责时代的评价体系会越发强调“解释义务”——作者能否说明研究设计与逻辑路线、能否指出论证中的关键步骤和脆弱点、能否解释可能的反例与局限,以及能否为错误承担责任,并区分“可纠正的瑕疵”与“不可接受的伪造”。
这也就意味着,学术评价更像“责任审查”,而不只是“文本审查”。由此,在制度层面上,它将会催生一些明显的变化——更多的答辩式评审、更多的过程性口试、更多的数据与材料审阅、更多的开放材料要求、更严格的作者贡献说明等。其逻辑非常清楚:当文本的生成过程不可追溯,制度就会迫使作者以“可解释的在场”来证明其主体的真实存在。
第四, AI的位置将被重新定义,即从“伦理威胁”到“工具常态”,底线是“责任不可转移”。
在新的评价框架中,AI不再天然被视为伦理威胁,因为“使用AI”并不构成学术不端;真正构成学术不端的是将AI当作“主体替身”,并据此伪造学术能力。于是,伦理底线将清晰地落在一个点上——责任不可转移。
这意味着,你可以借助AI组织语言表达,但不能把理解外包给AI;你也可以用AI提升效率,但不能让AI替代判断;你甚至可以让AI提供建议,但关键学术决策必须由作者承担并解释。
更进一步说,未来的伦理问题将不再是“你用没用AI”,而是“你用AI做了什么,以及你是否仍然承担了应承担的学术责任”。这是一种从“工具洁癖”走向“责任伦理”的转型。
第五,制度转型的副作用与再平衡,即结果问责不是放弃规范,而是提高学术规范门槛。
需要强调的是,评价重心转向结果问责并不意味着学术共同体放弃规范,恰恰相反,它意味着规范被提升到了更难的层级:从“写作规范”提升为“知识规范”,从“文本规范”提升为“责任规范”。
当然,不能否认这种转型也会带来一些新风险,比如对“创新”的崇拜可能诱发浮夸;对“结果”的强调可能导致短期主义;对“可复现”的强调可能不利于某些难以形式化的人文学科的发展。
不过,这并不意味着转型不可取,恰恰意味着制度需要建立新的平衡——在不同学科中找到不同形式的“可检验性”,并把结果问责落实为对证据链与解释力的要求,而非简单地把一切量化。
AI时代的伦理重建:不是抓作弊,而是重学术贡献
生成式AI的出现并非简单地制造一种新型学术不端,而是动摇了既有学术伦理赖以运作的技术根基。
当写作过程不再可见、不可核查、不可复原时,继续以“抓作弊”为核心的治理思路已经失去了制度基础。在此情形下,过度纠缠于工具使用本身不仅难以真正约束不端行为,反而可能掩盖关键问题:学术成果背后是否存在一个真实承担责任的研究主体。
基于此,AI时代的学术伦理重建不能再以排查技术痕迹为中心,而必须回到学术贡献本身。真正需要被审视的不是文本是否由机器参与生成,而是研究是否建立在真实理解上;不是写作路径是否“足够纯人工”,而是结论是否基于可靠证据、清晰逻辑与可检验的方法;不是作者是否声明使用了某种工具,而是其是否具备解释研究设计、回应质疑、承担错误后果的能力。
在这一新的伦理框架中,“剽窃”的含义也将发生根本性转变——
它不再指向对他人语言或观点的挪用,而更多指向对学术能力与学术身份的伪造。相应地,学术评价的重心也必然从过程合规转向结果问责,从文本审查转向责任审查。生成式AI由此被纳入学术生产的常态工具体系,而不再被视为天然的伦理威胁;真正不可让渡的是研究者的判断权、解释权与责任。
在此意义上,生成式AI并非学术伦理的终结者,而是一面迫使学术界重新思考“何为学术贡献”的镜子。
这面镜子要求我们放弃对过程可控的幻想,放弃“抓作弊”的徒劳方法,以更高标准重建学术评价:不是看像不像人写的,而是看谁真正理解问题、推进知识,并为其成果承担责任。
这才是AI时代学术伦理应当昂首挺进的方向。
(作者系中国人民大学全民阅读教育研究院院长)
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。