作者:蒲雅杰,李正风 来源:中国科学报 发布时间:2025/1/21 16:07:10
选择字号:
AI for Science:强化科研伦理规范 防止AI技术滥用

 

AI for Science是指人工智能(AI)赋能科学研究,目的是依托AI技术的进步提升科研能力,促进科学发展。AI对人类认知行为的技术性替代不断加强,从肢体感官上升到大脑,进而渗透到人类认知行为的不同环节。换言之,在认知和决策方面,人类把一部分功能或是一部分“权力”让渡给了AI系统。

AI for Science有可能创造性地融合以往多种科研范式。如今人类已置身于一个数字化、网络化的科学世界,传统的经验研究、理论研究或计算模拟,都因此受到多方面冲击。在走向智能化的过程中,除了机器学习和大语言模型的运用,还需要结合特定领域的科学理论设计和新的模型、算法的开发,凭借足够的算力支持,AI技术能够跨越时空,整合不同学科领域积累的丰富经验和数据,进行高效模拟与计算。

AI for Science与以往科研过程中对人类认知行为的技术性替代的一个很大的区别在于,它是开放且不断进化的社会技术系统。AI技术的谱系很长,并且在不断进化,同时还需要一系列数字技术和基础设施作为支撑。因此,如今AI for Science中“唱主角”的不单是大学或科研机构,还包括一些AI研发企业。这使得AI for Science成为一种变革更彻底、影响更深远的技术性替代。这种技术性替代意味着更高的技术壁垒,会在科学知识生产能力上形成更大、更难以超越的代际差异。所以各国都高度重视利用AI技术重构科研系统,如美国、英国政府先后发布AI for Science的战略研究报告和相应的行动策略。

如今在科研中被广泛应用的生成式AI就是一个典型案例。生成式AI带来的机遇和挑战并存,不能简单地否定其为科研带来的福祉和新机遇。如果错失了这个历史性机遇,代际差异将会被拉大。同时也应该看到生成式AI给科学知识生产带来的颠覆性影响,主动迎接挑战。

生成式AI带来伦理挑战

2023年7月7日,《自然》新闻栏目曾做了一项实验,两位科学家借助ChatGPT在一个小时内撰写出一篇相对完整的研究论文。同年10月,另一项《自然》的调查结果显示,全球超过31%的博士后研究人员经常使用ChatGPT。早在2022年底,《斯坦福日报》进行了一项调查,结果显示17%的学生曾使用ChatGPT完成秋季学期的作业和考试,这也是后来一段时间美国大学教授反对在大学中使用ChatGPT的原因。

截至目前,如何对待生成式AI应用于科研尚未有定论,人们的态度在不断变化,从最开始坚决反对,到逐渐允许尝试,再到鼓励合规使用。如今,已经没有高校或期刊会继续顽固地坚持一定不能使用ChatGPT等生成式AI,但由此带来的科研伦理问题不可忽视。

首先是生成式AI与学术不端的联系。2023 年,《自然》对 1600 名研究人员进行了一项调查,68% 的受访者表示,AI将使剽窃更容易,也更难被发现。生成式AI在统计分析时,对于结果一致性和应用更高级的统计方法表现出局限性,不具备高级学科必要的专业知识,并不能在前沿问题上给出准确答案。最令人担心的是,一旦虚假的学术论文进入公开的学术数据库、被引入学术交流的生产链之后,再想对其进行清理会非常困难。由此可见,这类型的学术不端不仅影响知识生产,还会影响所有在这些知识成果上进行的决策。

其次,生成式AI会对科学家的职业伦理造成影响。以往,科研人员是知识产品的直接负责人,对所生产的知识负有直接且唯一的责任,也承担知识或技术产品带来的风险。但AI技术和人类知识生产者形成了一种前所未有的新型人—机关系,未来可能难以严格区分使用者与其所依赖的AI工具。另外,当高级研究者与教育者面对学生更加熟练、更有技巧地使用生成式AI时,师生关系也可能发生颠覆。

更为重要的是,生成式AI生成知识产品的过程所蕴含的技术特征与科学家的职业伦理要求产生冲突。比如,来自数字健康领域的学者对生成式AI能否捕捉到护理学科的道德价值观和核心原则表示担忧,因为护理学强调对患者的同情、同理心、关怀、尊重,但生成式AI作为一种技术工具,对这种伦理关怀是无知的。

除此之外,生成式AI对于人类学术创造力的影响也值得高度关注。一些学者认为,ChatGPT等生成式AI的使用会导致学术创造力的丧失,致使学术独创性原则受到挑战。在这种情况下,更需要对科研应当秉持的独创性原则进行反思。如今的生成式AI的高级认知能力还较低,如果对其产生技术依赖,可能带来降低科研人员独立探索、自主思考和独立解决问题的积极性等风险。因此,坚持科研独创性,使得科学知识生产作为社会职业所具有的独特特征和价值得到维护,是科研人员共同的使命。

同时,AI可能会导致科研中产生新的不平等。在AI for Science的时代,新的不平等表现在不同领域、国别、年龄、职业、学历等因素上。传统领域中卓有成就的学者的地位可能因此受到影响甚至颠覆。获得和使用AI技术的差异,也会带来教育和科研领域新的分化和分层。在如今大学鼓励使用深层次AI辅助教育和研究的背景下,这是一个亟待解决的问题。

长时段、包容性的“社会实验”

对于如何在科研中合规地使用AI,是一项多样性、长时段的“社会实验”。比如,哈佛大学认为,随着技术迭代和发展,其社会影响将会在较长时间内呈现出比较复杂的局面,需要人们在这场“实验”中探索怎样更好地实践这个过程。哈佛大学将AI的使用权利交给全体师生,并且保留学校根据技术的迭代和教学实验的发展进行政策调整的权利。

事实上,没有任何一种伦理原则能够解决当下人类遇到的所有问题,多种伦理立场并存和利益相关者的磋商至关重要,新的实践智慧将在这一过程中凝练而生。要在使用AI新技术的多元、包容的“社会实验”中发现好的实践模式,识别可能出现的社会伦理问题。要防止极端认识的产生,如过度将AI放在崇高的位置、过度轻视AI以压制多元探索的可能,尤其警惕用过去经验在未来挑战中做简单裁决。通过这样的“社会实验”,人们会找到更好地与AI相互协调的方式。

对于AI带来的学术不端,需要进行有效的识别和深层治理,充分利用技术本身来应对技术带来的风险或许是一个不错的思路。应该加快开发生成式AI的检测技术,防止科研中的技术滥用。要坚持精准治理,完善对于利用生成式AI代写论文、数据造假等科研不端行为的监管体系。

防止AI技术滥用

对于科研人员而言,在具备AI胜任力的同时,还必须具备AI时代普遍的伦理素养。可以说,同时具有技术素养和伦理素养已经成为科研智能化时代防止AI技术滥用的内在要求。如欧洲一些大学已提出详细的AI使用原则,包括大学支持学生和教职员工建立良好的AI素养,教职人员应该具备能力支持学生在学习过程中有效且适当地使用生成式AI,调整教学评估并纳入生成式AI的道德使用,支持平等的获取,确保学术严谨性和诚信得到维护等。

AI的发展也为人们反思人类认知过程提供了良好的契机,使科学家认识到以往的研究工作中可以通过技术手段来提高效率和质量的部分以及真正不可替代的部分,即人类创造力真正之所系。

在这个过程中,探索科研场景下AI技术的价值对齐是不可忽视的工作。科研规范已经相当明确且得到广泛认同。然而,要使技术真正符合这些规范,仍有许多问题需要解决,也需要更多前瞻性研究。

(本文由见习记者蒲雅杰根据清华大学教授李正风在第二届科技伦理高峰论坛所作主旨报告整理完成)

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
赠书|用数学思维理解世界 超薄材料创造磁性之谜
农场安装垂直太阳能电板不会导致作物减产 罕见!七大行星要排队了
>>更多
 
一周新闻排行
 
编辑部推荐博文