作者:李思辉,王悟诚 来源:科学网微信公众号 发布时间:2026/2/19 20:36:47
选择字号:
2年学术资料全没了!高校教授一次点击酿成“惨剧”

 

编译|李思辉 王悟诚

“2年的学术工作一瞬间就丢失了!”近日,德国科隆大学植物科学教授马塞尔·布赫(Marcel Bucher)在《自然》杂志发文,讲述了一次让他追悔莫及的遭遇。

在关闭ChatGPT的一项功能后,布赫过去2年依赖AI工具积累的学术资料被永久清空。赠款申请的构思脉络、反复修改的教材草稿、论文润色记录、课程设计与考试分析……这些原本存放在对话框中的内容,在一次设置调整后被永久删除,且无法恢复——没有提前提示,没有确认步骤,也不存在撤回选项。

图为豆包AI生成。

01 瞬间就消失了

布赫是德国科隆大学的植物分子生理学教授,也是卓越集群CEPLAS(植物科学领域的研究网络)成员,研究方向聚焦于植物—微生物相互作用、弓形菌根共生以及营养信号调控等领域。

在ChatGPT推出后的几年里,布赫逐渐将这一AI工具纳入自己的科研和教学工作。订阅OpenAI的ChatGPT Plus服务后,他几乎每天都会使用它:用它撰写电子邮件、起草课程说明、构思科研赠款申请、修改出版物草稿、准备讲座内容、设计考试等。

在布赫看来,ChatGPT的价值并不在于充当“事实权威”。他很清楚,大型语言模型可能生成看似自信却并不准确的表述,因此他从未完全信任它生成的内容。

真正让他长期依赖的,是这一工具在工作层面展现出的连续性、稳定性。布赫坦言,ChatGPT可以记住正在进行的对话的上下文,并允许使用者检索和完善以前的草稿。在日常使用中,ChatGPT更像一个持续运行的工作区,承载着学术工作的构思、修改与反复推敲的过程。

但在2025年8月的一天,布赫对ChatGPT上的一项设置进行了调整,暂时关闭了平台中的“data consent(数据许可)”选项。他想以此确认在不向OpenAI提供个人数据的情况下,是否仍然能够正常使用模型的全部功能。

然而,在这一次点击之后,他之前的所有聊天记录被永久删除,项目文件夹被清空,2年来逐步积累、反复打磨的学术工作随之消失。让布赫困惑的是,系统没有给出任何警告,也没有提供撤销或恢复的选项,页面只剩下一片空白。尽管此前曾保存过部分对话和材料的副本,但绝大多数内容已经无法找回。

02 永远无法找回

起初,布赫认为这只是一次技术故障。他尝试更换浏览器、设备和网络环境,清理缓存、重新安装应用程序,并反复调整相关设置,但始终未能恢复任何数据。

“我丢失的不是闲聊的内容,而是宝贵的学术资料!”布赫说。他与ChatGPT的讨论中,包含记录开发赠款申请、准备教材、完善出版物草稿、设计考试分析内容等多个对话。这是他花费两年时间搭建起来的智力框架。

随后,他联系了OpenAI的技术支持部门。最初的回复来自AI客服;在多次询问后,一名人工客服作出回应,相关数据已经被永久删除,并且无法恢复。

在回复中,OpenAI提到了“以隐私为设计核心”的原则。这意味着,当用户停用数据许可选项时,平台将删除所有相关内容,不保留任何痕迹。一旦删除完成,聊天记录便无法恢复,也不存在冗余或备份机制。平台表示,这一操作是在履行其对用户隐私保护的承诺。

“如果因为一个点击,就不可逆转地删除一个研究人员多年的工作,那么ChatGPT的使用安全就应该打个问号!”布赫写道。

作为一名付费用户,他原本希望平台能够提供基本的防护措施,例如对不可逆删除行为给予更明确的提示,或在一定期限内提供恢复选项。但平台并没有提供此类“回退”功能。

回顾这次经历,布赫反思,当前科研人员正越来越多地将生成式AI融入写作、规划和教学实践,不少高校也在尝试将其系统性嵌入课程体系。他的遭遇却暴露出一个根本性问题:这些AI工具在设计之初,并未充分考虑学术工作对连续性、可靠性以及问责机制的要求。

03 一个重要提醒

布赫认为自己本可以采取更多措施来保护数据安全。比如,定期导出重要对话、建立系统性的离线备份,并在不了解后果的情况下避免随意调整相关设置——这些做法或许无法完全避免数据丢失问题,但至少能够在一定程度上减少损失。

布赫也坦言:“不是所有东西都丢失了。已经导出的最终产品、出版物、讲座材料和电子邮件仍然存在。”

真正消失的,是他与ChatGPT之间长期积累的交流偏好:提示语、追问、反复迭代的修改记录,以及按项目整理的文件夹。“失去它们,就如同失去已发表研究背后的实验室笔记本——最终结论仍在,但实验过程、思考轨迹、可被再次利用的构建模块却不复存在。”他说。

这一事件在学界和网络上引发了不同反应。有网友对布赫将大量工作托付给云端工具提出质疑,认为科研人员仍应对数据保存承担更大的责任。

德国海德堡大学的罗兰·格罗姆斯(Roland Groms)则认为,布赫的勇气值得肯定。他指出,很多科研人员在潜意识里都认为自己能掌控AI,但这种“稳定性的假象”往往最容易让人在忙碌中掉以轻心。

对此,OpenAI也作出回应。该公司否认用户“未收到任何提示”的说法,表示在执行永久删除操作前,平台会提供确认弹窗。不过,当《自然》杂志向其求证时,OpenAI对于布赫对事件经过的描述表示属实,并补充称,一旦删除完成,相关内容将无法恢复,这符合数据隐私保护的相关法律要求。出于同样的考虑,OpenAI始终建议用户对专业工作进行独立备份。

目前,布赫正在为自己所有由AI辅助完成的工作建立独立备份,并将其存储在平台之外。他表示,分享这段经历并非为了追责,而是希望提醒其他人:

“生成式人工智能确实有潜力成为一种非凡的学术工具,但前提是,它必须保证科研数据的安全,确保不辜负用户的信任。在那之前,我们应该谨慎对待它,并且要求运营商为用户提供更高标准的服务。”

参考文章:

https://www.nature.com/articles/d41586-025-04064-7

 
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
科学网给您拜年了! 纳米反应器给铝空气电池搭输氧“高速路”
植物星球计划正式启动 洞庭追鸟人
>>更多
 
一周新闻排行
 
编辑部推荐博文