一项3月24日发表于《放射学》的研究表明,大多数放射科医生难以辨识由人工智能(AI)生成的X光扫描图像;在混杂于真实医疗数据中的合成图像面前,仅有不到半数的医生能够将其识别出来。大型语言模型在区分真实与合成医疗图像方面也同样表现吃力。
AI生成的X光片若被纳入训练数据集可能会对分析医疗数据的AI工具产生偏差。
图片来源:北美放射学会(RSNA)
这项研究提供了一套培训方案,旨在帮助放射科医生提升识别AI生成X光图像的技能。研究人员同时发出警告:合成数据所带来的负面影响,恐将悄然渗透至科学文献及医疗诉讼领域。
“这项研究的结果既令人不安,对我而言却也并不意外。”美国微生物学家兼图像诚信专家Elisabeth Bik表示,“这不仅引发了人们对科研诚信的担忧,同时也对临床工作流程、保险理赔以及涉及影像证据的法律情境构成了潜在隐患。”
在这项研究中,来自12家研究中心的17位放射科医生接受了一项测试:他们被展示了一批X光扫描图像——其中半数为真实的扫描图像,另半数则是由AI生成的。在对研究目的毫不知情的前提下,参与者被要求对这些AI图像的技术质量进行评估,并指出是否察觉到任何异常之处。最终,有41%的参与者表达了疑虑,怀疑这批数据集中可能混入了AI生成的扫描图像。
随后,放射科医生们被告知其中部分图像系由AI生成,并被要求辨别哪些是真实的扫描图像,哪些是由ChatGPT生成的图像。平均而言,参与者正确识别出AI生成图像与真实扫描图像的准确率达到了75%。论文共同共同作者、美国西奈山伊坎医学院的放射科医生Mickael Tordjman指出,重要的是“放射科医生的经验水平并未对结果产生任何影响”。
研究团队还进一步探究了ChatGPT和Gemini等人工智能模型是否比放射科医生拥有更为敏锐的辨别力;然而,在区分真实图像与ChatGPT生成图像的任务中,这些人工智能模型的准确率仅在57%至85%之间。
AI生成的图像如此难以辨别,可能会给科学界带来严峻的挑战。Tordjman指出,其中最常见的挑战在于,虚假图像可能会对诉讼案件和保险理赔造成干扰。他补充道,此外还存在一种风险,即合成的扫描图像可能会渗透并混入科学文献之中。尽管出版商已出台政策明令禁止或限制使用此类内容,但同行审稿人和学术期刊仍被大量包含AI生成图像及医学数据的论文所淹没。研究人员对此深感忧虑,因为那些包含不准确信息的AI生成内容,不仅会误导科学家群体,同样也会误导广大公众。
另一个令人担忧的问题是,用于解读医学影像数据的AI模型,可能会因其训练数据集中混入了AI生成的数据而产生偏差。与此同时,研究人员也发现,合成数据有助于提升放射学AI模型的性能。美国斯坦福大学的放射科医生Curtis Langlotz指出,如果这些更为逼真的AI放射影像能够填补AI模型训练数据中的空白,那么对于医学界而言,这最终可能是一件好事。
该研究的作者们设计了一项互动测试,旨在教会研究人员如何辨别AI生成的X光扫描图像与真实的图像。这项测试涵盖了AI生成放射影像的一些典型特征,例如骨骼表面过于光滑、脊柱呈现出不自然的笔直形态等。作者们指出,除了对放射科医生进行相关培训外,采用数字水印等技术,以及建立由政府机构主导的监管框架,都有助于人们更轻松地识别出真实的图像。
相关论文信息:https://doi.org/10.1148/radiol.252094
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。