4月29日,由上海市第一人民医院与联影智能的一项研究开发并验证一款可自动量化心肌血流状况的CT心肌灌注成像深度学习模型,辅助医生准确诊断患者心肌缺血程度,其衍生的缺血心肌体积百分比指数可作为预测不良心血管事件(以下简称MACE)发生概率的重要参考,能帮助医生预判患者发病几率,进而制定个性化治疗方案。相关论文发表于Radiology。
论文截图
?
据《中国心血管健康与疾病报告2024》显示,我国冠心病患者高达1139万人。作为常见且严重的心血管疾病之一,冠心病发病成因是患者血管动脉粥样硬化,使心脏血管变窄或堵塞,导致心肌缺血,进而引发心绞痛、心肌梗死等病症,若抢救不及时将会危及生命。因此,在冠心病诊断过程中,精确评估血管状况和心肌缺血程度尤为重要。
AI赋能冠心病高效精准诊断
目前,在临床中较多采用冠脉CT血管成像(以下简称冠脉CTA)作为评估冠脉疾病的无创性方法,可清晰显示冠状动脉形态,判断血管狭窄、堵塞情况,但该检查方法无法直接评估心肌是否缺血及缺血程度,诊断结果较为依赖医生个人经验,易出现错诊、误诊等情况,导致错过最佳的冠心病治疗时机,严重时甚至攸关生死。
“这就好比能看到道路(血管)有没有堵塞,但不知道因为道路拥堵,道路两侧居民的出行究竟受到了多大影响,是稍有延迟,还是完全无法出门(心肌状态)。”论文通讯作者、上海市第一人民医院放射科主任张佳胤表示。
在《中华放射学杂志》发布的《CT心肌灌注中国专家共识》中提出,CTP(CT灌注)临床价值在于评估冠心病患者心肌是否存在缺血或者在梗死心肌周围寻找存活心肌。作为非侵入性诊断方法,CTP具有成像时间短、结果报告快等优势,能够在一次检查中同时获得冠脉血管形态学数据和心脏功能学数据,为重度钙化和支架术后患者的心肌缺血评估提供一项全新检查途径。
为此,张佳胤团队与联影智能深度合作,以多中心验证的形式开发一种自动量化动态CT心肌灌注成像的AI模型。
具体而言,研究团队从3家医院挑选患者组成3个队列。队列1患者数据将用于开发和验证深度学习模型(以下简称DL-model),通过对大量影像数据的学习训练,让模型学会分割心脏结构、校正图像运动偏差,进而计算心肌血流量(以下简称MBF)和缺血心肌体积(以下简称IMV)等数值;队列2选取同时接受动态CT心肌灌注成像、冠状动脉CT血管造影和侵入性FFR检测的患者,以评估DL-model模型检测心肌缺血的准确性;队列3则纳入随访2年的患者,用以探究DL-model模型计算的IMV数值对主要不良心血管事件的预测价值。
经过数据验证,DL-model模型能够自动、准确地量化心肌血流量和缺血心肌体积百分比,能够准确预测缺血心肌,实现血管层面AUC=0.97,病人层面AUC=0.96(AUC值越大代表模型性能越好),并且无需复杂的手动操作,显著缩短图像后处理时间,从传统手动处理时间7-9分钟减少到88秒左右,极大提高临床工作效率,使患者能够更快得到精准化诊断结果,并为后续治疗提供相关参考。
提前预判冠心病发病风险
值得一提的是,研究团队还发现缺血心肌体积百分比指数与MACE之间的紧密联系,在预测冠心病患者发病几率时,为医生提供极具价值的量化指标。
“我们发现9.1%是缺血心肌体积百分比指数的最佳临界值。以此为界,可清晰区分冠心病患者的风险等级。当患者该指数高于9.1%时,MACE发生率更高,低于9.1%则患者风险相对较低,这有助于医生合理分配医疗资源,制定个性化诊疗方案。”张佳胤表示,相较传统临床特征和影像学参数,加入缺血心肌体积百分比指数的模型,在预测MACE方面展现出更强的判别能力,可更精准地评估冠心病患者未来发生MACE风险,进而帮助临床医生更合理地制定治疗策略,对高风险患者及时干预,改善患者的预后情况。
DL-model模型能够高效量化地评估心肌状况,离不开其背后多中心数据、人工智能技术以及论文合作单位联影智能在冠心病诊疗领域的深厚积累。
“针对冠心病疾病,我们已推出冠脉CTA分析系统、CTA冠脉斑块智能分析系统、CT-FFR智能分析系统、CTP心肌灌注智能分析系统、MR心脏智能分析系统等多款AI应用,可一站式开展对冠脉解剖学狭窄、血流功能性评估及心肌缺血的量化评估,实现从冠脉形态学到功能学、心肌活性的全链路诊断。”论文共同第一作者、联影智能首席技术官吴迪嘉表示。
“心血管疾病是人类生命健康重大问题,防治意义重大。未来,我们还将以临床需求为导向、以AI为创新源动力,深化产医融合创新,共同探索出更具原创性、引领性的技术成果,让医疗AI成果惠及更多患者。”张佳胤表示。
相关论文信息:https://doi.org/10.1148/radiol.242570
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。