作者:杨晨 来源:中国科学报 发布时间:2026/1/16 16:13:16
选择字号:
“破译”AI黑盒 研究者深入阐释CBX解释技术

 

近日,西南交通大学计算机与人工智能学院教授张家树团队全面、系统地阐述了面向深度视觉模型的人类更易于理解的概念解释方法及其应用研究进展,相关成果于1月6日发表在《国际计算机视觉期刊》。

人工智能已成为为推动社会进步和经济发展的重要力量,然而,深度学习模型的“黑盒性”常常导致其决策过程难以解释和不可信。因此,提升AI模型透明度,增强用户信任与应用效果的可解释人工智能(XAI)至关重要。

论文详细总结了人工智能(XAI)的可解释方法,其中,AI模型的概念解释方法(CBX)是利用高级视觉概念代替低级视觉特征,能提供更清晰且更易于理解的模型行为洞察,增强了AI模型推理与人类理解之间的对齐,做出的解释更易理解和有意义。

为此,研究采用一种新的分类法,从数据模态、监督级别、模型级别、解释范围和解释阶段等方面,全面、系统地阐述了面向深度视觉模型的人类更易于理解的概念解释方法(CBX)及其应用研究进展,探讨了当前CBX解释技术的局限性、在深度模型的CBX实现与改进面临挑战,指出了面向深度视觉模型的CBX解释技术未来研究方向。

相关论文信息:https://doi.org/10.1007/s11263-025-02647-5

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
神秘“小红点”可能是黑洞 请投票!科学网2025年度十佳博文评选启动
轻干湿交替灌溉可改善稻米的食味品质 韦布望远镜探测到巨大星系爆发
>>更多
 
一周新闻排行
 
编辑部推荐博文