近日,西南交通大学计算机与人工智能学院教授张家树团队全面、系统地阐述了面向深度视觉模型的人类更易于理解的概念解释方法及其应用研究进展,相关成果于1月6日发表在《国际计算机视觉期刊》。
人工智能已成为为推动社会进步和经济发展的重要力量,然而,深度学习模型的“黑盒性”常常导致其决策过程难以解释和不可信。因此,提升AI模型透明度,增强用户信任与应用效果的可解释人工智能(XAI)至关重要。
论文详细总结了人工智能(XAI)的可解释方法,其中,AI模型的概念解释方法(CBX)是利用高级视觉概念代替低级视觉特征,能提供更清晰且更易于理解的模型行为洞察,增强了AI模型推理与人类理解之间的对齐,做出的解释更易理解和有意义。
为此,研究采用一种新的分类法,从数据模态、监督级别、模型级别、解释范围和解释阶段等方面,全面、系统地阐述了面向深度视觉模型的人类更易于理解的概念解释方法(CBX)及其应用研究进展,探讨了当前CBX解释技术的局限性、在深度模型的CBX实现与改进面临挑战,指出了面向深度视觉模型的CBX解释技术未来研究方向。
相关论文信息:https://doi.org/10.1007/s11263-025-02647-5
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。