“建议加快制定我国AI(人工智能)的法律、法规及安全伦理标准,确保AI健康、稳定发展,如尽快组织起草人工智能基本法等。”8月6日,在中国计算机学会(CCF)于苏州举行的“国家科技创新体系与计算机战略发展研讨会”上,中国工程院院士、国家并行计算机工程技术研究中心总工程师陈左宁做了题为《新一代人工智能安全与自主可控发展战略研究》的报告,并提出如是建议。她表示,该报告内容是包括中国工程院院士高文等在内的多位院士共同参与的结晶,也是中国工程院一项重大战略咨询课题的研究成果。
近年来,人工智能系统在发展和应用中暴露出大量安全问题,引发人们高度关注。中国工程院咨询课题围绕多个角度对此进行了研究。
陈左宁表示,人工智能之所以引发安全问题,主要是由于其具有学习能力,可以自主决策、自主行动。具体而言,人工智能系统中广泛应用机器学习的三个重要属性是形成人工智能系统安全问题的基本原因,如机器学习的可理解性和可解释性问题、鲁棒性问题,以及目标函数或奖励函数描述的不完备性问题。
在她看来,可以从两个角度对人工智能的安全问题进行分类。从广义上讲,人工智能安全问题包含人工智能系统作为一种人造系统(工程的系统或信息系统)的安全性问题,人工智能技术的应用造成的经济和文化的、法律和伦理的、国家和社会的安全问题,以及由于人工智能系统具有思维和自我发展能力而可能形成的对人类整体的安全威胁。
此外,人工智能安全问题还可以分为内生安全问题和衍生安全问题。内生安全问题是指人工智能系统本身由于设计、制造、使用环境或受到攻击所产生的安全问题。衍生安全则是指由于人工智能技术的应用而衍生出来的对其他系统安全性的影响问题。
陈左宁介绍,围绕安全问题的解决,多位中国工程院院士提出了建议,具体包括如下方面。一是要明确主管部门,建立平台机构。建议明确国家层面主管人工智能安全与伦理审查的部门,建立国家人工智能的技术与产品应用的检测、评估平台或机构。二是建议加快我国AI的法律、法规制定及安全伦理标准,确保AI健康、稳定发展。例如,尽快组织起草人工智能基本法,为人工智能技术开发和应用制定基础性法律文件。三是建议将AI安全与自主可控关键技术纳入现有研究专项,壮大人才队伍。四是积极推动人工智能安全领域的国际合作,共筑人类人工智能安全共同体。五是建议优化人工智能产业生态发展模式,实现AI应用产业链要素自主可控。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。