作者:方莹馨 来源:人民日报 发布时间:2019/4/11 11:12:15
选择字号:
欧盟发布人工智能伦理准则

 

《人民日报》( 2019年04月11日 17 版)

欧盟委员会4月8日发布人工智能伦理准则,以提升人们对人工智能产业的信任。欧盟委员会同时宣布启动人工智能伦理准则的试行阶段,邀请工商企业、研究机构和政府机构对该准则进行测试。

该准则由欧盟人工智能高级别专家组起草,列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

根据官方解释,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。举例来说,如果人工智能在未来诊断出一个人患有某种病症,欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断,也不会无视人类医生的反对意见,患者可以自行选择获得对诊断结果的解释。

欧盟数字经济和社会专员玛利亚·加布里尔表示,算法做出的任何决定都必须经过验证和解释。当保险公司的系统拒绝了一次索赔后,客户应当能详细地知晓缘由。加布里尔还强调,还需要确保人工智能系统的公平。如果招聘系统使用的算法是由一家仅雇用男性员工的公司数据生成的,其算法就可能会筛除女性应聘者,“这样带有偏见的数据输入将会带来伦理困境”。

对于这份准则,欧委会副主席兼欧盟单一数字市场战略副总裁安德鲁斯·安西普表示:“符合伦理标准的人工智能将带来双赢,可以成为欧洲的竞争优势,欧洲可以成为人们信任的、以人为本的人工智能领导者。”

欧盟此举也受到一些质疑。非营利组织“算法观察”联合创始人马蒂亚斯·斯皮尔坎普认为,尽管制定准则是一个好主意,但准则围绕的核心——“可信赖人工智能”这一概念的定义尚不明确,且目前还不清楚未来的监管如何实施;还有业内人士担心,准则过分细化会使许多公司尤其是中小型企业难以操作;此外,参与了准则起草工作的德国美因茨大学哲学教授托马斯·梅辛格对于欧盟没有禁止使用人工智能开发武器表示批评。

(本报布鲁塞尔4月10日电)

 
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 
相关新闻 相关论文

图片新闻
研究或摆脱光子时间晶体对高功率调制依赖 利用量子精密测量技术开展暗物质搜寻
天文学家找到最小恒星了吗 问答之间 | 如何开展科研之路
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文