作者:苗妮 来源:中国科学报 发布时间:2013-12-31 9:34:34
选择字号:
科学家:机器人不能杀人
117国将于明年5月就自动武器展开正式评估

 
愚蠢的机器人是危险的,但是聪明的机器人更危险。
 

Noel Sharkey在游说过程中争取对机器人武器的禁令。
图片来源:CAMPAIGN TO STOP KILLER ROBOTS
 
如果你的使命是:说服全球军事工业园区放弃可能会改变21世纪战争的一种武器。你会认为这是堂吉诃德式的想法?Noel Sharkey却不这么认为。在2007年《卫报》上的一篇充满挑衅性的专栏文章中,这位英国谢菲尔德大学的计算机科学家写道,不久以后,机器人武器将拥有决定哪些人是被杀害目标的权利。对许多人来说,该警告也许只会使他们想到小说中的机器人,但是对于一些人工智能专家来说,它体现了对那种只依靠算法区分战士与平民的自动武器的真实恐惧。
 
由于Sharkey和其他科学家的努力,自主杀人机器人的到来可能会被阻止。上个月在瑞士日内瓦召开的会议上,签署《特定常规武器公约》(CCW)的117国成员同意检查针对自动武器的相关规定。CCW已经在规定中禁止或约束埋布地雷、燃烧弹、集束弹药和致盲激光。将机器人武器加入到该名单“已经不再是幻想”,担任非政府间团体国际机器人武器控制委员会(ICRAC)主席的Sharkey如是说:“在阻止这些可憎武器的部署方面,我们已经迈出了重大一步。”
 
就像坦克、潜艇和原子弹重写了20世纪战争规则一样,自动武器系统是少数被称为21世纪战争规则改变者的技术之一。“军队正在研发更多的自动系统,并不是因为它们灵巧或者冷酷,而是因为人们看到了它们在战场上的优势。”美国华盛顿布鲁金斯学会21世纪安全和情报中心负责人Peter Singer表示。
 
政府的纵容
 
美国国防部(DOD)在2007年12月的一份报告中,提出了无人系统未来25年的发展愿景,其中包括呼吁开发机器人的自主定位和摧毁目标功能。令Sharkey和同事感到担忧的是,DOD在2012年11月发布了一项政策指令,不仅确认了机器人武器可能会针对“物资目标”,还暗示如果国防部高层官员签署“正式开发指令”,人也会成为其目标。
 
“这件事并不高调,但世界因此有了第一份公开宣布开发杀手机器人的国家政策。”ICRAC的Mark Gubrud在9月20日的《原子科学家公报》中写道,Gubrud是普林斯顿大学科学与全球安全项目的前研究员。2002年,Gubrud和其他观察人士首次提出警告,他和其同事——德国多特蒙德科技大学的物理学家Jürgen Altmann呼吁推出针对杀手机器人的禁令,以防止未来的军备竞赛。Gubrud写道:“DOD的2012年指令实际上根本没有顾及到长期以来存在军队内部的阻力,并向开发商和供应商释放了五角大楼在认真对待自动武器的信号。”
 
美国和其他国家长期以来都支持无人系统,比如无人机,DOD和中央情报局(CIA)在数以百计的任务中利用它杀死塔利班、基地组织和其他恐怖组织的成员。不过,到目前为止,在大多数情况下,还是人类操作员起决定作用,而国防部对于允许机器人作杀人决定的问题一直持不冷不热的态度。
 
一个关键的反对意见是,在武装冲突法(LOAC)的条款中,致命的自动武器是不可接受的。LOAC植根于古老的传统,并在第二次世界大战的平民屠杀后得到加强,它要求武装部队须限制关于军事必需品的活动,并区分战斗人员和非战斗人员。军事律师担心,能够自动杀害妇女和儿童的机器人会使美国违反LOAC。但是他们没有看到那些以物品为目标的机器人也面临同样的问题。以人为目标的地雷和那些以坦克为目标的地雷也存在这种区别。只有前者被1997年的《渥太华条约》所禁止,理由是其是直接针对人进行攻击。
 
Gubrud警告称,DOD的指令批准开发那些被其称为“半自动”但有完全自主定位能力的武器,包括“射后锁定”导弹。例如,美国海军的远程反舰导弹会自动搜索并攻击距发射点数百公里的船只。即便如此,五角大楼的一名官员今年早些时候告诉Gubrud:“有些非完全自动的系统正在考虑之中。”
 
科学家的努力
 
对Sharkey来说,军队使用致命自动武器的愿望因为他5年前在《科学》杂志上表述的伦理问题而搁浅:“没有计算系统可以在近距离接触的战争中,区分战斗人士和非战斗人士。计算机程序需要对非战斗人士进行明确定义,但是目前没有可用的定义。”一些计算机专家断言,未来复杂的人工智能系统也许有一天会等同或超过人类的能力。Gubrud声称,其风险在于人类将失去对其的控制。“愚蠢的机器人是危险的,但是聪明的机器人更危险。”他说,“最危险的莫过于介于两者之间的机器人。”
 
科学家对自动武器的反对源自2009年9月,当时Sharkey、Altmann和两位哲学家建立了ICRAC。该组织的使命声明宣称:“机器不应该被允许作出杀人的决定。”机器人、人工智能伦理和法律方面的专家都因为该原因而加入ICRAC。因1998年到2004年主持流行的英国广播公司系列节目《机器人战争》而闻名英国的Sharkey开始全心投入ICRAC的活动。
 
今年4月,ICRAC与人权观察组织和其他组织(目前包括来自22个国家的47个组织)联合进行“停止杀手机器人活动”。几周后,联合国法外、即审或任意处决特别报告员Christof Heyns呼吁联合国人权理事会“敦促所有国家在管理框架形成之前,对致命自主机器人的测试、生产、组装、转让、收购和部署实施延期”。
 
同时,Sharkey和同事开始说服CCW签署国采取相关行动。Sharkey称,美国是关键,而他有理由对此持乐观态度。他表示,美国军方尊重ICRAC的地位。“我们只是反对其杀死人的功能。”Sharkey称。10月18日,联合国美国代表团告诉Sharkey和同事,他们会支持CCW对研究自动武器的要求。
 
在上个月的CCW会议中,Sharkey在一个拥挤的房间中发表了一篇关于自动武器危险性的充满激情的演讲。117个代表团中的任何一个都可能否决他的提议。“这令人紧张。”Sharkey称。第二天,即11月15日,CCW各方一致同意在5月召开评审会议。
 
“这是一个令各国关注该问题和相关禁令的重要机会。”丹佛大学政治理论家Heather Roff在CCW决定后如是说。Sharkey称,明年,他和其他科学活动家将会试图说服各国采纳CCW关于禁止全自动武器开发、生产和使用的协议。(苗妮)
 
《中国科学报》 (2013-12-31 第3版 国际)
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 
SSI ļʱ
相关新闻 相关论文

图片新闻
遗传分析追踪潘多森林的进化 团队研制出高性能的蓝光量子点液体激光
宇航员可搭乘小行星前往金星或火星 泡菜等发酵食品真的对肠道有益吗?
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文
 
论坛推荐