作者:刘园园 来源:科技日报 发布时间:2015/8/4 10:48:26
选择字号:
霍金等千名专家敦促禁止“杀人机器人”

 

科技日报北京8月3日电 (记者刘园园)1000多名知名科学家和人工智能领域专家近日签署公开信,警告可能出现人工智能军备竞赛,并敦促联合国发布针对“攻击性自动化武器”的禁令。

据英国《卫报》报道,公开信的签署者包括著名科学家斯蒂芬·威廉·霍金、特斯拉CEO伊隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及谷歌人工智能项目负责人米斯·哈撒比斯等。这封信已在网上公开发表,并于日前提交至在阿根廷布宜诺斯艾利斯召开的国际人工智能联合会议。

公开信称:“人工智能技术已经发展到这样一种地步:尽管不合法,自动化武器的使用将在几年内而不是几十年内会成为现实。这将带来极大的风险,自动化武器已经被称为继火药和核武器之后的武器的第三次革命。”

这封信认为,人工智能可以让战场对军事人员而言更为安全,但是能够自主操作的攻击性武器会降低战争发生的门槛,从而给人类生命带来更大的损失。

公开信指出,如果某个军事力量开始研发能选择攻击目标并在没有人类直接操控情况下自动运行的武器系统,会像当年的原子弹一样引发军备竞赛。而与核武器不同的是,人工智能武器并不需要具体的、难于制造的材料,因此很难对其生产进行监控。这封信称,“人类今天所面对的关键问题在于,是在全球范围内启动一场人工智能军备竞赛,还是将其扼杀在萌芽状态。”

新南威尔士大学人工智能教授托比·沃尔什对这一呼吁表示支持:“我们需要在当下做出决定,这个决定将主宰我们的未来,并事关我们是否走在正确的道路上。”

“杀人机器人”是当今的热议话题。霍金和马斯克此前都曾警告说,人工智能是人类最大的威胁,而且完全人工智能的发展将导致人类的终结。今年4月,联合国曾专门召开会议讨论了包括“杀人机器人”在内的未来武器的发展,这次会议曾考虑针对某些特定类型的自动化武器颁布禁令,但遭到一些国家的反对。

 
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 

2015/8/4 14:23:36 ep4h
而且,关键的一点,这个世界的所有科学家都无法断言强人工智能是不是可控的,那些关于强人工智能会毁灭世界,或者奇点临近之类的言论,都是臆测。如果某个国家发明出了可控的强人工智能,就有可能把所有国家都踩在脚下。但是你不去研究,你就永远不可能知道它到底可不可控,别人能不能做出可控的出来。

无知对人类的困扰,就在于你并不知道它该做还是不该做。
2015/8/4 14:14:02 ep4h
何为“杀人机器人”,并没有定义。机器只要具备了人一样的自由意志,它就可能杀人。禁止杀人机器人,最终肯定是禁止一切强人工智能。但是没有一个国家敢保证别的国家不会率先研制强人工智能,在强人工智能研究领域,谁落后一步,谁就有可能亡国灭种。这个研究也不像核试验一样是可监控的。
2015/8/4 12:52:57 rlnfu
只要天朝造“杀人机器人”,其它国家也会造“杀人机器人”。
毫无疑问,天朝一定会造“杀人机器人”。
----------------------------------------------------------
如果你是中国人,你不感到自己太无耻吗?!如果你不是中国人,你不感到太无知了吗?
2015/8/4 12:48:24 rlnfu
楼下的,你觉得美国、日本这些国家比“天朝”在这方面要好?!你能肯定美国、日本这些国家现在没有研发“杀人机器人”?如果你还是一个中国人,你不觉得你太无耻了吗?!
2015/8/4 12:48:04 temam
这是个很严重的问题,我们的2025也提到智能,其实官老爷们能有几个真正懂得什么是智能,机器具备智能之后会怎样。满嘴大数据,人工智能。
目前已有6条评论
相关新闻 相关论文

图片新闻
中山大学超构表面图像显示研究获重要进展 广西那坡县发现世界级天坑群
李言荣团队在高温超导中发现量子金属态  严重干旱为新亚述帝国迅速灭亡埋下隐患
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文
 
论坛推荐