马斯克等百人向联合国呼吁禁止开发杀人机器人

摘要: 关于人工智能是福是祸的争议不断。马斯克等人认为,在人工智能和机器人上建立的技术能被转用于发展自主武器,致命的自主武器可能给人类带来巨大威胁。

10-10 18:48 首页 财新TMT


关于人工智能是福是祸的争议不断。马斯克等人认为,在人工智能和机器人上建立的技术能被转用于发展自主武器,致命的自主武器可能给人类带来巨大威胁。


财新记者   叶展旗


随着人工智能技术的发展,一些从业人士对可能存在的威胁发出预警。8月21日,特斯拉创始人兼CEO马斯克等一百余位机器人与人工智能领域的从业人士联合发出公开信,向联合国呼吁禁止开发与使用杀人机器人。

  

此封公开信的签署者遍布26个国家,谷歌DeepMind联合创始人Mustafa Suleyman也在其中。此外,还有两位来自中国的从业者,分别是机器人公司优必选的创始人兼CEO周剑、人工智能公司Sankobot创始人兼CEO李磊。

  

公开信中提到,由于公司在人工智能和机器人上建立的技术能被转用于发展自主武器,因此我们觉得特别有责任发出预警。

  

信中称,致命的自主武器可能会带来新一轮的武器革命,一旦开发成功,将使冲突的规模庞大到前所未有,而且会达到人类难以适应的程度。他们将成为恐怖的武器,将成为暴君和恐怖分子残害无辜民众的武器,抑或被黑客所使用,“我们的时间并不多,一旦潘多拉之盒被打开,就很难被关上。”

  

自主武器是在无人干预情况下可以独立搜索、识别并攻击目标的一种新式武器,即杀人机器人。马斯克、物理学家霍金、苹果公司联合创始人沃兹尼亚克等人都是自主武器的反对者。

  

李磊向财新记者表示,过去几十年间世界上没有发生过大规模的战争,这得益于生产力的提高、全球化的进步以及大国的责任感。但随着地球人口的超载,资源的竞争可能导向两种结局,其一是向太空移民,其二便是世界战争。

  

“各国在自主武器上的技术积累差距较大,一旦研发成功,将重启新一轮的军备竞赛。自主武器不需要人操控,发生意外的可能性大大提高,战争的风险也随之上升。”

  

7月17日,马斯克在出席一场由美国各州州长参加的会议时曾强调,“我一直在敲响警钟,等到哪天机器人真的走上街头、屠杀人类时,大家会不知所措。”

  

智能软件开发机构Possibility Research的创始人兼主席Steve Omohundro也是该公开信的签署者之一。他向财新记者介绍道,我们正身处人工智能与机器人革命中,这一变化将出现在三个层面:首先是当前的“人工智能经济”,即人工智能技术提高生产力,加速经济活动;之后是正在出现的“人工智能军事”,即技术提高武器的自动化程度,并带来军备竞赛,包括开发无人机、机器战士、自主武器机动车等设备;未来的“人工智能社会”则应扩大对自主系统的法律及行政管制。

 

“很明显,这些新技术需要新的方式去确保安全性。”Steve Omohundro表示,“目前,我们仍处在非常早期的阶段,我们需要重新构建这些技术所处的环境。大体上,社会需要更先进的法律和执法措施。”

  

2016年12月,联合国《特定常规武器公约》的签署国家投票决定在2017年召开会议讨论对自主武器的限制。不过,据公开信透露,原定于近日召开的会议由于小部分国家没有支付会员费而被取消,百位人工智能业界人士恳请联合国敦促缔约方在11月的第一次会议上加倍努力。

  

这封公开信发表在美国研究机构生命未来研究所(FLI)的网站上,该机构致力于降低人类所面临的风险,尤其是人工智能技术所可能带来的风险。马斯克与霍金都是这家研究所的顾问委员会成员。

  

目前,关于人工智能是福是祸的争议不断。7月23日,Facebook创始人扎克伯格指责马斯克所描述的末日恐慌是消极的、不必要的,“在某种程度上,这是相当不负责任的行为。未来十年,人工智能将大幅改善人类的生活。”马斯克随后回应称,已和扎克伯格谈过,他对人工智能的理解有限(limited)。




【转载指引】

未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。如需转载,请通过向本公众号后台申请并获得授权,或发送申请至minqin@caixin.com。欢迎转发朋友圈。



首页 - 财新TMT 的更多文章: