人民网>>军事
人民网>>军事>>正文

专家:禁研人工智能武器不公平 西方的优势太大

2015年07月29日13:53  来源:人民网-环球时报  手机看新闻

从《终结者》到《黑客帝国》,好莱坞影片中的人工智能形象往往是冷酷无情的杀人机器,人类在其面前甚至连基本的自卫都无法做到。在现实中,越来越多的公司正投资开发人工智能,无人作战平台也正在越来越多地参与到战争中,效能不断提升。美国《华尔街日报》27日称,如果这些技术相互结合,“终结者”出现的概率远比想象的要高得多。为防止这种情景的出现,天体物理学家霍金、特斯拉公司CEO马斯克、苹果联合创始人沃兹尼亚克等上百名科技及人工智能领域的领导者联名发出公开信,号召禁止人工智能武器。

报道称,未来生活研究所在阿根廷举办的人工智能国际联合大会上公布了这封公开信,信中将人工智能武器称为“继火药和核武器后在‘战争领域的第三次革命’”。联名上书的科学家表示,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这比“控制人口数量的意义更深远”。

公开信认为,人工智能武器可能的危害首先是“会降低走向战争的门槛”。例如无人机是目前在致命自主武器系统上的最高成果。虽然这类人工智能武器可以减少战场上的人员伤亡,但掌握这种技术的国家不用考虑人员伤亡带来的舆论和政治压力,发动战争的顾忌更少。

其次,人工智能武器不像传统的核武器那样难以取得原料,建造它们的材料无处不在,因此未来可能廉价到所有的军事强国都会大批量生产。“他们出现在黑市和恐怖分子手中只是时间问题”。“倘若任何军事力量推进人工智能武器的研发,全球军备竞赛便不可避免,这项技术的结局显而易见:人工智能武器将成为明天的卡拉什尼科夫自动步枪”。

这封公开信在全球人工智能领域引起广泛争议,中国科学家们也分持不同立场。中国人工智能领域专家、Horizon Robotics公司创始人兼CEO余凯认为,霍金等人联署的这封公开信是非常有现实意义的提议,因为目前在战场上部署自动识别、跟踪、选择并攻击目标的技术已经成熟了,然而让机器自行判断、决策乃至杀人是非常危险的,也是有悖伦理的。人工智能技术一旦应用在军事领域,确实很危险,目前就有军事大国在研究远程识别人脸并进行攻击的智能武器,它能比人类狙击手更精准地击中对方士兵要害部位。

余凯认为,人工智能技术的进步就像核能等技术的发展一样,既给人类带来很大便利,同时带来相应威胁,警惕人工智能技术军用化可能带来的风险,并不是说不去发展相关技术,而是要控制好这把双刃剑,正视负面的因素并予以管控。

而另一名中国人工智能领域的核心专家表示,他收到过这封要求联合署名的公开信,但最终没有签名。该专家表示,他支持禁止使用人工智能技术杀人的倡议,但他没有联合署名就是担心,会给各国民众造成“机器人已发展到将威胁人类安全”的印象。他认为,从现阶段来看,这种观点纯属忽悠,不利于人工智能和机器人的发展。此外还有一个令人不安的因素是,西方某些国家已经将机器人应用于战争之中,进行了非常多的研究和应用,并对他国构成非对称的威胁。在这样的现实基础上,要全球“一刀切”都停止人工智能的军用开发,是不合理的。他希望,将来的战争就是机器对机器的战争,而不是机器对人的战争。( 武彦、刘扬)

分享到:
(责编:刘玉倩(实习生)、崔东)

我要留言

进入讨论区 论坛

注册/登录
发言请遵守新闻跟帖服务协议   

同步:分享到人民微博  

社区登录
用户名: 立即注册
密  码: 找回密码
  
  • 最新评论
  • 热门评论
查看全部留言

24小时排行 | 新闻频道留言热帖