人工智能武器之辩:新宠还是禁忌?
近年来,人工智能成为美军推崇的前沿军事技术之一,人工智能武器的研发和运用随之成为一种潮流。然而,对于这一新宠,美国不少学者表现出担忧,并就人工智能武器的作战运用展开辩论和展望。
美国学者指出,自2014年提出第三次“抵消战略”以来,美军一直将人工智能武器视为优先发展方向。当前,研发工作已初具雏形,一个典型代表是陆军先进目标定位与杀伤性自主系统,即外界熟知的“阿特拉斯”杀人机器人。虽然名字吓人,但其主要作用是协助人类发现目标、筛选优先打击目标和做好射击前准备等,“最后一步”扣动扳机仍由人类发出指令。此外,美军还希望将人从坦克、装甲车、战斗机和战舰中解放出来,让人工智能武器成为应对未来冲突的主要执行者。
对于人工智能武器的作战运用,美国国内存在较大分歧。
首先是自主程度之辩。部分学者认为,要进一步提升人工智能武器的自主程度,令其在紧急情况下自主遂行目标打击等任务。另一部分人认为,赋予人工智能武器过多自主性,可能会造成误击、误伤事件,而且,这些装备在复杂环境下未必能做出最佳选择。
其次是作战效果之辩。有观点认为,人工智能武器可有效降低己方人员伤亡,最大程度增加敌方损失。也有学者以微型无人机和杀人机器人为例称,上述装备降低了获取难度和使用门槛,敌方武装人员可借此实施非对称打击。
再次是作用发挥之辩。美军“鹰派”人士认为,人工智能武器的主要作用是“取代人类”,对敌方实施更大规模的打击,但更多人认为,其主要作用应立足于协助人类,遂行后勤保障和维修保养等非作战任务。
最后是思维伦理之辩。美国军事记者西德尼等人认为,人工智能杀伤武器无法做出“创造性抉择”,对于伦理道德问题的把握与人类有较大差距。也有观点认为,随着科技水平的提升,人工智能武器的“理性优势”将进一步凸显。
针对人工智能杀伤武器的使用,美国国防部2012年曾颁布《国防部第3000.09号指令》。不过迄今为止,尚未有任何武器系统被纳入该指令的应用范畴。
对于人工智能武器的未来,一些学者认为,“人机回圈”的研发和运用模式将得以延续,未来人类仍将是人工智能武器的研发者和主宰者,需秉持“严肃认真”的态度推动其发展。在发展过程中,人工智能武器必须走“窄路”,将其使用范围严格控制在防御和反击内,如击落来袭导弹、快速计算子弹落点、在狙击手二次击发前将其击毙等。也有一些学者和军方人士提出,人工智能武器未必能给美军带来军力优势和战略威慑,稍有不慎,还可能演变成大国间的军备竞赛。当前,中国等26个国家已承诺不研发杀人机器人,美国及其盟友尚未作出上述承诺。(胡小刀)
分享让更多人看到
相关新闻
- 评论
- 关注