從《終結者》到《黑客帝國》,好萊塢影片中的人工智能形象往往是冷酷無情的殺人機器,人類在其面前甚至連基本的自衛都無法做到。在現實中,越來越多的公司正投資開發人工智能,無人作戰平台也正在越來越多地參與到戰爭中,效能不斷提升。美國《華爾街日報》27日稱,如果這些技術相互結合,“終結者”出現的概率遠比想象的要高得多。為防止這種情景的出現,天體物理學家霍金、特斯拉公司CEO馬斯克、蘋果聯合創始人沃茲尼亞克等上百名科技及人工智能領域的領導者聯名發出公開信,號召禁止人工智能武器。
報道稱,未來生活研究所在阿根廷舉辦的人工智能國際聯合大會上公布了這封公開信,信中將人工智能武器稱為“繼火藥和核武器后在‘戰爭領域的第三次革命’”。聯名上書的科學家表示,人工智能武器的禁令必須盡快頒布,以避免軍備競賽,這比“控制人口數量的意義更深遠”。
公開信認為,人工智能武器可能的危害首先是“會降低走向戰爭的門檻”。例如無人機是目前在致命自主武器系統上的最高成果。雖然這類人工智能武器可以減少戰場上的人員傷亡,但掌握這種技術的國家不用考慮人員傷亡帶來的輿論和政治壓力,發動戰爭的顧忌更少。
其次,人工智能武器不像傳統的核武器那樣難以取得原料,建造它們的材料無處不在,因此未來可能廉價到所有的軍事強國都會大批量生產。“他們出現在黑市和恐怖分子手中只是時間問題”。“倘若任何軍事力量推進人工智能武器的研發,全球軍備競賽便不可避免,這項技術的結局顯而易見:人工智能武器將成為明天的卡拉什尼科夫自動步槍”。
這封公開信在全球人工智能領域引起廣泛爭議,中國科學家們也分持不同立場。中國人工智能領域專家、Horizon Robotics公司創始人兼CEO余凱認為,霍金等人聯署的這封公開信是非常有現實意義的提議,因為目前在戰場上部署自動識別、跟蹤、選擇並攻擊目標的技術已經成熟了,然而讓機器自行判斷、決策乃至殺人是非常危險的,也是有悖倫理的。人工智能技術一旦應用在軍事領域,確實很危險,目前就有軍事大國在研究遠程識別人臉並進行攻擊的智能武器,它能比人類狙擊手更精准地擊中對方士兵要害部位。
余凱認為,人工智能技術的進步就像核能等技術的發展一樣,既給人類帶來很大便利,同時帶來相應威脅,警惕人工智能技術軍用化可能帶來的風險,並不是說不去發展相關技術,而是要控制好這把雙刃劍,正視負面的因素並予以管控。
而另一名中國人工智能領域的核心專家表示,他收到過這封要求聯合署名的公開信,但最終沒有簽名。該專家表示,他支持禁止使用人工智能技術殺人的倡議,但他沒有聯合署名就是擔心,會給各國民眾造成“機器人已發展到將威脅人類安全”的印象。他認為,從現階段來看,這種觀點純屬忽悠,不利於人工智能和機器人的發展。此外還有一個令人不安的因素是,西方某些國家已經將機器人應用於戰爭之中,進行了非常多的研究和應用,並對他國構成非對稱的威脅。在這樣的現實基礎上,要全球“一刀切”都停止人工智能的軍用開發,是不合理的。他希望,將來的戰爭就是機器對機器的戰爭,而不是機器對人的戰爭。( 武彥、劉揚)