人民網
人民網>>軍事

軍事AI:能夠信它幾分?

2026年02月10日09:18 | 來源:中國國防報222
訂閱已訂閱已收藏收藏小字號

點擊播報本文,約

在“無人化”“智能化”深度融入作戰與軍隊建設的今天,歐美軍事強國正加快構建“全譜系AI軍事能力”。與此同時,“信息繭房”“AI造假”等問題討論不斷。在軍事領域,人類能否信任AI,賦予其充分的戰場分析和決策權?這些問題值得深思和探討。

“薰衣草事件”引發熱議

2023年10月巴以沖突爆發后,多家媒體曝光以色列國防軍大規模使用代號“薰衣草”的AI目標識別系統並賦予其極大的自主權和決定權。據披露,該系統在沖突初期將多達萬余名巴勒斯坦人標記為疑似武裝分子。其決策過程幾乎完全自動化,操作人員僅在空襲前進行“20秒的形式審查”。更令人難以置信的是,該系統被允許對低級別目標使用殺傷范圍較大的“啞彈”,造成大量平民傷亡。以軍內部人士承認該系統存在“10%的誤差率”,但在高強度作戰中被默許使用。

這一事件迅速引發廣泛熱議:在AI“眼中”,戰場上因識別和計算精度問題造成的誤傷和人道主義災難被等同於實驗室中的小小“誤差”,在達到作戰目的同時,“10%的誤差率”被默認可以接受。顯然,這些違背了國際人道主義法。聯合國秘書長古特雷斯強調:“任何影響生死的決策,都不應該交給冰冷的算法。”英國蘭卡斯特大學教授露西·蘇奇曼警告:“AI是由人創造和訓練的,人會犯錯誤,AI也會犯相同的錯誤,並且犯錯誤的速度更快、規模更大。”

軍事AI的風險隱患

“薰衣草事件”揭示了戰場上AI擁有自主權帶來的嚴重后果,更折射出AI軍事化應用帶來的深層風險。

其一,“數據偏見”問題。軍事AI的決策過程嚴重依賴訓練數據,而這些數據可能包含現實社會中的某些偏見,例如以性別、面部特征區分不同人群等。一旦這些數據用於訓練AI,算法就會將這種有偏見的關聯性信息視為可靠的判斷依據。如果這套系統被部署到其他地區,可能會錯誤地將具有類似特征的人群識別為目標,帶來嚴重后果。

其二,“黑箱操作”問題。AI的“黑箱”操作特性,使其決策過程難以追溯。一旦在作戰指揮等關鍵場景中出現決策偏差,可能引發誤判甚至不必要的沖突。

其三,監管滯后問題。在高強度作戰節奏下,AI憑借遠超人類的處理速度,會倒逼指揮操作流程加速,使人類監督難以跟上節奏,一旦算法導致武器系統失控,后果不堪設想。在深海、強電磁干擾環境中,若放任AI進入全自主作戰模式,“人在回路”的設計將淪為形式。

最后,戰略失衡問題。軍事AI的進攻優勢可能打破“進攻—防御平衡”,使AI一貫的“先發制人”被視為最佳策略,進而增加沖突風險。另外,AI與高超聲速武器、網絡戰等新型作戰力量相結合,可能打破現有戰略平衡。特別是AI驅動的致命性自主武器系統一旦擴散,其低門檻和易用性可能刺激新型軍備競賽,中小國家或非國家行為體也能獲得此前難以企及的精確打擊能力,將對全球戰略穩定構成新挑戰。

保証人類最終控制

當前,世界主要軍事國家紛紛從戰略高度布局軍事AI,從中可以看出不同國家對AI軍事化應用的風險管控思考:發揮人的作用,推動人與AI協同配合。

在戰略層面上,各國通過制定准則和劃分責任規范AI軍事化應用,核心原則是明確“AI是箭,人是弓”,AI用於增強、輔助而非替代人類判斷。北約發布《負責任使用AI指南》,強調在涉及致命性軍事行動時,必須保持人類對AI系統的最終控制權。美陸軍推出“新半人馬”模型,旨在將AI整合至指揮控制節點,由人類主導戰略目標與整體規劃,AI充當“決策助手”,提供相關的態勢分析和情景推演。這些設計從制度上劃定人機邊界,將重大決策權牢牢掌握在人類手中。

在技術層面上,通過具體的“人在回路”模式將“人類監督”深度嵌入作戰流程。在情報偵察環節,採取“人在環外”模式,由作戰人員提出需求,AI完成任務﹔在指揮決策環節,採用“人在環內”模式,人類指揮官嵌進AI作戰流程中,AI提供數據分析與方案模擬后,由人類指揮官作出決策並交回AI執行﹔在戰斗環節,“人在環上”模式允許一線作戰人員對AI武器實時控制,確保能及時干預異常行動。美軍的無人僚機項目開發“有人/無人混編戰術接口”,目的是增強在復雜環境下的態勢感知和人機交互能力,降低在通信不暢的情況下AI的誤判風險。

真正的挑戰在於確保人機協同的“認知一致性”。當前的人機系統普遍存在“認知斷層”,人類的直覺經驗與機器的算法推演可能對同一態勢產生不同解讀。為此,需要在技術上進行針對性設計,如構建龐大的軍事知識圖譜,使AI能夠理解人類的戰術意圖。法國陸軍的“泰坦”人機協同作戰計劃,設計了一套基於任務階段和壓力水平的自適應控制權分配機制。例如,在部隊開進途中對廣闊區域進行偵察時,無人機被授予較高自主權﹔一旦發現可疑目標,系統將自動提升決策層級,將更詳細的信息推送至人類操作員進行最終判定。

值得注意的是,AI軍事化應用風險並非僅靠以上措施就可以完全規避。AI系統的決策邏輯難以被人類指揮官在短時間內完全理解,關鍵時刻仍可能出現“脫節”問題。因此,各國仍需探索和優化人機協同實踐,在追求AI帶來的決策優勢同時,化解其潛在風險。(王奕陽 王政)

(責編:唐宋、任一林)

分享讓更多人看到

推薦閱讀
返回頂部