人民網
人民網>>軍事

歐盟批准全球首部《人工智能法案》

2024年06月04日09:06 | 來源:中國國防報
小字號

5月21日,歐盟理事會正式批准歐盟《人工智能法案》,標志著全球首部用於人工智能領域監管的法案即將落地生效。該法案不僅適用於所有位於歐盟境內的人工智能使用者,還包括位於歐盟以外的人工智能系統軟硬件設備的供應商等,具有廣泛的域外適用效力,對歐盟和其地區將產生重要影響。

推動開發可信賴人工智能

歐盟《人工智能法案》於2021年4月由歐盟委員會內部成員遞交提案,2023年6月以來,歐盟內部經過多輪會談達成臨時協議。2024年3月13日,歐洲議會以523票贊成、46票反對和49票棄權的結果,表決通過該法案。5月21日,歐盟理事會正式批准該法案。該法案將在歐盟官方公報公布20天后生效,2年后全面實施。

歐盟《人工智能法案》的立法目的,在於保障歐盟公民的基本權利,激勵歐洲人工智能的投資與創新,推動開發使用安全且值得信賴的人工智能。當前,在以ChatGPT為代表的人工智能技術迅猛發展和廣泛應用的背景下,監管人工智能的必要性日益凸顯。人工智能技術創作過程具有不可解釋性,輸出結果存在極大不確定性和不穩定性,也很難對系統安全性作出有效評估。未經監管的人工智能系統可能帶來濫用風險,以及個人隱私泄露、算法歧視等問題。因此,歐盟出於自身發展、安全及爭奪國際治理話語權等多重需要,率先制定出台人工智能法案,為全球人工智能行業監管治理提供了樣本。

歐盟《人工智能法案》的創新之處在於提出了人工智能風險等級分類方法。該法案基於人工智能系統對用戶和社會的潛在影響程度,將風險分為不可接受風險類、高風險類、有限風險類和最小風險類,風險等級越高,相應管控越嚴格。其中,不可接受風險類主要包括任何試圖操縱人類行為、利用人性弱點或支持政府社會評分的人工智能系統,例如為唆使犯罪而操縱人的潛意識等,這些人工智能系統將被嚴格禁止開發和使用。高風險類主要是被認為對健康、安全、基本權利和法治構成重大威脅的人工智能系統,它們必須遵守更嚴格的要求。有限風險類主要是不會構成任何嚴重威脅的人工智能系統,與其相關的風險主要是缺乏透明度,需要根據法案要求履行相應公開義務。最小風險類主要包括人工智能電子游戲或垃圾郵件過濾器等應用,法案允許自由使用最小風險類的人工智能系統。

另外,該法案還規定了通用人工智能模型投放市場的統一規則,以及關於市場監測、市場監督治理和執法規則,提出對於包括初創企業在內的中小企業的支持創新措施。

規范使用面臨爭議

總體來看,歐盟《人工智能法案》通過規范和監管人工智能系統的使用,意在減少濫用和其他潛在風險,確保人工智能技術發展符合社會整體利益。該法案在規范人工智能監管的同時,鼓勵相關技術的創新與發展,對於保持歐洲在人工智能領域的競爭力至關重要。該法案同樣注重個人數據隱私和權利的保護,通過對數據收集、處理和使用的規范,確保人工智能系統不會侵犯公民個人權利,保護個人隱私。

歐盟《人工智能法案》也面臨著一些爭議,該法案假定可以識別出具有不可接受或高風險水平的人工智能系統類別,風險類別由歐盟委員會直接定義,並在法律中予以明確。人工智能系統由於具有無固定任務性、適應性、敏捷性等特點,其危害驅動因素可能是純技術性的,也可能是社會性的,還可能是人機交互造成的。該法案缺乏可供審查的風險分類標准,執行中可能會陷入過度監管或過度包容的困境。如何在確保監管有效性的同時,避免對創新和發展造成不利影響,是值得深入思考的問題。(張清亮)

(責編:陳羽、劉圓圓)

分享讓更多人看到

返回頂部