
人工智慧(AI)武器已從科幻概念走入現實戰場,各國代表5月13日在紐約聯合國開會商討對策,重啟監管這類武器的行動,試圖規範日益強大並已在多場衝突中應用的AI武器系統。專家警告,若不加以有效控制,AI恐引發新型軍備競賽及嚴重的問責問題。
聯合國討論監管AI武器
自主武器系統和AI輔助武器系統已在烏克蘭戰爭、加薩戰爭發揮越來越重要的作用。全球多國逐漸增加國防支出,也勢必會進一步促進這些正在快速發展的AI軍事技術。
AI武器的核心在於無須人類直接干預即可自主攻擊目標。這引發了兩大核心憂慮:「軍備競賽」與「問責真空」。
首先,軍備競賽風險加劇。AI被視為是繼火藥、核武後的第三次軍事革命。主要軍事大國在AI武器領域的突破將迫使他國加速研發,形成基於「安全困境」的惡性競爭。這不僅推高全球軍費,也可能因為AI武器降低己方傷亡的特性,誘使決策者更輕易的發動衝突。
其次,問責困境難解。若AI武器誤傷平民或攻擊受保護的目標,其責任歸屬將極其複雜,究竟是起因於程式設計師、指揮官、製造商,或是AI本身?
然而,要建立這類技術發展和運用的全球規範,其進展卻跟不上AI發展的腳步,具有國際約束力的標準,實際上也仍未訂出。
自2014年以來,聯合國《特定常規武器公約》(Convention on Certain Conventional Weapons,簡稱CCW)參與國在瑞士日內瓦開會,討論是否要禁止不需人類實質控制即可完全自主運作的武器系統,並監管其他的自主武器。
聯合國祕書長古特瑞斯(Antonio Guterres)定下2026年的期限,要求各國針對AI武器運用制定明確規範。
國際特赦組織(Amnesty International)表示,許多國家支持具有約束力的全球框架,但美國、俄羅斯、中國和印度偏好採用國家層級的指導方針或現有國際法來規範自主武器。
▲AI正在提升戰爭中的決策速度、攻擊精度,並推動無人化、智慧化作戰趨勢。微博擷圖
AI軍備競賽白熱化
在烏克蘭戰場,俄烏雙方廣泛使用具AI輔助功能的無人機進行偵察、監視及精確打擊。部分系統能自主識別及追蹤目標,甚至在通信受干擾時也能執行攻擊任務。AI在處理戰場數據、優化攻擊路線及無人機「蜂群」協同作戰方面展現了潛力。
在加薩衝突中,據稱以色列使用AI系統輔助識別軍事目標及武裝分子。儘管以方強調最終決策是人類,但AI在目標篩選和建議中的作用,以及對決策速度和規模的影響,已引發對「有意義人類控制」的質疑。AI能快速處理海量情報、推薦打擊目標,改變了傳統的作戰節奏。
此外,自殺式無人機在多地衝突中頻繁出現,其搭載的AI能力不斷增強,自主化程度日益提高。
這些實例表明,AI正在提升戰爭中的決策速度、潛在攻擊精度,並推動無人化、智慧化作戰趨勢,同時也帶來倫理、法律的嚴峻挑戰。
國際監管AI武器發展的進度緩慢。《特定常規武器公約》(CCW)下的致命性自主武器系統政府專家組(GGE on LAWS)是主要討論平台,但未達成具法律約束力的條約,主要原因如下:
1. 定義分歧:對於「致命性自主武器系統」及「有意義的人類控制」缺乏統一、可操作的定義。
2. 驗證困難:AI技術的軍民兩用性及算法「黑箱」問題,使透明度和監督機制難以建立。
3. 技術迭代迅速:立法談判速度遠遠跟不上技術的發展。
聯合國的討論關係到人類未來的戰爭型態、倫理邊界和全球安全。AI武器的潛力與風險並存,若缺乏有效的全球治理框架,後果難料。
奧地利外交部武器管制部門負責人克蒙特(Alexander Kmentt)說:「真的快沒時間了,必須盡快設置防範措施,避免一些最知名專家所示警的惡夢情境成真。」