當前位置: 華文世界 > 科技

‘AI殺手機器人’如何威脅全球安全

2024-05-09科技

‘AI殺手機器人’如何威脅全球安全

智庫SIPRI和GlobalData的分析師解讀了軍隊使用AI所帶來的迫切需要監管的問題。

人工智慧在武器系統中的使用具有深遠的人道後果。圖片來源:metamorworks/Shutterstock。

據【陸軍技術】網介紹:在最近於奧地利維也納舉行的「處於十字路口的人性:自主武器系統與監管挑戰」會議上,再次強調了人工智慧(AI)自主武器的威脅以及國際合作以減輕「AI殺手機器人」潛在性的必要性。

允許AI控制武器系統可能意味著目標可以在沒有人類幹預的情況下被辨識、打擊和殺死。這引發了嚴重的法律和道德問題。

奧地利外交部長亞歷山大·沙倫貝格強調了形勢的嚴重性,他說:「這是我們這一代的歐本海默時刻。」

AI殺手機器人的當前使用情況

事實上,到何種程度「潘朵拉的盒子已經開啟」本身就是一個問題。無人機和AI已經被世界各地的軍隊廣泛使用。

GlobalData的國防分析師威爾森·瓊斯向【陸軍技術】雜誌表示:「現代沖突中無人機的使用,無論是俄羅斯和烏克蘭,還是美國在阿富汗和巴基史坦的針對性打擊行動,以及上個月才揭露的以色列薰衣草計劃的一部份,都表明AI處理資訊的能力已經被世界各國軍隊用來提高打擊能力。」

調查新聞局對美國無人機戰爭的調查揭露了美軍在巴基史坦、阿富汗、索馬利亞和葉門的空襲反復導致平民死亡。更近地,以色列國防軍的薰衣草AI系統已被用來辨識數萬個目標,平民因這些打擊而死亡。

+972報道的來源稱,在以色列國防軍對加薩的攻勢開始時,它允許15或20名平民死亡作為針對低階武裝分子的打擊的附帶損害,對於高級官員則允許100名。該系統被認為在辨識與哈馬斯有關聯的個人方面有90%的準確率,這意味著10%的人不是。此外,據報道,故意針對在家中的武裝分子,由於AI的辨識和決策,導致整個家庭一次性被殺死。

對全球安全構成威脅

以這種方式使用AI強調了在武器系統中對技術進行監管的必要性。

斯德哥爾摩國際和平研究所(SIPRI)的人工智慧治理計畫的高級研究員亞歷山大·布蘭查德博士,這是一個專註於全球安全的獨立智庫,向【陸軍技術】解釋說:「在武器系統中使用AI,特別是當用於目標定位時,引發了關於我們——人類——以及我們與戰爭的關系,特別是我們對在武裝沖突中如何行使暴力的假設的基本問題。」

「AI改變了軍隊選擇目標和對其施加力量的方式。這些變化反過來引發了一系列法律、道德和操作問題。最大的擔憂是人道主義問題。」

「許多人擔心,取決於自主系統的設計和使用方式,它們可能會使平民和其他受國際法保護的人面臨更大的傷害風險。這是因為AI系統,特別是當在復雜環境中使用時,可能會表現出不可預測的行為,並且可能無法準確辨識目標並攻擊平民,或者無法辨識已經結束戰鬥的戰鬥人員。」

瓊斯進一步指出,責任如何確定的問題可能會出現問題。

「根據現有的戰爭法,有指揮責任的概念,」他說。「這意味著一名軍官、將軍或其他領導者對其指揮下的部隊的行為負有法律責任。如果部隊犯下戰爭罪,即使軍官沒有下達命令,軍官也負有責任,證明他們已盡一切可能防止戰爭罪的舉證責任落在他們身上。」

「對於AI系統,這使一切都變得復雜。IT技術人員有責任嗎?系統設計師呢?目前還不清楚。如果不清楚,那麽如果行為者認為他們的行為不受現有法規的約束,那麽就會產生道德風險。」

歷史軍備控制公約

有幾項主要的國際協定限制和規範了某些武器的使用。化學武器的使用被禁止,核不擴散條約以及某些常規武器公約,禁止或限制使用被認為對戰鬥人員造成不必要或不合理痛苦或對平民不加區別地影響的特定型別的武器。

瓊斯解釋說:「核軍備控制需要幾十年的國際合作和條約才能得到執行。即便如此,我們繼續進行大氣層試驗,直到1990年代。」

「反擴散工作之所以成功的一個重要原因是,在兩極世界秩序中,美國和蘇聯的合作。這已經不存在了,而且制造AI的技術已經被比原子能更多的國家所獲取。」

「一項具有約束力的條約將不得不讓所有參與方坐下來,同意不使用提高他們軍事力量的工具。這不太可能奏效,因為AI可以在最小的財政和物質成本下提高軍事效能。」

當前的地緣政治立場

盡管聯合國的各州已經認識到軍隊負責任地使用AI的必要性,但仍然有很長的路要走。

GlobalData的首席分析師蘿拉·佩特羅內告訴【陸軍技術】:「在缺乏明確的監管框架的情況下,這些聲明在很大程度上仍然是理想主義的。一些國家希望在決定國內防禦和國家安全問題時保留自己的主權,特別是在當前的地緣政治緊張局勢下,這並不奇怪。」

佩特羅內補充說,盡管歐盟的AI法案為AI系統規定了一些要求,但它並沒有解決軍事用途的AI系統。

「我認為,盡管有這種排除,AI法案是建立一個早就應該建立的AI套用框架的重要嘗試,這可能導致未來相關標準的某種程度的一致性,」她評論道。「這種一致性對於軍事領域的AI也將至關重要。」