当前位置: 华文世界 > 科技

‘AI杀手机器人’如何威胁全球安全

2024-05-09科技

‘AI杀手机器人’如何威胁全球安全

智库SIPRI和GlobalData的分析师解读了军队使用AI所带来的迫切需要监管的问题。

人工智能在武器系统中的使用具有深远的人道后果。图片来源:metamorworks/Shutterstock。

据【陆军技术】网介绍:在最近于奥地利维也纳举行的「处于十字路口的人性:自主武器系统与监管挑战」会议上,再次强调了人工智能(AI)自主武器的威胁以及国际合作以减轻「AI杀手机器人」潜在性的必要性。

允许AI控制武器系统可能意味着目标可以在没有人类干预的情况下被识别、打击和杀死。这引发了严重的法律和道德问题。

奥地利外交部长亚历山大·沙伦贝格强调了形势的严重性,他说:「这是我们这一代的奥本海默时刻。」

AI杀手机器人的当前使用情况

事实上,到何种程度「潘多拉的盒子已经打开」本身就是一个问题。无人机和AI已经被世界各地的军队广泛使用。

GlobalData的国防分析师威尔逊·琼斯向【陆军技术】杂志表示:「现代冲突中无人机的使用,无论是俄罗斯和乌克兰,还是美国在阿富汗和巴基斯坦的针对性打击行动,以及上个月才揭露的以色列薰衣草计划的一部分,都表明AI处理信息的能力已经被世界各国军队用来提高打击能力。」

调查新闻局对美国无人机战争的调查揭露了美军在巴基斯坦、阿富汗、索马里和也门的空袭反复导致平民死亡。更近地,以色列国防军的薰衣草AI系统已被用来识别数万个目标,平民因这些打击而死亡。

+972报道的来源称,在以色列国防军对加沙的攻势开始时,它允许15或20名平民死亡作为针对低级武装分子的打击的附带损害,对于高级官员则允许100名。该系统被认为在识别与哈马斯有关联的个人方面有90%的准确率,这意味着10%的人不是。此外,据报道,故意针对在家中的武装分子,由于AI的识别和决策,导致整个家庭一次性被杀死。

对全球安全构成威胁

以这种方式使用AI强调了在武器系统中对技术进行监管的必要性。

斯德哥尔摩国际和平研究所(SIPRI)的人工智能治理项目的高级研究员亚历山大·布兰查德博士,这是一个专注于全球安全的独立智库,向【陆军技术】解释说:「在武器系统中使用AI,特别是当用于目标定位时,引发了关于我们——人类——以及我们与战争的关系,特别是我们对在武装冲突中如何行使暴力的假设的基本问题。」

「AI改变了军队选择目标和对其施加力量的方式。这些变化反过来引发了一系列法律、道德和操作问题。最大的担忧是人道主义问题。」

「许多人担心,取决于自主系统的设计和使用方式,它们可能会使平民和其他受国际法保护的人面临更大的伤害风险。这是因为AI系统,特别是当在复杂环境中使用时,可能会表现出不可预测的行为,并且可能无法准确识别目标并攻击平民,或者无法识别已经退出战斗的战斗人员。」

琼斯进一步指出,责任如何确定的问题可能会出现问题。

「根据现有的战争法,有指挥责任的概念,」他说。「这意味着一名军官、将军或其他领导者对其指挥下的部队的行为负有法律责任。如果部队犯下战争罪,即使军官没有下达命令,军官也负有责任,证明他们已尽一切可能防止战争罪的举证责任落在他们身上。」

「对于AI系统,这使一切都变得复杂。IT技术人员有责任吗?系统设计师呢?目前还不清楚。如果不清楚,那么如果行为者认为他们的行为不受现有法规的约束,那么就会产生道德风险。」

历史军备控制公约

有几项主要的国际协议限制和规范了某些武器的使用。化学武器的使用被禁止,核不扩散条约以及某些常规武器公约,禁止或限制使用被认为对战斗人员造成不必要或不合理痛苦或对平民不加区别地影响的特定类型的武器。

琼斯解释说:「核军备控制需要几十年的国际合作和条约才能得到执行。即便如此,我们继续进行大气层试验,直到1990年代。」

「反扩散工作之所以成功的一个重要原因是,在两极世界秩序中,美国和苏联的合作。这已经不存在了,而且制造AI的技术已经被比原子能更多的国家所获取。」

「一项具有约束力的条约将不得不让所有参与方坐下来,同意不使用提高他们军事力量的工具。这不太可能奏效,因为AI可以在最小的财政和物质成本下提高军事效能。」

当前的地缘政治立场

尽管联合国的各州已经认识到军队负责任地使用AI的必要性,但仍然有很长的路要走。

GlobalData的首席分析师劳拉·佩特罗内告诉【陆军技术】:「在缺乏明确的监管框架的情况下,这些声明在很大程度上仍然是理想主义的。一些国家希望在决定国内防御和国家安全问题时保留自己的主权,特别是在当前的地缘政治紧张局势下,这并不奇怪。」

佩特罗内补充说,尽管欧盟的AI法案为AI系统规定了一些要求,但它并没有解决军事用途的AI系统。

「我认为,尽管有这种排除,AI法案是建立一个早就应该建立的AI应用框架的重要尝试,这可能导致未来相关标准的某种程度的一致性,」她评论道。「这种一致性对于军事领域的AI也将至关重要。」