当前位置: 华文世界 > 科技

警惕!OpenAI放宽军事禁令,AI技术与美军深度融合潘多拉之盒开启

2024-02-09科技

作者:AI歌舞大魔王

正文:

在全球范围内引领人工智能(AI)潮流的OpenAI公司最近低调调整了其关于禁止AI技术用于军事领域的相关政策措辞,此举引发了公众对于美国科技巨擘与美军方潜在深度合作的广泛疑虑。这一变化揭示了美国国防及军事领域与生成式AI技术日趋紧密的融合趋势,而五角大楼为此专门设立了研究生成式AI在国防应用的专项机构。

据报道,OpenAI在其政策页面未作公开声明的情况下作出了重大改动。早先,OpenAI坚决禁止其大型语言模型应用于任何军事或战争相关场景,但在修订后的政策中,规定变为「OpenAI的产品不可用于对自己或他人造成伤害,包括通过武器研发带来的伤害」。尽管OpenAI发言人在回应中声称改动旨在使政策文件更清晰易懂,但对于「伤害」定义的模糊性是否涵盖所有军事用途则避而不谈。

与此同时,OpenAI已承认与五角大楼开展了软件项目的合作,其中包括与网络安全相关的项目,这让外界对其与美国国防部的关系产生了更多联想。

尽管OpenAI坚称不会直接开发武器,但新的政策框架可能允许其向五角大楼提供人工智能软件,用于协助分析人员解读数据或编写代码等工作。然而,正如俄乌冲突中所示,数据处理与战争行为之间的界限并不如OpenAI所设想的那样泾渭分明。例如,乌克兰运用大数据分析软件显著提升了炮兵部队的目标定位和打击效率。

值得关注的是,五角大楼已经建立了名为「利马」的生成式AI工作组,致力于在整个国防部内分析和整合生成式AI工具,尤其关注大语言模型的运用。该工作组在国防部首席数字和人工智能办公室的指导下运作,旨在评估、协调和推进生成式AI在各个军事领域的应用,力求在维护国家安全的同时保持技术上的领先地位。

美国军方对于AI大模型的具体军事应用仍保持着一定的神秘感,但已有迹象显示,生成式AI正逐步渗透到情报分析、作战规划等多个环节。例如,美国海军陆战队高级作战学院的一次演习中,一款名为「赫尔墨斯」的实验性大语言模型展示了其在军事规划中的巨大潜力。

值得注意的是,美国科技产业与五角大楼之间的联系正以前所未有的速度加强,不少科技公司的高层人士先后加入军方管理层。从Lyft的机器学习主管转任国防部首席数字和人工智能办公室负责人,到苹果公司高管执掌国防创新部门,再到谷歌前CEO转型成为五角大楼科技顾问,这种「旋转门」现象反映了硅谷与美国军方关系的微妙变化。

尽管过去曾有过谷歌员工因反对Project Maven项目而发起大规模抗议的历史,但现在越来越多的科技企业选择与五角大楼合作,包括谷歌本身在内,都在为美国军方提供基于AI的解决方案和技术支持。

对此,有分析认为,AI技术在军事领域的深化应用将极大地改变未来战争形态。一方面,AI可以帮助指挥官快速洞悉战场动态、制定精准策略;另一方面,借助大模型构建的智能系统有可能实现战场无人化,甚至导致不同阵营间出现技术代差,进一步加剧战争的残酷性和不对称性。

然而,AI军事化的道路上暗藏风险,尤其是在AI可能产生误导性信息乃至操控决策系统的背景下。中国信息协会常务理事朱克力指出,AI技术的误用或滥用可能导致无法预料的后果,如自动武器系统的失控行为,以及加剧国际间的军事竞赛和紧张态势。

综上所述,OpenAI政策调整背后的深层意义在于,随着AI技术愈发成熟,其与军事力量的结合正揭开一个充满不确定性的新篇章,这也促使全球范围内的决策者们必须审慎思考如何规范此类技术的发展,以防止「潘多拉盒子」中的隐患酿成无法挽回的后果。