美国军方试验 OpenAI 和其他公司的生成式 AI 工具
美国军方正在通过试验 OpenAI 的生成式 AI 工具来测试其战场效能。据《印度快报》报道, 美国陆军作战能力发展司令部陆军研究实验室 (DEVCOM ARL) 在军事战争模拟视频中试验了 OpenAI 的 GPT-4 Turbo 和 GPT-4 Vision 模型。
借助生成式 AI 工具,美国陆军创建了一个模拟战场地形,其中包含敌军和友军的详细信息。AI 聊天机器人的主要目标是消灭所有敌军并占领战场上的特定点。AI 聊天机器人用户获得了多种行动方案,并根据要求进一步完善。AI 生成的模拟视频展示了如何利用 OpenAI 模型进行战斗测试,因为它可以完善战场上的行动方案和输出。然而,与其他生成式 AI 工具相比,OpenAI 模型造成的伤亡更多。
多年来,美国军方一直在通过引入人工智能来增强其作战能力。2017 年,五角大楼启动了 Maven 项目,旨在将人工智能引入战场,主要用于从卫星图像中识别目标。据 美联社报道, 美国陆军于去年 11 月开始在特种作战中使用人工智能,计划到 2026 年打造一支可消耗、完全自主的人工智能车辆车队。
今年 1 月,OpenAI 悄然改变了政策,这也为 OpenAI 在美国军事用途使用生成式人工智能工具扫清了最后一道障碍。这家初创公司一直在与美国国防部合作开发网络安全工具。随后,3 月 6 日,美国与一家名为 Palantir Technologies 的公司签订了一份价值 1.78 亿美元的合同,以开发和提供一项人工智能技术,实现“远程精确射击的目标信息”。
这为什么重要?
这一发展代表着全球范围内人工智能在军事用途上的应用转变,正如在加沙和乌克兰所见,以色列军队和乌克兰军队分别使用人工智能对抗哈马斯恐怖组织和入侵的俄罗斯军队。在印度,军队也感受到了人工智能在军队中的应用需求,这促使印度国防部于 2019 年成立了国防人工智能委员会 (DAIC),以推动印度军队采用人工智能。
然而,将人工智能用于军事用途的范式转变令人担忧,因为印度数据保护法不包括公开的个人数据,这些数据可用于训练人工智能生成工具来针对人群。此外,如果印度军方将人工智能用于战斗,自主侦察系统和安全人员的个人数据可能会受到损害。使用人工智能来增强警察和军队等现有暴力机构的能力是另一个令人担忧的领域。