OpenAI 修改使用政策,不再禁止其服务用于军事用途
1 月 10 日,ChatGPT 的创建者 OpenAI更新了其使用政策,不再完全禁止将其模型用于军事和战争目的。虽然更新后的政策没有明确禁止军事用途,但它仍然规定用户不得使用其服务伤害自己或他人。该公司特别列出的危害之一是开发或使用武器。
自政策更新以来,OpenAI 一直表示人工智能的国家安全用途与其使命一致。据 TechCrunch 报道,该公司表示:“例如,我们已经在与 DARPA [美国国防高级研究计划局] 合作,推动创建新的网络安全工具,以保护关键基础设施和行业所依赖的开源软件。目前尚不清楚这些有益的用例在我们之前的政策中是否被允许归为‘军事’用途。因此,我们更新政策的目标是提供清晰度和进行这些讨论的能力。”早在2023 年 8 月,DARPA就宣布将与 OpenAI Anthropic、谷歌和微软合作创建网络安全系统。
为什么重要:
尽管 OpenAI 解释了其与 DARPA 合作开发网络安全工具的新政策,但这一变化表明该公司可能正在软化其对人工智能 (AI) 军事用途的立场。美国军方使用人工智能已有一段时间了。据美联社报道,美国军方在俄乌战争中驾驶了搭载人工智能的小型侦察无人机。它还一直在使用人工智能来跟踪士兵的健康状况,跟踪太空中的对手,并查明空军飞机何时需要维护。看看 OpenAI 和其他人工智能公司是否会与美国军方和其他司法管辖区的军队合作实现其他此类目的,这将是一件有趣的事情。
ChatGPT中文网页版
有趣的是,这项更新的使用政策引起了印度信息技术部长拉吉夫·钱德拉塞卡的注意,他表示,这是“确认人工智能可以而且将会用于军事目的”。他补充说,这证实了印度通过安全、信任和问责的棱镜来监管人工智能的立场。
Nikhil 的看法:
OpenAI 悄悄改变了其条款,允许其与军方和战争合作。这是一个令人担忧的发展,尤其是因为 OpenAI 已经从世界各地收集了大量公开数据。虽然它表示其技术不应被用于伤害,但这并不意味着它们不能用于帮助军事和战争的目的。
那么,人工智能在军事和战争中的应用对印度有何影响?我不想在这里危言耸听,但如果这是意图的表现,那么我想说:
1. 没有数据保护:印度的数据保护法对公开的个人数据有豁免。它可用于监视、培训和战略规划,同时可以对某些人进行微目标定位。我们在数据保护法上犯了这个错误。2
. 生成式人工智能可用于分析大型数据集,以检测和识别网络攻击的漏洞和策略
3. 可识别安全人员的数据特别容易受到影响。例如,巡逻中的安全人员的位置数据。还记得Strava 数据泄露吗?它可用于模拟演习和任务规划。Strava 拥有冲突地区的巡逻数据,因为士兵正在使用它。4
. 可用于开发和训练自主侦察系统
5. 面部数据可用于目标识别
那么印度能做什么呢?
1. 修改或发布规则,限制将公开的个人数据用于人工智能或军事和战争目的。2
. 阻止军事和国防人员使用外国人工智能工具
3. 投入更多资源开发印度人工智能(我们已经做得很好了)
4. 确定 OpenAI 收集了印度公民的哪些数据。对他们的数据集进行技术审查,并可以选择强制他们删除可能危及印度人民的数据集。
我们的开放性不能成为我们的弱点。再说一次,我在这里写的东西是想引起我们的思考。我们不清楚 openAI 的意图,我们真的不应该盲目相信。他们有责任向用户和使用它的国家保证,我们的政府有责任寻求信息以确保我们受到保护。