OpenAI 为美国国防部协议辩护:设置三条红线,比 Anthropic 的更安全

2026-03-01 发布 · 浏览12次 · 点赞0次 · 收藏0次
感谢网友 Nuc_F 的线索投递!

3 月 1 日消息,据路透社报道,OpenAI 于当地时间周六表示,其前一日与美国国防部达成的、在该部门机密网络上部署技术的协议,包含额外保障措施以规范技术的使用场景。

美国总统唐纳德 · 特朗普于当地时间周五下令政*停止与 Anthropic 合作,五角大楼则宣布将这家初创公司列为供应链风险。在双方就技术安全防护措施摊牌后,此举对该人工智能实验室构成重大打击。Anthropic 表示,将在法庭上对任何风险认定提出异议。

随后不久,其竞争对手 OpenAI 于当地时间周五晚些时候宣布达成自己的协议。OpenAI 周六称:“我们认为,我们的协议比以往任何机密人工智能部署协议,包括 Anthropic 的协议,都具备更多安全防护措施。”

这家人工智能公司表示,其与国防部(特朗普政*已将其更名为战争部)签订的合同明确了三条红线:OpenAI 技术不得用于大规模国内监控、不得用于指挥自主武器系统,也不得用于任何高风险自动化决策

OpenAI 称:“在我们的协议中,我们通过更全面、多层次的方式守护这些红线。我们对自身安全体系拥有完全自主决定权,通过云端部署技术,由获得安全许可的 OpenAI 人员全程参与监督,并且我们拥有强有力的合同保障。”

过去一年,五角大楼与 Anthropic、OpenAI、谷歌等主要人工智能实验室分别签署了价值最高达 2 亿美元(注:现汇率约合 13.74 亿元人民币)的协议。五角大楼力求在国防领域保留全部灵活性,不愿受技术开发者关于不可用不可靠人工智能驱动武器的警告所限。

OpenAI 警告称,若美国政*违反合同,可能触发协议终止条款,但同时补充道:“我们预计这种情况不会发生。”该公司还表示,不应将竞争对手 Anthropic 列为“供应链风险”,并指出:“我们已向政*明确表明这一立场。”

OpenAI 为美国国防部协议辩护:设置三条红线,比 Anthropic 的更安全 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。