刚刚,奥特曼光速滑跪背刺Anthropic,OpenAI高调签下军方大单

欧美明星 1 0

机器之心编辑部

就在奥特曼公开支持 Anthropic、声称反对五角大楼施压后不到 12 小时,剧情发生了戏剧性逆转。

本周,奥特曼在致 OpenAI 员工的备忘录中表示:「我们一直认为,人工智能不应用于大规模监控或自主致命武器,在涉及高风险的自动化决策中,人类应该始终参与其中。这些是我们的主要底线。」

他还在 CNBC 节目中重申:「我个人认为五角大楼不应以《国防生产法》威胁这些公司。尽管我和 Anthropic 公司有很多分歧,但我总体上还是信任他们这家公司,而且我认为他们确实很重视安全。」

可刚刚,奥特曼在 X 上连发三条相同的帖子,宣布

OpenAI 已与美国五角大楼达成协议,将模型部署到他们的机密网络中

奥特曼:我们谈妥了「安全条款」

在帖子中,奥特曼是这么说的:

「在所有互动中,五角大楼都展现出对安全的深切尊重,以及与合作伙伴共同达成最佳结果的强烈意愿。

AI 安全和广泛惠益是我们使命的核心。我们最重要的两条安全原则是:禁止国内大规模监控,以及在包括自主武器系统在内的使用武力时,必须由人类承担责任。

五角大楼同意这些原则,并在法律和政策中有所体现,我们已将它们纳入本次协议。

我们还将构建技术防护措施,以确保模型按预期运行,这一点也得到了五角大楼的支持。为保障安全,我们将部署 FDEs 来辅助模型,且仅在云网络上进行部署。我们正在请求五角大楼向所有 AI 公司提供相同的条款,我们认为所有公司都应该愿意接受。

我们已明确表达强烈愿望,希望事态能从法律和政府行动中降级,转向通过合理协议解决。我们始终致力于尽最大努力服务全人类。这个世界复杂、混乱,有时还很危险。」

消息一出,网友炸了锅。

有人讽刺:所以 OpenAI 就这么在差不多 12 小时内,从「我们也有红线」快速转变成「我们的模型已经部署在物价大楼的机密网络上了」?…… 原则固然重要,但最终还是要等到合同敲定才行。话说回来,真到了 AI 辅助的战争迷雾中,谁来真正强制执行「人类对武力负责」这条?

也有网友质疑,要么是五角大楼对 OpenAI 和 Anthropic 采用了不同的标准,要么就是奥特曼在这条推文中故意误导大家。鉴于他过往的历史记录,我更倾向于后者。

还有网友追问,「如果这些条款本质上和 Anthropic 之前提出的差不多,那现在为什么就变得可以接受了呢?我真的很想搞清楚其中的区别到底在哪里。」

Anthropic 因「冒犯」领导层致谈判破裂

据《财富》杂志看到的会议纪要和一位与会消息人士透露,奥特曼在周五下午的全员大会上告诉员工,OpenAI 正与美国五角大楼就使用该公司的 AI 模型和工具达成潜在协议。 不过该合同当时尚未签署。

奥特曼表示,政府愿意让 OpenAI 构建自己的「安全堆栈」,即位于强大的 AI 模型和现实世界应用之间的技术、政策和人为控制的分层系统。如果模型拒绝执行某项任务,那么政府不会强迫 OpenAI 执行该任务。

OpenAI 将保留对技术保障措施实施方式、模型部署方式和部署地点的控制权,并将部署范围限制在云环境而非「边缘系统」(在军事领域,「边缘系统」可能包括飞机和无人机)。

作为一项重大让步,奥特曼告诉员工,政府表示愿意将 OpenAI 提出的「红线」纳入合同,例如不得使用人工智能驱动自主武器、进行国内大规模监控,以及不得替代人类参与关键决策。

据消息人士透露,OpenAI 国家安全政策负责人萨沙・贝克(Sasha Baker)和 OpenAI 政府部门国家安全负责人卡特里娜・穆里根(Katrina Mulligan)也在 OpenAI 全体员工大会上发表了讲话。

其中一位官员表示,Anthropic 与美国政府的关系破裂,是因为 Anthropic 联合创始人兼首席执行官达里奥・阿莫迪(Dario Amodei)冒犯了美国五角大楼领导层,包括发表了一些令五角大楼「不满」的博客文章。

同样的条款,两种结果

可见,此次事件最大的争议点在于:Anthropic 因为坚持「底线」拒绝与美国军方妥协,因而受到了惩罚,而 OpenAI 是否全盘接受了军方此前对 Anthropic 的强硬要求?

看起来并不是接受或不接受条款的问题。

我们此前看到的是,美军对 Anthropic 的态度极其强硬,要求其放弃一系列底线,允许其在「所有合法用途」下无条件、无限制地使用 AI。重点在于两点:严禁将其技术用于国内大规模监控,以及人类必须对武力使用负责。Anthropic 拒绝后,直接遭到了特朗普的全面封杀,并被国防部定性为「国家安全供应链风险」。

而在奥特曼高调宣布与五角大楼达成的协议中,

军方在面对 OpenAI 时看起来「双标」了,接受了 OpenAI 提出的上述两条安全底线

Altman 在声明中明确指出:「

五角大楼同意了这些原则(禁止国内监控和自主武器),将其反映在法律和政策中,并且我们把它们写进了我们的协议里。

在 OpenAI 宣布达成协议后,有人解读认为,为避免任何误解,OpenAI 与五角大楼的合同以「所有合法用途」为基石 —— 这正是五角大楼一直以来坚持的,也是 xAI 所同意的。但正如奥特曼所解释的,该合同引用了某些现有的法律依据,并包含了一些双方共同认可的安全机制。这再次表明,Anthropic 曾被提出过类似的妥协方案,但遭到了拒绝。

即使实质性问题相同,以下两种做法之间也存在巨大差异,OpenAI 同意通过援引特定法律和政策来记录具体的安全问题,而不是把审慎的约束留给科技公司的 CEO。

我们还不清楚 OpenAI 达成的协议与 Anthropic 的预期有何不同,但海格赛斯已经在 X 上转发了奥特曼的声明。

参考内容: