加载中... --°C -- · --% · --
|
加载中... --°C -- · --% · --

Anthropic泄露背后:AI安全承诺的破产与重构

Anthropic泄露背后:AI安全承诺的破产与重构
摘要

Anthropic近期因CMS配置失误导致3000份内部文件泄露,引发对AI安全承诺的广泛质疑。此前,该公司刚修改其《负责任扩展政策》,删除了“风险不可控则暂停训练”的硬性条款,转向定期透明披露,反映出在激烈行业竞争下安全承诺的软化。同时,公司面临美国国防部要求解除军事用途限制的压力,虽通过法律途径暂时守住“拒绝全自主武器”的底线,但博弈仍在继续。此次事件揭

(本文作者为 舒书,钛媒体经授权发布)

文 | 舒书

过去三天,Anthropic新模型泄露的消息在科技圈持续发酵。

3000份内部文件,因为一个CMS配置失误,暴露在互联网上。网络安全股集体暴跌,安全研究圈高度关注。

但比泄露本身更值得追问的,是另一件事:就在事发前一个月,Anthropic刚刚修改了自己的《负责任扩展政策》(RSP 3.0)。那个曾让行业瞩目的“若风险不可控,就暂停训练”的硬条款,被删除了。

这不是一次简单的技术调整,它折射出AI行业正在经历的深层困境。

一、从硬刹车到软着陆:RSP 3.0的变化

2023年,当Anthropic推出RSP时,整个行业为之侧目。这是第一次,有AI公司公开承诺:如果模型太危险,我们就不做了。

当时的逻辑很清晰:设定危险阈值(比如可能助长生物武器研发),一旦触及,立刻暂停训练,直到安全措施到位。这是一条硬性约束,意味着安全优先级高于商业进度、融资节奏,甚至IPO窗口。

2026年2月,RSP 3.0发布。那条硬性约束消失了。

取而代之的是“前沿安全路线图、风险报告、外部审查”——每3到6个月发布一次报告,由内部专家起草,独立评审,提交董事会。官方解释是:“技术边界模糊,无法预设红线,所以转向透明披露。”

翻译过来就是:从做不到就不许动变成了边做边说。从硬刹车变成了软着陆。

首席科学家Jared Kaplan在接受采访时,直接道出了背后的逻辑:

“如果竞争对手飞速前进,我们单方面承诺暂停训练没有意义。”

这不是技术判断,是生存判断。对于一家估值3800亿美元、正被OpenAI、Google、xAI围剿的公司,继续自我设限在商业上意味着掉队。从硬刹车到透明监控,中间差的不是技术认知,是囚徒困境下的生存本能。

生存本能

二、军事博弈:当安全红线遭遇国家意志

如果说RSP 3.0的调整是主动妥协,那么军事领域的博弈,则是一场真正的底线考验。

Anthropic曾公开承诺:“拒绝参与全自主武器和国内大规模监控。”

2026年2月24日,美国国防部长皮特·赫格塞斯当面向Anthropic CEO达里奥·阿莫迪下达了最后通牒:解除Claude模型的所有军事用途限制(包括进攻性网络行动),否则将面临惩罚。截止时间是2月27日。

后果是什么?要么五角大楼动用《国防生产法》强制接管模型,要么将Anthropic列为供应链风险企业——这个标签通常用于敌对国家的公司,一旦贴上,Anthropic将失去所有国防承包商的商业联系。

2月27日,最后期限到来。阿莫迪未能及时与五角大楼敲定最终条款。截止时间刚过14分钟,赫格塞斯宣布谈判破裂,将Anthropic正式列为供应链风险。特朗普随后下令联邦机构停止使用Anthropic技术。

但故事没有在这里结束。

3月9日,Anthropic正式向加州联邦法院提起诉讼,指控美国政府的系列行动前所未有且不合法。3月26日,加州北区联邦地区法院法官Rita Lin批准了Anthropic的初步禁制令申请,叫停了国防部的封杀令。法庭文件显示,Anthropic提供了关键技术证据:其模型在部署于军方封闭环境后,公司本身无法远程控制——这一证据戳穿了五角大楼的安全风险指控。

Anthropic守住了这条底线,至少在这一回合。

但问题依然存在:底线能守多久?法院的裁定只是初步禁制令,不是终局。五角大楼可以换一种方式再来。而Anthropic的客户名单里,依然有国防部的名字——那些作战规划和情报分析的合作,依然在继续。

三、内部管理的灯下黑

一个CMS配置失误,3000份文件裸奔。

这不是黑客攻击,不是系统漏洞,是最基础的权限设置问题——和AWS S3存储桶忘记关权限一样低级。

剑桥大学研究员验证了泄露材料的真实性:员工育儿假记录、CEO闭门峰会细节、甚至内部安全评估报告,全部暴露在互联网上。

泄露文件中有一句值得注意的话:“Mythos预示着即将到来的一波模型浪潮,届时模型将以远超防御者努力的速度来利用漏洞。”措辞之重,不像市场部写的,更像一份内部预警。

一家正在打造史上最强网络安全AI的公司,被最基础的权限配置失误暴露了内部文件。这种灯下黑的现象在科技史上并不罕见:苹果与FBI之争、微软补丁漏洞、Google内部数据泄露——每一家科技巨头都犯过类似的错误。

但Anthropic的不同在于:它的核心价值就是安全。当一家以安全第一立身的公司,连自己的内部文件都保护不好,这本身就是一个值得追问的问题。

四、AI安全的囚徒困境

RSP 3.0的变化、国防部的最后通牒、CMS的低级失误——这三件事拼在一起,勾勒出一个更深的困境:

AI行业正在经历一场安全叙事的重构。

监管真空:政府没有建立统一的红线,导致企业不敢单方面踩刹车。

竞争压力:如果OpenAI和Google都在加速,任何一家公司的道德洁癖都可能变成竞争劣势。

叙事演化:安全正在从一种工程约束,变成一种公关语言。RSP 3.0的透明披露,本质上是在告诉资本市场:我们还在意安全,但请不要让我们真的停下。

首席科学家Jared Kaplan的那句话,值得被反复讨论:

“如果竞争对手飞速前进,我们单方面承诺暂停训练没有意义。”

翻译过来就是:除非所有人一起踩刹车,否则谁先停,谁先死。这就是AI安全的最大悖论。在监管真空、竞争白热化的今天,没有一家公司敢做唯一的好人。

每个修改都有合理的解释。技术边界确实在模糊,监管环境确实在变化,商业竞争确实在加速。但问题是:当安全承诺可以被修改,它还是承诺吗?当人类在回路中成为免责声明,安全还有意义吗?

囚徒困境

五、对中国AI公司的启示

Anthropic的困境,不是硅谷的孤例。中国AI公司同样面临“安全vs商业”的悖论。

不同的是,中国的监管环境更明确。网信办等部门的AI管理规定,为企业划定了相对清晰的红线。但红线清晰不代表没有压力。当字节跳动、阿里、百度等巨头加速迭代,创业公司同样面临“别人都在跑,我不能站着”的囚徒困境。

从Anthropic的教训中,中国AI公司可以带走三点:

第一,安全承诺需要可执行,不只是可传播。 RSP 3.0的调整说明,安全一旦变成公关语言,就会失去可信度。承诺的价值不在于说得多漂亮,而在于能不能兑现。

第二,组织流程是安全的最后一道防线。 CMS失误不是技术问题,是流程问题。再强的模型能力,也弥补不了最基础的权限管理漏洞。当公司全力追求模型能力的指数级增长时,基础架构的稳健性往往被忽视。

第三,底线需要提前划定,而不是临场博弈。 Anthropic守住了拒绝全自主武器,但作战规划的合作依然存在。这条线划得清楚吗?如果提前划定,就不会被逼到墙角。对于中国AI公司来说,在监管框架内明确自己的安全底线,比在压力面前临时决策更主动。

结语

Anthropic的泄露事件,最终会被修复。CMS权限会被重新设置,泄露的文件会从互联网上消失,RSP 3.0会继续执行。

但那个问题会一直存在:当一家以安全第一立身的公司,在资本压力和国家意志面前,一次次被逼到墙角,它还能守住多少底线?

Anthropic用被制裁、被列为供应链风险的代价,守住了拒绝全自主武器这条线。但这条线能守多久?五角大楼会换一种方式再来吗?

答案从来不是模型更强、算力更大。答案是:把最基本的流程做好,把最基础的承诺守住。

这是Anthropic给整个AI行业上的一课。也是最难的一课——因为在这一课里,Anthropic自己,既是那个抗争的学生,也是那个需要反思的学生。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

转载信息
原文: Anthropic泄露背后:AI安全承诺的破产与重构 (2026-03-28T08:21:40)
作者: 舒书 分类: 科技创业
链接: https://www.tmtpost.com/7933051.html |声明:转载仅供分享;侵权联系删除。
评论 (0)
登录 后发表评论

暂无评论,来留下第一条评论吧