Anthropic的护栏:没有VIP通道,连五角大楼也不例外

日期:2026-03-01 14:05:42 / 人气:9



2026年2月27日(美东时间),美国总统特朗普在Truth Social上宣布,向所有联邦政府机构下令:即刻停止使用Anthropic的一切技术。

国防部长皮特·赫格斯(Pete Hegseth)随即把Anthropic列为“国家安全供应链风险”,并宣布所有与军方有业务往来的承包商,即日起禁止与Anthropic合作。

这是美国政府对本土科技公司动用的最强硬手段之一。

起因,是Anthropic的一个拒绝——而且不是第一次。

一、事情是怎么开始的:2亿美元合同埋下的伏笔

2025年7月14日,美国国防部(现改称“国防战争部”)与Anthropic签署了一份上限为2亿美元的“原型过渡协议”,目标是在国家安全领域推进前沿AI能力。这一合同的授予,源于首席数字与人工智能官办公室(CDAO)获得的“其他交易协议”(OTA)专项授权,同期谷歌、xAI等公司也获得了类似的专项合同。

Anthropic的Claude模型由此被实际部署在美国政府的涉密网络上,用于情报分析、作战规划模拟、网络作战支援等任务。Anthropic自称是硅谷主要AI公司中第一家把模型部署进涉密政府网络的企业,也是首家在国家实验室部署模型、首家为国家安全客户提供定制模型的尖端AI公司。

看起来是一桩双赢生意:政府获得前沿AI能力,Anthropic获得政府合法性与收入。事实上,Anthropic此前也曾主动采取行动维护美国在AI领域的技术优势,甚至为此放弃了数亿美元的潜在收入,切断了与中国国家安全和军工体系相关企业的合作,还制止了针对其系统的滥用尝试。

但2026年1月,矛盾首次浮出水面。

国防部长赫格斯签署了一份AI战略备忘录,要求所有国防部AI合同必须包含“任何合法用途”(Any Lawful Use)条款——承包商不得对军方使用场景设置任何限制。

Anthropic的AI系统本身内嵌了若干使用限制。这份备忘录,正面要求Anthropic拆除这些限制。

谈判由此进入僵局。值得注意的是,Anthropic此前曾在2024年内增设“政府合同例外条款”,但此次五角大楼的要求,直接触及了其核心的伦理底线。

二、Anthropic的两条红线:原则还是边界

2026年2月26日,距国防部最后期限不足24小时,Anthropic CEO Dario Amodei在公司官网发布了一封约800字的公开信。

信中,他划出了两条Anthropic拒绝放开的使用限制,这两条限制从未被纳入双方此前的合同,也是此次谈判中争议的核心:

红线一:不得用于大规模监控美国公民。

Amodei写道:“大规模的国内监控与民主价值观根本不相容,会对我们的基本自由构成严重的、全新的风险。”他进一步解释,即便当前部分监控行为在法律上被允许,也只是因为法律尚未跟上AI快速发展的步伐,无法应对其带来的新型风险。Anthropic明确表示,支持AI用于合法的外国情报和反情报任务,但坚决反对将其用于国内大规模监控。

红线二:不得用于完全自主决策的致命性武器。

Amodei的解释是技术层面的:“前沿AI系统根本还不够可靠,无法独立运作致命性武器。在这类决策上让AI系统拥有完全自主权,会让作战人员和平民都面临不可接受的风险。”

这两条限制,听起来都有道理。

但五角大楼的反驳同样不是没有依据。

军方的立场是:美国现行法律已经明确禁止针对本国公民的大规模监控;完全自主武器的使用,同样受《武装冲突法》约束。这些限制不需要由一家私营AI公司来单独设定和执行。

换言之,政府的逻辑是:已有法律在管,不需要你来管。

而Anthropic的逻辑是:法律管不到的地方,我们先管。

这两种立场,反映的是一个根本性的权力归属争议:在AI被滥用的风险面前,谁是最后一道门?

三、五角大楼的反击:威胁升级的三步棋

面对Anthropic的立场,国防部发出了强硬回应,设定2026年2月27日为最终期限,威胁逐级升级:

第一步:终止价值2亿美元的国防合同。

第二步:将Anthropic列为“供应链风险”。这意味着Anthropic将被禁止参与所有联邦政府和国防项目,且其技术被整合进Palantir、亚马逊AWS等国防承包商业务的部分,也将面临连锁拆解。这一标签历史上多用于华为等外国实体,从未被用于制裁本土企业,这也成为后来Anthropic提出法律挑战的重要理由。

第三步:援引《国防生产法》(Defense Production Act)——一部1950年朝鲜战争期间出台的法律,授权总统在国家安全紧急状态下强制企业服从命令。该法律的核心强制力体现在三个方面:要求企业优先执行国防合同、强制企业接受国防合同、极端情况下可强制企业改造产品以满足军方需求,五角大楼甚至可能通过该法律强制Anthropic提供无限制的Claude模型访问权限。

Anthropic在公开信中不无讽刺地指出:“我们被告知,我们是构成国家安全风险的威胁——同时又被告知,我们的技术对于国家防御是不可或缺的。这两件事,不可能同时为真。”

四、最后期限:各家的不同选择

2026年2月27日,最后期限到来。Anthropic没有妥协。

特朗普随即在Truth Social上点名Anthropic为“激进左派AI公司”,下令全联邦机构立即停用。赫格斯正式宣布供应链风险定级,现有合作方获得6个月过渡期以切换供应商。

与此同时,其他AI公司做出了截然不同的选择:

谷歌、xAI已接受了“任何合法用途”条款,配合军方要求。事实上,2025年6月,谷歌、xAI与Anthropic、OpenAI一同获得了国防合同,只是在此次条款谈判中,前两者选择了妥协。

OpenAI走了第三条路:在Anthropic遭封禁的几小时后,宣布与国防部达成新协议。OpenAI CEO Sam Altman表示,他们的协议以书面形式写入了类似的安全原则——但同时他们拿到了合同。值得注意的是,OpenAI早在2024年1月就删除了服务条款中“禁止军事用途”的表述,为此次合作埋下了伏笔。

这就产生了一个值得思考的问题:如果OpenAI能在书面上保留安全条款、同时接下政府生意,那Anthropic的“原则性拒绝”,究竟是更高的道德底线,还是一种谈判策略的失败?

没有明确答案。但不同的市场选择已经摆在那里。

五、Anthropic自己的权力问题:谁授权了这道门?

这场争端最值得深思的部分,不是Anthropic输了还是赢了,而是它所揭示的一个更根本的问题:

Anthropic凭什么决定,AI的使用边界在哪里?

Anthropic对所有用户设置同样的限制,包括企业、政府、军方。他们不给任何人后门。这是一种彻底的“一视同仁”。

但这种“一视同仁”,本身是否也是一种权力的行使?

在传统的武器行业,枪械制造商不会对警察和军队的使用方式设置道德条件——那是法律和民主制度的工作。AI的特殊性在于:它的限制不嵌在硬件里,而嵌在代码里。这让AI公司天然成为“规则的制定者”,而这个角色,从来没有经过任何民主程序的授权。

Anthropic的立场,可以被解读为负责任:他们在试图防止最坏的场景,哪怕为此付出商业代价。

它同样可以被解读为傲慢:一家私营科技公司,单方面决定什么是一个主权国家的军队可以做、什么不可以做。

这两种解读,都有充分的理由。

Amodei在公开信中承认了这个张力:“我们相信,是否以及如何使用Claude做出军事决定,应由美国国防战争部而非我们来决定。但在某些极端情况下……我们认为,我们有必要划出不可逾越的底线。”他同时强调,Anthropic从未对任何具体的军事行动提出异议,也从未试图以临时性方式限制技术使用,只是坚守核心底线。

“某些极端情况”——这个边界,是Anthropic自己划的。

写在最后:一个没有好答案的问题

Anthropic称供应链风险定级“法律上站不住脚”,并宣布将以法律手段提出挑战。理由是:此类工具历史上仅用于应对华为等外国实体,从未被用于制裁本土企业。有专家指出,《国防生产法》历史上主要用于实体商品,而AI模型作为复杂的软件知识产权,强制修改其内置护栏可能触及美国宪法第五修正案的财产征用问题,这也为Anthropic的法律挑战提供了一定支撑。

这场法律角力,最终可能会为AI公司与政府之间的权力边界写下某种意义深远的判例。

但在那之前,有几个悬而未决的问题值得每个关注AI发展的人去思考:

AI公司设置“使用护栏”,是在保护用户,还是在扩大自己对技术的控制权?

当政府与AI公司的标准出现冲突,谁的判断应当优先?

如果Anthropic的做法是对的,那么接了合同的OpenAI意味着什么?如果OpenAI的做法是对的,那拒绝的Anthropic又意味着什么?

Anthropic用商业损失换了一个它认为重要的立场。或许它是对的。或许它高估了自己对这个边界的判断能力。

但无论如何,这场对决所暴露的矛盾,并不会随着Anthropic的失败而消失——它只是被推迟到了下一次,由另一家公司、在另一个政府面前重新上演。

核心事实速览

合同金额:2亿美元上限,2025年7月14日签署(同期谷歌、xAI等也获得同类专项合同)

合同内容:情报分析、作战规划、网络作战支援(涉密网络),Claude模型被部署于政府涉密网络及国家实验室

五角大楼诉求:“任何合法用途”条款,移除所有使用限制

五角大楼立场:现行法律已有约束,无需企业单独设定;可援引《国防生产法》强制企业配合

Anthropic红线:禁止大规模监控美国公民;禁止完全自主致命武器(从未纳入此前合同)

最后期限:2026年2月27日(星期五)

结果:Anthropic拒绝 → 特朗普封禁令 → 供应链风险定级(历史上首次用于本土企业)

过渡期:现有机构获6个月切换期

Anthropic回应:称定级“法律上站不住脚”,将提起法律挑战

OpenAI动向:同日与国防部达成协议,声称书面写入安全条款(2024年已删除“禁止军事用途”表述)

谷歌/xAI:已接受“任何合法用途”条款,配合军方要求

Dario Amodei声明:2026年2月26日,约800字,发布于Anthropic官网,明确坚守两条核心红线

参考资料

1. Statement from Dario Amodei on our discussions with the Department of War, Anthropic (Feb 26, 2026) https://www.anthropic.com/news/statement-from-dario-amodei-on-our-discussions-with-the-department-of-war

2. Pentagon designates AI firm Anthropic a 'supply chain risk', Washington Post (Feb 27, 2026)

3. Anthropic refuses DOD demand for unrestricted AI access, Breaking Defense (Feb 27, 2026)

4. 其他综合来源:CBS News, The Guardian, PBS 等。

(注:本文根据以上英文资料综合编译,内容旨在呈现事件全貌,文中涉及的任何主观判断与结论均不代表硅星人官方立场。)

作者:杏宇娱乐




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 杏宇娱乐 版权所有