大家好,我是小汉。
5月4日,Anthropic和OpenAI同日组建合资公司。两家顶级AI实验室在同一天向企业市场发起冲锋,其中传递的信号不言而喻。
而就在前几天,美国国防部宣布与OpenAI、谷歌、英伟达、SpaceX等七家科技公司达成协议,将它们的人工智能系统直接接入美军最高级别的涉密网络。

这些AI将用于情报分析、目标识别、后勤调度,甚至辅助作战决策。
五角大楼称,此举是为了“确保美军在所有作战领域保持决策优势”。一场由AI驱动的军事变革,已经从实验室走向战场。
而就在三个月前,曾被五角大楼视为“安全可靠”的Anthropic公司,却因拒绝移除其AI模型的安全限制,被迅速踢出联邦供应链。

总统特朗普亲自下令,要求所有政府机构在六个月内停用其技术。曾经的合作典范,一夜之间成了“国家安全风险”。
Anthropic的遭遇,不只是商业失败,更是一场理念的崩塌。
它高举“安全”与“伦理”大旗,却在自己信奉的哲学逻辑中一步步走向矛盾,最终被那个它以为站在同一战线的“正义盟友”亲手抛弃。

Anthropic成立于2021年,由一群从OpenAI出走的核心技术人员创立。他们离开的原因很明确:认为OpenAI为了商业化,正在牺牲AI安全。
新公司一成立,就打出“安全优先”的招牌。他们开发了“宪法式AI”,给模型写了一套行为准则,要求它诚实、无害、不助纣为虐。
2023年,他们更进一步,发布《负责任扩展政策》(RSP),承诺一旦发现AI存在不可控风险,就立即停止训练。

这套做法在业内极为罕见,当时多数公司还在比拼模型能力,Anthropic却主动给自己戴上镣铐。
开发者圈子里,它的Claude模型口碑极佳,尤其在代码生成方面,被认为比GPT更可靠。
到2025年,公司年收入从90亿美元猛增至400亿美元,增速远超OpenAI。

但光鲜背后,是另一套现实。Anthropic并非独立运作。
亚马逊先后投入80亿美元,谷歌也注资超30亿。两家巨头不仅提供资金,还承担了绝大部分算力和云基础设施。
这意味着,Anthropic的发展高度依赖它所批判的“大科技”体系。

它一边说要慢下来搞安全,一边又以惊人速度扩张;一边标榜独立,一边深度绑定资本。
这种张力,从一开始就埋下了分裂的种子。

Anthropic的行为看似矛盾,实则有一套严密的内在逻辑——有效利他主义(EA)。
这不是普通的慈善理念,而是一种用数学和理性计算“如何行最大善”的哲学。
在EA看来,防止人类灭绝是最高目标,而超级AI是最可能引发灭绝的风险源。

创始人Dario Amodei是EA圈的活跃分子,他和团队都承诺捐出80%个人财富,早期投资人包括FTX的SBF——当时EA运动最著名的“赚钱去捐”实践者。
在这一框架下,Anthropic的许多选择变得合理:接受亚马逊和谷歌的钱,是为了获得资源对抗潜在对手。
封锁中国用户,哪怕损失数亿美元收入,也是为了降低“威权政权掌握强大AI”的概率;与美国军方合作,则被解释为“用AI优势维护民主秩序”。

关键在于,EA允许手段上的妥协,只要最终目标足够崇高。
因此,Anthropic可以一边警告AI危险,一边全力加速模型迭代;可以一边拒绝武器化,一边进入五角大楼机密系统。
在他们看来,这不叫虚伪,而是策略。而整个策略的前提,是默认“美国代表正义”——这个判断从未被质疑,而是当作公理使用。

2026年初,这套逻辑遭遇现实重击。随着特朗普执政理念的影响,国防部对AI的态度发生根本转变。
国防部长赫格塞斯要求所有AI供应商移除技术限制,确保模型可用于“所有合法用途”,包括全自动武器和国内监控。
Anthropic提出保留两条底线:不能用于完全无人干预的致命武器,不能用于对美国公民的大规模监控。

五角大楼拒绝让步,2026年2月27日,谈判破裂。几小时内,Anthropic被列为“供应链风险”,特朗普下令全面停用其技术。
更讽刺的是,OpenAI几乎同步接手原合同,迅速填补空缺。
这场决裂撕开了Anthropic理念的脆弱面,它从未想过,那个它认定为“正义代表”的美国政府,会要求它放弃安全原则。

在Anthropic的叙事里,与美军合作是“防御性善举”;但在五角大楼眼中,AI只是工具,工具不该有“道德判断”。
当国家机器需要绝对服从时,任何基于良知的限制都成了障碍。几个小时之内,五年构建的信任土崩瓦解。
Anthropic以为自己在参与一场保卫民主的使命,结果发现,在权力面前,善意毫无分量。

Anthropic的困境,早有先兆。
2022年,EA明星信徒SBF因挪用客户资金被判刑。他在法庭上辩称,自己偷钱是为了赚更多钱去捐,从而拯救更多生命。
这一逻辑正是EA的核心——为更大善可牺牲局部利益。但问题在于,谁来判断“更大善”?SBF的估算错了,代价是无数投资者的血本无归。

Anthropic也在经历类似的腐蚀,2026年2月,就在与五角大楼对峙期间,公司悄悄发布RSP 3.0。旧版中“若不安全就停工”的硬承诺不见了,取而代之的是模糊的“安全路线图”。
首席科学家解释:“如果对手在加速,我们单方面停下毫无意义。”
这句话,正是当年Dario离开OpenAI时所反对的逻辑。五年过去,批判者成了践行者。他们不再相信暂停的价值,转而接受“必须跟上”的现实。

这印证了一个残酷事实:再高尚的初衷,也可能在持续的妥协中变质。
每一次“合理让步”,都用“期望值计算”包装,久而久之,底线不断后退。
Anthropic曾以为自己能驾驭AI这枚“魔戒”,但历史一再证明,最大的危险,往往来自那些坚信自己是好人的持戒者。

如今,美军AI作战体系已全面启动。八家科技巨头集体入局,AI军事化不再是假设,而是正在进行的现实。
Anthropic的出局,不是安全理念的终结,而是一记警钟:当技术、资本与国家意志合流,任何试图用单一哲学掌控全局的努力,都可能被现实碾碎。
AI的未来,不取决于谁的模型更强,而在于能否守住那些不该被“理性计算”抹去的边界。
更新时间:2026-05-08
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号