一夜蒸发150万用户,卸量暴增295%,萨姆·奥特曼的“草率交易”

导语:当技术伦理在强权面前沦为纸面条款,人工智能的信任危机才刚刚开始

谁能想到,一个周末的时间,就让全球AI领头羊从神坛跌落?

2月28日,OpenAI宣布与美国国防部达成协议,将AI模型部署于五角大楼机密网络。消息公布当天,美国地区ChatGPT移动应用的卸载量较前一天激增295%——相比过去30天平均9%的日卸载率,这个数字足以让任何CEO后背发凉。下载量应声下跌13%,而竞争对手Anthropic的Claude则顺势登顶美国App Store榜首。

截至发稿前,公开表态抵制ChatGPT的用户已超过150万。一场由用户发起的“Cancel ChatGPT”运动,正在社交媒体上以燎原之势蔓延。

面对数据惨跌,一向以强硬示人的萨姆·奥特曼不得不公开认错:“我们本不该在上周五匆忙发布此事。现在看来,这既显得投机取巧,又显得草率马虎。”

这不仅仅是一次公关危机,更是人工智能发展十字路口的剧烈阵痛。让我们深入这场风波的每一个角落,看看权力、技术与伦理的碰撞,究竟给这个行业留下了怎样的伤痕。

一场“趁火打劫”的交易,Anthropic的坚守与OpenAI的补位

故事的起点,源于OpenAI的头号劲敌Anthropic。

时间拨回到2025年夏,美国国防部主动向Anthropic抛出合作橄榄枝:一份价值2亿美元的合同,让它的Claude大模型顺利进入美军涉密网络,承担情报分析、战场模拟、网络防御等核心任务。一时间,Anthropic成为美国军方最倚重的AI技术伙伴。

谁也没想到,短短半年后就出现戏剧性反转。

今年1月,五角大楼突然提出要求,让Anthropic移除模型中的两项核心安全限制:一项是禁止用于美国国内大规模监控,另一项是禁止用于全自主致命性武器

面对军方的要求,Anthropic的CEO达里奥·阿莫迪没有照单全收。他的犹豫很快引来更直接的施压。2月下旬,美国国防部长发出最后通牒:要么无条件服从,要么取消合同、列入黑名单。

为什么阿莫迪如此坚持?在接受采访时,他说出了自己的担忧:“现在AI正进入快速迭代期,算力每四个月就会翻一倍,这种前所未有的创新速度使我们面临不可预测的黑盒效应。作为创造这些模型的人,没有人比我们更清楚‘没有刹车片’的应用会有多危险。”

但在国家利益的大旗下,这样的坚持显得脆弱。

2月26日,阿莫迪发表公开声明,明确拒绝军方要求。两天后,美国总统特朗普在社交媒体上发文怒斥:“美国绝不允许极端左翼、觉醒主义企业干涉伟大军队如何作战并赢得战争!Anthropic公司的那些左翼疯子企图胁迫‘战争部’遵从该公司的服务条款而不是我们的宪法,这是一个灾难性错误。”

他随即宣布,将Anthropic列为国家安全“供应链风险”,所有联邦机构立即停止使用其技术。

就在特朗普宣布“拉黑”Anthropic的几小时后,OpenAI火速官宣与五角大楼达成协议,接过了原本属于对手的军方合作。这一时间点的选择,被业界普遍视为“趁火打劫”。

更让舆论哗然的是,协议达成后数小时内,美国便对伊朗发动了军事袭击。而据《华尔街日报》等美媒报道,在这场军事打击中,被美国政府封杀的Claude大模型,依然在战场上发挥着作用:融合多源情报、秒级生成战场态势、精准识别军事目标、辅助打击决策。

有知情人士透露,包括美国中央司令部在内,全球各司令部都在使用Claude进行情报数据处理——这凸显出Claude已深度嵌入美方现有的机密情报平台,短时间内根本没有可替代的工具。

讽刺吗?一个被官方“封杀”的模型,却在实战中不可或缺。而补位的OpenAI,则成了用户怒火的目标。

卸载量暴增三倍,用户“用脚投票”

资本市场或许会为军费订单欢呼,但用户市场给出了最诚实的回答。

根据美国移动应用数据分析公司Sensor Tower的统计,2月28日协议宣布当天,美国地区ChatGPT移动应用的卸载量较前一日激增295%,与过去30天日均9%的卸载率相比,这一数字触目惊心。下载量也环比暴跌13%,而在消息公布前,下载量本是在环比增长14%。

这股数字洪流直接将Anthropic的Claude推上神坛。2月27日,Claude下载量环比增长37%;2月28日再增长51%,成功登顶美国App Store榜首。

愤怒的用户在Reddit和X上发起“#CancelChatGPT”和“#QuitGPT”运动,号召集体逃离。这场运动并非空穴来风——此前OpenAI总裁格雷格·布罗克曼被曝向特朗普的超级政治行动委员会“让美国再次伟大”委员会捐赠了大笔资金,加上美国移民与海关执法局使用由ChatGPT-4驱动的简历筛选工具,早已让用户积累不满。

新加坡自由软件开发者阿尔弗雷德·斯蒂芬是众多“倒戈”用户中的一个。他原本为提高工作效率订阅了每月20美元的ChatGPT Plus服务,但早已对机器人的编程能力和冗长回复感到失望。得知布罗克曼的捐款后,他彻底下定决心:“这真的是压垮骆驼的最后一根稻草。”取消订阅时,他在调查中写道:“不要支持法西斯政权。”

在旧金山,OpenAI办公楼外的人行道上布满粉笔涂鸦,谴责其与五角大楼合作的决定。QuitGPT运动最近在社交平台发布的一条帖子获得了超过3600万次浏览130万个点赞,组织者表示已有超过1.7万人在运动网站上注册,承诺不再使用ChatGPT或在社交媒体上分享这项运动。

纽约大学营销学教授斯科特·加洛韦发起的“抵制并取消订阅”运动,单日独立访问量可超过20万人次,他每小时都会收到数十条用户展示取消订阅截图的私信。加洛韦分析道:“很多人都感到极度焦虑。一方面是科技公司支持总统、与总统关系密切,另一方面是人们对AI心存不安,现在大家开始用消费行为来表达立场了。”

对于OpenAI而言,这不仅仅是数据损失,更是信任层面的致命打击。一个标榜“造福全人类”的企业,在用户心中正在变成“战争的帮凶”。

奥特曼的“滑跪”,从强硬辩护到公开认错

或许是数据太过惨烈,或许是看到了事态的严重性,奥特曼的态度在48小时内发生了180度大转弯。

最初,他还在X平台强硬辩护,称协议条款与Anthropic坚持的并无二致,甚至表示“如果收到违宪的命令,宁愿入狱也不执行”。但面对如潮水般的质疑——有用户嘲讽他“开心吗?Claude已经超过你们了”——奥特曼不得不承认:“不开心。”

到了3月2日,奥特曼正式发文认错。他坦言:“我认为自己有一件事做得不对:我们本不该在上周五匆忙发布此事。这些问题极其复杂,需要清晰的沟通。我们当时真心希望缓和局势、避免更糟糕的结果,但现在看来,此举确实显得投机且草率。这对我而言是一次很好的教训,因为我们未来还将面临更高风险的决策。

为了灭火,OpenAI紧急宣布修订协议,新增条款明确“AI系统不得被故意用于对美国公民及国民实施国内监控”,并承诺不会将服务提供给NSA等情报机构。奥特曼还透露,公司将与国防部“缓慢推进”,配合技术保障措施审慎实施。

同时,他也在为对手发声:“在周末的谈话中,我重申了Anthropic不应该被认定为‘供应链风险’,希望国防部能向他们提供与我们已达成一致的相同条款。”OpenAI在最新声明中也特意表示,不认同国防部将其主要竞争对手列入黑名单的决定。

然而,这种事后补救能挽回多少人心,仍需打上巨大的问号。奥特曼周六晚在一场公开活动中承认,OpenAI的协议“过于仓促、形象糟糕”。但他坚称,快速签约是为缓和军方与Anthropic之间不断升级的紧张局势,避免AI行业被政府国有化或强制施压。

这番辩解听起来像是事后找补,而用户是否买账,数据已经给出了答案。

硅谷的“原则”与“生意”之间

这次风波的背后,折射出的是科技行业在面临地缘政治压力时的普遍困境。当美国政府祭出“国家安全”大旗,再顶尖的技术、再坚持的企业,都必须低头。

其实这样的故事,在美国科技史上并非第一次上演。2015年那场苹果与FBI之争,至今让人记忆犹新。

当时圣贝纳迪诺恐怖袭击案发生后,FBI以反恐为名,要求苹果公司为涉案手机开发专属破解工具,遭到苹果CEO库克以确保用户隐私为由公开拒绝。那场对峙持续数月,最后FBI依靠第三方技术破解了手机,此事草草收场。

彼时争论的是数据隐私与政府权力边界,如今Anthropic面对的是AI军事化与伦理底线,看似主题不同,内核却完全一致:美国政府始终试图将科技公司工具化。无论企业是出于自身商业利益考虑还是为了坚守科技伦理底线,只要它在事实上不能满足美国政府要求,遭到“收拾”的戏码就会不断重演。

有分析指出,OpenAI此时的“接盘”,虽然吃相难看,但在资本逻辑下,若不接手这块蛋糕,五角大楼只会扶持更多竞争者。OpenAI在2月27日刚刚宣布最新一轮融资对其估值达到7300亿美元,融资1100亿美元,为该企业迄今最大一笔融资。随着投资者对AI技术热情高涨,利润愈发成为企业的核心考量。

然而,令人担忧的是法律与技术的鸿沟。奥特曼虽然强调受宪法第四修正案和《外国情报监视法》约束,但正如许多批评者指出的,美国政府曾依据第12333号行政命令,通过截取国际海底光缆的数据来规避国内法限制,从而实现事实上的监控。依靠“一纸合同”来约束国家机器的监控欲望,在真正的权力面前可能脆弱得像一层窗户纸。

更何况,美国政府在AI军事化问题上的立场本身就充满矛盾。2026年1月,美国国防部发布《AI加速战略》,提出以AI赋能作战样式与能力建设,重塑未来战争形态,并要求移除影响其部署与应用的“制度性障碍”。

2月,美国明确在“军事领域负责任使用AI峰会”上拒签《军事领域负责任使用人工智能宣言》。在联合国框架下,美国也反对具有法律约束力的自主武器系统禁令,主张自愿性准则。

这些信号表明,为了自身的军事优势与地缘利益,美国可以将科技供应链政治化,甚至不惜把自己的企业打成风险实体,把AI变成地缘博弈的武器。这种做法将进一步加剧AI军备竞赛,使国际安全困境愈演愈烈。

AI信任的重建才刚刚开始

截至发稿前,虽然奥特曼已启动“损害控制”模式,甚至表示将继续游说国防部撤销对Anthropic的封杀,但这次事件已经撕开了AI行业一直以来的温情面纱。

对于普通用户而言,这一刻的醒悟是残酷的:原来那个在你熬夜写代码时提供帮助的智能助手,其底层技术随时可能被调用来优化军事打击目标。这种认知上的撕裂,远比一次产品迭代或涨价要严重得多。

超过150万用户的流失,不仅是一个数据,更是一个强烈的信号:在人工智能时代,用户与平台之间的信任建立可能需要数年,而摧毁它,只需要一份“仓促”的合同。

乔治·华盛顿大学媒体与公共事务教授戴维·卡普夫指出:“这些都是运动兴起的有利条件。从长远来看,我们会看到用户对大型科技公司采取行动,表明他们无法接受这类行为。”

这场消费者抵制运动背后,折射出的是更广泛的社会焦虑:数据中心的能源消耗、深度伪造色情内容的泛滥、青少年心理健康危机、AI可能导致的大规模失业、生成内容质量低下……这些问题正在将不同立场的人群聚集在一起,形成一种奇特的联盟。

美国大学社会学家达娜·费希尔提醒:“这类运动有很多失败的例子,但我们也看到不少运动取得了显著成效。只有当足够多的人真正用金钱来表达自己的政治立场时,消费者行为才可能成为有效的施压点。”

阿莫迪在谈到为何坚持“红线”不退让时所说的那句话值得深思:“现在AI正进入快速迭代期,算力每四个月就会翻一倍,这种前所未有的创新速度使我们面临不可预测的黑盒效应。”当技术发展越来越快,而监管和伦理跟不上步伐时,“没有刹车片”的AI应用会有多危险?

从苹果到Anthropic,从数据隐私到AI安全,美国一次次用强权碾压科技伦理,一次次把技术绑上霸权与战争的战车。当权力可以随意左右技术的方向,当霸权可以轻易撕裂伦理的底线,未来AI发展的最大风险可能不是“不可预测”的技术本身,而恰恰是“已在眼前”的不负责任应用。

奥特曼的“认错”能否平息风波?OpenAI的“红线”能否真正守住?随着AI技术日益成为大国博弈的焦点,类似OpenAI这样的企业注定要在“理想”与“生存”、“商业”与“伦理”之间走钢丝。

只是这一次,奥特曼和OpenAI给整个科技界上了一课:一旦让用户觉得你不再站在他们这一边,那么无论你的模型多么强大,被“卸载”也只是时间问题。

展开阅读全文

更新时间:2026-03-05

标签:科技   萨姆   草率   用户   美国   美国政府   技术   伦理   下载量   数据   国防部   军方   模型

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top