#头条创作训练营#
DeepSeek V4来了,而且来得特别猛。1.6万亿参数、百万上下文、编程能力直接把Claude Sonnet 4.5干翻,价格呢?Flash版输入只要1块钱/百万token,是GPT-5.4的50分之一。你看到这些数字第一反应是不是和我一样:国产AI终于支棱起来了?但等等,高兴之前,先问自己一个问题——它跑得这么好,到底靠的是什么?这个问题,才是真正的死穴。
2026年4月24日,在经历了整整三次跳票之后,DeepSeek终于发布了让整个AI圈等了一年的V4系列。 V4-Pro总参数1.6万亿,激活参数490亿;V4-Flash总参数2840亿,激活参数130亿。两个版本都支持百万token上下文,而且全部开源。

性能表现确实炸裂。在Agentic Coding评测中,V4-Pro直接拿下开源模型第一,内部员工实测说体验比Claude Sonnet 4.5还好,交付质量接近Opus 4.6的非思考模式。推理能力上,数学、STEM、竞赛编程全面领先所有开源模型,直接对标顶级闭源模型。最狠的是,它的API定价——Flash版输入1元/百万token,Pro版12元。而同期GPT-5.4和Claude Opus 4.6的调用成本,大约是V4的50倍。这意味着过去你花50块钱才能让AI干一次活,现在一块钱就够了。
一条不起眼的消息悄悄藏在发布稿的角落里:"受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro价格会大幅下调"。这句话是什么意思?我来翻译一下:V4的目标算力底座,根本不是英伟达的卡,而是华为的昇腾。
黄仁勋在播客里听到这个消息的反应很直白:"如果DeepSeek先在华为平台上发布,那对我们国家来说将是灾难性的"。他想表达的核心逻辑是:英伟达的护城河从来不是GPU本身,而是CUDA生态。过去近二十年,几乎所有顶级AI模型都把CUDA当作首发优化目标。而DeepSeek这次做了什么?它在技术报告中明确写入了华为昇腾NPU与英伟达GPU的并列验证,是首个在昇腾平台上原生适配的前沿大模型。等于是告诉全世界:现在中国AI可以不用你的卡、不用你的生态,就能跑出世界一流的模型。

但问题来了。V4-Pro当前在英伟达体系下跑得挺好,下半年要切换到昇腾,中间有没有阵痛期?华为昇腾和CUDA是两套完全不同的技术栈,算子库、精度校准、推理性能都需要重新适配。换句话说,V4现在展示了极强的技术上限,但能不能稳定、持续地跑下去,取决于昇腾950的落地速度和质量。一个好消息是,昇腾超节点已实现DeepSeek V4-Pro 20ms的低时延推理。但大规模铺开之后呢?没人能打包票。
比硬件问题更棘手的是,DeepSeek的"人设"好像已经开始崩了。以前大家都说DeepSeek"不差钱、不融资",保持开源理想主义,那是人家有量化基金幻方在背后输血。可这次V4发布的同时,首次爆出DeepSeek正对外融资的消息:阿里、腾讯都在洽谈,目标估值超100亿美元,计划至少融3亿美元。为什么突然缺钱了?答案直白到让人心疼:1.6万亿参数的模型,算力和现金都捉襟见肘。甚至V4之所以还是纯文本模型、没有推出多模态版本,核心原因之一也是算力和资金限制。

更要命的是,核心人才正在流失。R1的核心作者郭达雅、LLM的核心作者王炳宣等关键人物,近期被字节、腾讯等大厂挖走。做AI的都懂:大模型比拼到最后,比的不是谁的口号喊得响,而是算力、数据和人才。在这三个维度上,DeepSeek正在承受前所未有的压力。从R1发布到现在,DeepSeek从一个偏非营利的理想主义技术乌托邦,被迫转向一家重视产品、商业化的务实公司。这听起来是好事?但对于一个靠自己创新起家的公司来说,被迫商业化往往是创新力被削弱的开始。
好,就算上面这些问题都解决了,还有一个让你晚上睡不踏实的事:V4的幻觉率飙到了94%。
什么意思?就是说,当你问V4一个它不知道答案的问题,它有94%的概率会强行编一个答案出来,还装得很像那么回事。跟前代V3.2的82%相比,这个"胡说八道"的概率不但没降,反而还涨了一大截。这个问题在做长上下文检索时尤其严重,因为"百万上下文"不是让AI把整本书都背下来再回答,而是用一种叫DSA稀疏注意力机制先把内容压缩、再抓重点。压缩过程本身就会丢掉信息,信息丢多了,AI就开始"自由发挥"了。

而且,虽然V4单价便宜,但Token消耗量巨大。完成标准测评,V4-Pro消耗了1.9亿Token,V4-Flash更是干到了2.4亿Token。便宜归便宜,架不住用量大啊。跑到最后你会发现:开发者用V4的实际使用成本并不比主流开源模型低多少。
这就是V4目前最尴尬的地方:把一个中规中矩的问题扔给V4,它会返给你一个惊艳的答案;但要是问一个它没训练过的问题,你可能就收到了一个"精心编造的假答案"。作为普通用户,你根本没法在"惊艳"和"胡说八道"之间提前判断。这,才是最让人不安的。
说了这么多,不是想唱衰国产AI,更不是怀疑DeepSeek团队的努力。能把1.6万亿参数的模型在一个挤满垄断巨头的行业里做到开源、低价、跑分领先,这本身就是值得骄傲的事。但问题是:当一个技术产品背负太多"国产替代""弯道超车""算力平权"之类的宏大叙事时,我们很容易忽略它本身存在的客观问题。
现在的DeepSeek V4就像一台性能炸裂但油表跳动的赛车——它确实冲得比谁都猛,但前方是道路畅通还是断崖,没人敢打包票。芯片适配的阵痛期需要面对,商业化转型的代价需要承担,幻觉率高企的技术顽疾尚在攻坚。这些都是Model本身无法绕过的坎,却也是很多人兴奋之余下意识"不去想"的那部分。
说到底,DeepSeek V4强不强?强。值不值得关注和尝试?值得。但高兴与否,得看你对它的期待是什么。如果是免费蹭个强AI来做事,那确实香;如果你是看好它扛起"中国AI新高度"的大旗,那建议先等一等——让子弹再飞一会儿。

到最后我想问大家一句:如果DeepSeek V4在下半年全面接入华为昇腾后,推理延迟稍微变高一点、但服务更稳定了,你还会继续用吗?评论区聊聊,让我看看有多少人跟我想法一样。觉得有收获的老铁记得点赞转发,让更多人看到咱们国产AI的真实一面!
本文为今日头条科技类深度分析稿件,旨在客观呈现行业动态,不构成投资建议。
更新时间:2026-04-29
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号