DeepSeek V4 正式上线:开源、百万上下文、国产芯片全适配

【科技圈De那点事-报道】4月24日,DeepSeek V4 预览版正式上线,并且直接开源。这是继 V3 之后,深度求索的最新一代大模型。同一天,OpenAI 也发了 GPT-5.5。

这天,科技圈同时收到两份重量级"礼物"。

一边是 OpenAI 的 GPT-5.5,另一边是 DeepSeek 的 V4 预览版。两个模型选在同一天亮相,火药味浓了不少。DeepSeek 的姿态很明确:不仅上线,还直接开源。

发布消息在海外刷屏。官方推文短时间内收获了数万点赞和数百万次浏览,评论区挤满了人。有人直接在底下留言:"开源人工智能之王回归了。"

不过,关注度太高也带来一些噪音。此前有人谣传 DeepSeek 迫于压力不会开源 V4,甚至引发了开源社区的一阵恐慌。DeepSeek 不得不在推文下留言辟谣:请仅以官方账号发布的新闻为准。现在这些谣言被 V4 的全模型、全量开源彻底击碎了。

1.6T参数,DeepSeek V4有两个版本

DeepSeek V4 这次不是单一模型,而是两个版本:Pro 和 Flash。

Pro 版本走性能路线,总参数1.6T,激活参数49B。Flash 版本走速度路线,总参数284B,激活参数13B。两者都是 MoE 架构,支持百万字上下文。

这种双版本策略和 OpenAI 的 GPT-4/GPT-4o 打法类似,一个偏重能力上限,一个偏重响应速度。DeepSeek 借助算法优化了两个模型的参数调用,让 Flash 在日常任务中的表现和 Pro 几乎相同。写邮件、做摘要、整理数据这些轻量任务,用 Flash 就够了,Token 成本可以省一大截。

Flash 版本还有个值得注意的特性:支持 Thinking Mode。开发者可以通过 reasoning_effort 参数来调节推理深度,有 high 和 max 两档。同一个模型,既能快速给答案,也能花更多时间做深度推理。对写代码、做数学推导这些场景,这个开关很有用。

从 API 文档来看,Flash 在 thinking 模式下会返回 reasoning_content 字段。模型的思考过程被暴露出来了,这对需要理解"它怎么想的"的开发者来说,是个实用功能。

在已有的测试中,DeepSeek V4 在开源模型里几乎拿到了第一。专注于评估大语言模型的排行榜 Vals AI 直接在社交媒体上宣布:"DeepSeek-V4 现在是我们 Vibe Code Benchmark 上排名第一的开源权重模型,而且差距明显。甚至击败了像 Gemini 3.1 Pro 这样的前沿闭源模型。"

密歇根州立大学理论物理学教授 Steve Hsu 贴出一段让模型推演复杂问题的推理轨迹,评价其"在数学和物理方面又快又聪明,最终结果精致且准确"。英伟达人工智能研究员 Rick Lamers 看了内部基准测试后说:"在智能体工程方面的可用性看起来非常高。"

对一个开源模型来说,这个成绩单不算差。

百万字上下文

DeepSeek V4 最引人注目的升级,是支持百万字级别的超长上下文。

这个参数放在纸面上不够直观。你可以把一部长篇小说、一整年的财报数据,或者一个大型项目的全部代码库,一次性丢给它。让它在这些内容之间做关联分析、交叉引用、总结提炼。不是分段处理,是全部内容一次性理解。

律师审合同、研究员读文献、程序员看代码库,上下文长度直接决定了模型能不能"看全",再"说对"。之前很多模型号称支持长上下文,用到一半就开始遗忘前面的内容。DeepSeek V4,把这道墙往上推了一大截。

开源的逻辑

从 V2 到 V3,再到今天的 V4,DeepSeek 的开源策略一直没变。

模型权重同步放出,开发者可以直接下载部署。腾讯 EdgeOne、FlagOS 等平台,今天已经上线了基于 V4 的部署方案。FlagOS 的仓库显示,V4 支持 256 路专家并行的 MoE 架构,兼容 FP8 和 FP4 量化格式,可以一键反量化为 BF16 精度运行。

这种开源节奏在国产大模型里不多见。更多厂商把最好的模型,留在自家平台里,用 API 收费。DeepSeek 的做法是另一种打法:开源圈开发者,开发者反过来推动技术迭代。

定价出来了

从 AI-Stats 平台的实测数据来看,GMICloud 上 DeepSeek V4 Pro 的折扣价已经明确。输入端每百万 token 1.392 美元,输出端每百万 token 2.784 美元。平台上有 standard 折扣价和 list 原价两种定价,目前走的是折扣路线。

不过 DeepSeek 官方的说法是,受限于高端算力,目前 Pro 的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro 的价格会大幅下调。Flash 版本的定价更低,官方定位就是走低成本路线。

国产芯片适配

值得一提的是,今日热搜里有一条信息值得注意:DeepSeek V4 适配国产芯片。

这个说法虽然简短,背后的动作不小。华为、寒武纪等国产芯片企业深度参与了 V4 的开发过程,和 DeepSeek 一起基于国产芯片重构算法逻辑、做生态适配。发布首日,适配的国产 AI 芯片数量超过了英伟达芯片。寒武纪也在首日就宣布支持 V4。

英伟达 CEO 黄仁勋在 4 月中旬的一期播客访谈中直接表态:"DeepSeek 的进步意义重大。要是哪天像 DeepSeek 这样的成果先在华为平台上出现,那对美国会是非常糟糕的结果。"他担心 DeepSeek 针对华为架构做优化后,英伟达会处于劣势。黄仁勋的担忧不是没有道理。

从训练到推理,DeepSeek 早期版本仍然是在英伟达硬件上训练出来的,后续才逐渐转向华为昇腾。而且首批硬件访问权限仅提供给华为,等于是拉着华为一起做"联合研发"。这种做法的效果很直接:基于昇腾950超节点,V4-Pro 在8K输入场景下可实现约20ms的单 token 解码时延,单卡 Decode 吞吐约4700 TPS。V4-Flash 则能做到约10ms时延,单卡吞吐约1600 TPS。据雷科技报道,这个性能是英伟达 H20 算力卡的2.87倍。

这些数字的意义,不是让国产芯片的海报上多几串参数,而是让市场第一次可以用接近真实应用的方式去评估国产 AI 算力。大模型推理不是简单看芯片峰值算力,还要看显存访问、并行调度、低精度计算、通信效率和推理框架的协同。

更关键的是,DeepSeek V4 还给国产大模型蹚了路。Qwen、豆包、kimi 这些头部模型,此前都是基于 CUDA 生态研发的,想在昇腾上跑通需要借助兼容层,牺牲效率换硬件成本。DeepSeek V4 直接基于国产芯片做深度适配,证明这条路是跑得通的。国产芯片不是不能做 AI,只是之前缺少足够强、足够主流的真实业务负载去验证。

还有个技术细节值得关注:V4 引入了 mHC 架构,核心是"查算分离"。以前 AI 模型的查资料和推算都在 GPU 上完成,既挤占算力也占显存。mHC 架构把静态数据存储在 CPU 的系统内存里,GPU 只处理推理所需的数据。这样一来,万亿参数规模的模型无需堆叠昂贵的显卡阵列就能完成本地化部署,CPU 内存成了新的"弹药库"。

两条路线

两个重量级模型选在同一天发布,很难说完全是巧合。

OpenAI 的 GPT-5.5 走闭源路线,API 优先,面向全球付费用户。DeepSeek V4 走开源路线,权重可下载,更重视开发者生态和本地化部署。两条路线没有高下之分,但竞争态势已经摆在这里了。

外媒这边,CNBC 的标题直接用了"as AI race intensifies"(AI竞赛加剧)作为副标题。Gulf News、Northeast Mississippi Daily Journal 等多家媒体同步报道了 DeepSeek V4 的发布,覆盖面和关注度都不低。

知乎热榜排名第一的问题就是"DeepSeek V4 预览版本上线并同步开源,哪些亮点值得关注",热度远超同期其他话题。开源策略在开发者社区里的号召力,并不比闭源模型的品牌光环弱。

写在最后

DeepSeek V4 的发布,是国产大模型开源路线的又一次验证。

不是每家厂商都有底气,把最新最好的模型开源出来。这需要技术实力,也需要做生态的野心。1.6T参数、双版本、百万字上下文、Apache 2.0 开源——这些数字和条款放在一起,V4 的竞争力已经不只是"便宜"这么简单。

不过开源的同时,DeepSeek 也面临人才流动的问题。此次 V4 技术报告披露了近 300 人的研究与工程团队,其中 10 人已离职。郭达雅、王炳宣、魏浩然等核心作者先后离开。但另一方面,DeepSeek 正在加大 Agent 方向的招聘力度,发布了一系列和智能体相关的岗位。

创始人梁文锋在 V4 发布当天给出了 16 字的表态:"不诱于誉,不恐于诽,率道而行,端然正己。"DeepSeek 还强调:"我们将始终秉持长期主义的原则理念,在尝试与思考中踏实前行,努力向实现 AGI 的目标不断靠近。"

科技圈的那点事,说到底还是看谁能把技术,真正落到开发者手里。

展开阅读全文

更新时间:2026-04-28

标签:科技   上下文   芯片   上线   正式   模型   华为   英伟   参数   开发者   版本   路线   架构

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top