DeepSeek 要融资了!抛弃英伟达,估值百亿的中国AI联手华为

本文仅在今日头条发布,谢绝转载

据传 DeepSeek 要融资了。这家从来不要外部钱的 AI 公司,突然传出消息:首轮股权融资,至少3亿美元,估值不低于100亿美元。折合人民币差不多680亿。截止到现在 DeepSeek 官方没有正式回应。圈里的人都在猜,梁文锋到底在想什么。反正现在我周围的投资人朋友,都想有机会能去和梁文峰聊聊。梁文峰现在可能是全中国为数不多的、所有投资人都想把钱「塞给他」的人。

同一时间,另一个消息更值得琢磨:DeepSeek 的下一代模型 V4,正在深度适配华为昇腾芯片。底层算子全部重写,从英伟达的 CUDA 框架迁移到华为的 CANN 架构(但是这里也有不同说法,有知名的投资人朋友和我说,只是推理用华为的,训练还是在英伟达上面。但是无论哪一个,都是好的进展)。

这两件事拼在一起,指向一个正在发生的产业大分裂:中国的 AI 算力生态,正在和美国彻底分道扬镳。

而这场分裂的核心,是一颗芯片。华为昇腾。

先说 DeepSeek 为什么突然要钱。

梁文锋,1985年生,浙大电子信息工程本科,信息与通信工程硕士。2015年创立幻方量化,干量化私募,干到国内头部。2023年拿幻方赚的钱,单独成立了深度求索,也就是 DeepSeek,专门搞 AI 大模型。

幻方给 DeepSeek 攒了一个叫「萤火二号」的算力集群,砸了10个亿,装了大约1万张英伟达 A100 GPU。那时候 A100 一张卡七八万块钱,1万张就是将近10亿人民币,光买卡的钱就够一家中型公司活好几年。

靠这堆卡,DeepSeek 在2024年底干了件让整个硅谷坐不住的事。

DeepSeek-V3,671亿参数,2048张 H800 GPU,训练了不到两个月,总算力成本557万美元。这个数字公布出来,美国人不敢信。Meta 训练一个差不多水平的模型,花了几十倍的钱。OpenAI 更不用说。

紧接着2025年1月,DeepSeek-R1 发布,推理能力对标 OpenAI 的 o1 模型,而且完全开源。

英伟达股价当天跳水。

硅谷的反应很有意思。Meta 内部紧急拉了个专题会,分析 DeepSeek 的技术路线。好几家大公司的研究员私底下在传:这帮人用我们五分之一的资源,干出了差不多的活儿,我们是不是哪里搞错了?

这个背景很重要。DeepSeek 证明了一件事:搞 AI 不一定非得砸天量算力,算法效率才是核心变量。

现在问题来了。

DeepSeek 手里那些英伟达的卡,正在变成一种「消耗品」,而且很可能补不上。

2022年开始,美国对中国 AI 芯片出口管制一轮接一轮地收紧。先是禁了 A100 和 H100,英伟达专门给中国做了个降级版 H20,算力砍了一大截。2025年4月,连 H20 也被要求出口许可。虽然中间有过反复,一会儿放一会儿收,可大方向很清楚:高端 AI 芯片,美国不想让中国用。

H20 这种降级芯片,性能远不如 H100,价格还不便宜。2025年初 DeepSeek 火了之后,国内算力需求疯涨,H20 的价格一度飙到100多万一台八卡模组。

做这行的人都清楚一件事:如果你的算力底座随时可能被人一刀切断供应,你就不可能安心做长期研发。

所以 DeepSeek 做了一个决定:V4 模型要能在国产芯片上跑。

而国产 AI 芯片里,能接住大模型训练这种重活的,目前就一个选择——华为昇腾。

华为昇腾,说大白话就是华为自己搞的 AI 芯片。

这个东西的来头要从华为海思说起。海思是华为的芯片设计部门,总部在深圳坂田,华为基地里头。达芬奇架构就是海思团队自研的,专门针对 AI 计算设计的芯片底层架构。

昇腾910B,对标英伟达 A100。FP16 算力大约320 TFLOPS,A100 是312 TFLOPS,纸面上看差不多。

昇腾910C,对标英伟达 H100。FP16 算力750到800 TFLOPS,H100 是将近1000 TFLOPS。差距有,但不是不能用。

关键的差距在三个地方。

第一,制程。英伟达 H100 用的是台积电4纳米工艺,华为昇腾用的是中芯国际7纳米。中芯拿不到 EUV 光刻机(极紫外光刻),只能用 DUV 多重曝光的笨办法硬磕。做出来的芯片功耗偏高,良率也不行。公开信息显示,2025年上半年昇腾芯片的良率大约30%到40%,台积电成熟产线能做到60%到70%。简单说就是,同样一片晶圆,华为能用的芯片只有人家的一半。

第二,互联。英伟达有 NVLink,GPU 之间的数据传输带宽极高,训练万亿参数模型的时候,这个东西是命脉。华为有自研的 HCCS 协议,带宽在提升,可在超大规模集群里头的多卡并行效率,跟 NVLink 比还有差距。

第三,也是最致命的:软件生态。

CUDA。

英伟达花了19年建起来的软件栈。全球600万开发者,40000多家公司在用,400多个加速计算库,600多个预训练模型。大学教 AI 的课程,默认就是 CUDA。你写一个深度学习代码,不管用 PyTorch 还是 TensorFlow,底下跑的都是 CUDA。

这东西的恐怖之处在于切换成本。一家公司如果所有的训练代码、推理流程、优化脚本都是基于 CUDA 写的,你让他换到华为的 CANN 上来,等于重写一遍。不是改几行代码的事,是整个工程体系推倒重来。

做过 CUDA 开发的工程师转到昇腾上,痛苦是实打实的。CANN 的版本匹配要求极高,驱动、固件、框架、算子包,任何一个版本对不上,就可能出隐性 bug,查起来要命。有工程师在技术社区里写过:「从 PyTorch 模型转成昇腾推理模型的过程,是 bug 最密集的环节,经常一个算子不支持,整个流水线就卡住了。」

这就是华为面对的真实处境:硬件上在追,追到了70%到80%的水平;软件上差得更远,生态的厚度不是三五年能补上的。

可问题是,留给中国的选择并不多。

英伟达的芯片随时可能断供(现在的限制本来就非常多,实质上对中国是关着门的)。AWS、Google 这些美国云厂商的算力也不可能给中国的核心 AI 企业用。在这种大环境下,昇腾不是「最好的选择」,而是「唯一能走的路」。

2025年,华为在全联接大会上公布了一张芯片路线图,野心不小。

2026年一季度,昇腾950PR 推出,专门做推理任务。四季度推昇腾950DT,做训练和解码。两款芯片都搭载华为自研的高带宽内存(HBM),不再依赖三星和 SK 海力士。

2027年四季度出昇腾960,算力、带宽比950翻一倍。2028年出970。

每年迭代一代,步子不算慢。

这条路线图背后,是一整条正在成型的国产算力产业链。做昇腾这件事,不是华为一家在干,是几十家上市公司一起在干。

先说最上游,芯片封装基板。昇腾910C 用的是双 Die 封装(简单说就是把两颗芯片拼在一块),这个活对基板的精度要求极高。深南电路和兴森科技,这俩公司是国内高端 PCB 和封装基板的龙头,昇腾的关键供应商。

再说连接器。AI 服务器里头,芯片之间、背板之间的数据传输,靠的是高速连接器。华丰科技做昇腾的高速背板连接器,意华股份做板对板连接器。这些东西看着不起眼,但数据跑不通,整台服务器就是废铁。

然后是整机。华为自己不造服务器,找的是合作伙伴。高新发展控股的华鲲振宇,拿到了华为鲲鹏加昇腾双领先级认证。拓维信息做「兆瀚」系列 AI 服务器。神州数码是昇腾全球总经销商,自己还做了一个「神州鲲泰」系列。工业富联负责代工。

光模块。AI 服务器搞万卡集群,卡和卡之间要用光纤连起来。华工科技做800G 光模块,光迅科技做光器件,中际旭创是高速光模块龙头。

最后一个大件:液冷。昇腾 AI 服务器功耗高,传统风冷扛不住,必须上液冷。高澜股份做液冷全套方案,川润股份做昇腾超节点的液冷系统,市占率不低。

软件生态这边,软通动力是华为的顶级软件伙伴,润和软件做昇思 MindSpore 框架的优化,科大讯飞是昇腾生态最大的应用合作方。

这条产业链拉出来,从底层基板到芯片封装,从连接器到整机制造,从光模块到液冷系统,从软件框架到行业应用,几十家公司各占一个环节。

2026年初,中国移动搞了一次超50亿的 AI 通用计算设备集采,昇腾系厂商拿走了34亿。字节跳动也有大规模的昇腾芯片采购计划,910C 和 950 都要,用来搭训练加推理的算力闭环。

说回 DeepSeek 的融资。

3亿美元,对一个估值100亿美元的公司来说,真的不算多。圈里分析比较集中的一个判断是:这笔钱的主要目的是给期权定价。

DeepSeek 的研究员是全行业最抢手的一批人。他们手里有期权,但期权值多少钱?如果没有经过外部融资的真实交易定价,这个数字只是一个内部记账符号。梁文锋需要通过这轮融资,给公司股权锚定一个市场价格,把期权变成真金白银的激励。

另一个更实际的原因:向国产芯片迁移是重资产投入。V4 模型要从 CUDA 全面切到 CANN,底层算子要重写,推理框架要重做,集群通信要重新优化。这些工程量巨大,需要大量高水平的系统工程师,而且没有现成方案可以抄,全得自己趟路。

这件事的意义已经不只是 DeepSeek 一家公司的战略选择。当中国最强的 AI 大模型公司开始全面拥抱国产芯片,整个行业的生态重心就开始位移了。

华为昇腾此前的客户以国资背景为主,运营商、央企、政府智算中心。DeepSeek 是第一个站出来说「我要在昇腾上训练顶级大模型」的纯市场化 AI 公司。这给整个昇腾生态带来的信号量是不一样的。

做开发工具的会跟进,做模型优化的会跟进,做部署方案的也会跟进。一旦生态里有了足够多的头部用户,CANN 的成熟速度会比现在快得多。

截至2025年底,中国已建成的万卡智算集群有42个,智能算力规模超过1590 EFLOPS。整个智算中心市场预计2026年能到1763亿元。这个盘子足够大,大到能养活一条完整的国产算力产业链。

华为的策略也看得出来,不是跟英伟达比单芯片性能,而是靠「超节点加集群」的系统级方案来补单卡差距。用自研的「灵衢」互联协议把几千张昇腾芯片串成一个整体,用专门优化过的推理引擎降低实际运行成本。

DeepSeek 的加入让这条路更快了一步。这家公司最擅长的事情就是在有限资源下把算法效率做到极致。如果他们能在昇腾上把 V4 训出来,而且性能不掉太多,对整个国产算力生态就是一针强心剂。

昇腾现在的状态,有点像当年的安卓。早期的安卓也是一堆毛病,卡顿、兼容性差、开发者骂街。可一旦生态转起来,用户上来了,开发者就跟着来了,应用丰富了,体验也就慢慢好了。现在国产 AI 芯片走的就是这条路。

做集群运维的工程师现在两条腿走路,一边维护英伟达的存量设备,一边学 CANN 的新框架。很多公司的招聘里已经开始加一条:「有昇腾开发经验者优先」。

说到底,这场 AI 算力的产业分化不是突然发生的,是被逼出来的。英伟达不卖高端芯片给中国,中国就只能自己造。造出来不好用,就硬着头皮优化。优化的过程中,一条国产产业链慢慢长出来了。

这条产业链现在还粗糙,问题一大堆。可它正在给几十万工程师创造就业机会,给几十家上市公司带来新的增长曲线,给整个 AI 行业提供一个不怕断供的底座。

加油!非常期待。

我是马力,正在讲好中国产业崛起的故事,帮助更多普通人了解中国的各个产业集群,找到属于自己的机会。欢迎关注我。

展开阅读全文

更新时间:2026-04-21

标签:科技   华为   英伟   中国   融资   芯片   三星   模型   公司   生态   集群   算子

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top