文 | 金锐点
编辑 | 金锐点
10月中旬,OpenAI突然官宣和Broadcom合作,要一起搞10千兆瓦的定制AI加速器系统。
9月刚跟NVIDIA敲定10GW的合作,还拿了对方1000亿美元的投资承诺,没过几天又跟AMD签了6GW的协议。
AMD甚至愿意拿出1.6亿股普通股的认股权证,算下来,OpenAI这阵子砸下的硬件承诺总容量已经到了26GW。
要知道这相当于数十个超大规模数据中心的算力总和,背后可是千亿级别的投入。
但另一边,咱们中国的芯片企业没搞这么大的排场,反而在政务系统、工厂生产线这些地方悄悄铺开了市场。
一边是疯狂扩规模、赌未来,一边是踏实落地、解决真问题,两种路子摆在这里,难免让人好奇。
到底哪种能在AI时代走得更稳? 其实OpenAI的26GW布局,光看数据就透着一股激进。
就拿和Broadcom的合作来说,虽然没像NVIDIA、AMD那样涉及股权,但《华尔街日报》直接点明这是“数十亿美元级别的交易”。
咱们再算笔账,行业里有测算,1GW的AI数据中心每年光运营维护成本就差不多50亿美元,26GW意味着每年这部分开销可能就突破1300亿美元。
而OpenAI目前的年度经常性收入大概120亿美元,还得等到四年后才能实现正向现金流。
这期间要建数据中心、买设备、付电费,钱从哪儿来、能不能撑到有回报的那天,都是未知数。
更让人捏把汗的是,这笔投入的回报还充满不确定性,OpenAI这次跟Broadcom合作,明说了是聚焦“推理场景”。
就是咱们每次给AI发提问,它实时响应的那个环节,目的是想让响应更快、更省电,毕竟现在平台有8亿多周活跃用户,每天的查询量大得惊人。
但定制芯片这东西,开发周期太长,首批系统要到2026年下半年才部署,全部完成得等到2029年。
AI技术更新这么快,现在设计的芯片,三年后能不能适配那时的模型需求?谁也说不准。
之前已经有声音把这种“吉瓦级”的投入跟2000年的互联网泡沫比,觉得是用新概念包装投资故事,实际营收和利润根本撑不起这么大的摊子,这话不是没道理。
对比之下,咱们中国芯片企业走的路子就实在多了,核心就俩字,落地。
先看政务领域,现在不少地方的智慧城市项目里,国产芯片已经批量在用了,比如交通信号调度、民生数据管理这些基础服务。
2024年这部分的市场渗透率比三年前提升了近40%,不是摆样子,是真能帮着提高效率。
再看工业场景,适配工业互联网的芯片已经进了不少工厂,有个头部厂商的工业级AI芯片。
现在已经接入了5000多条生产线,帮企业把设备故障率降低了差不多25%,这些进展不是靠“烧钱堆规模”来的,而是盯着具体需求做优化。
比如工厂里温度高、干扰多,芯片就专门做了抗高温、抗干扰的设计,政务数据对安全要求高,就开发了符合国密标准的加密模块。
不像有些布局只盯着“算力多大”,咱们更在乎“能不能解决这个场景的问题”,就连市场策略,也透着务实。
咱们没一味追求最尖端的芯片制程,反而在28纳米及以上的成熟工艺上做文章,现在这部分芯片在全球市场的份额已经到了28%。
别小看成熟工艺,汽车电子、智能电网这些领域特别需要,就拿车规级芯片来说,2025年上半年咱们国产车规级AI芯片。
装车量已经突破300万辆,在新能源汽车领域的市占率比2023年翻了一倍。
这些芯片不追求通用算力多强,而是专门针对车载环境的低延迟、抗干扰需求做优化,反而在细分市场扎稳了根。
其实两种路径也不是完全对立,最近也能看到互相借鉴的痕迹,比如OpenAI跟Broadcom合作时,特意选了以太网方案。
没用水涨船高的专有网络技术,明显是想降低长期成本,这跟咱们中国企业“算好性价比再投入”的思路有点像。
而咱们这边,也没放弃高端研发,有企业的AI推理芯片能效比已经接近国际领先水平,计划2026年进入云服务市场,一步一步往更高处走。
说到底,这场AI硬件的较量,不是比谁的规模大、投入多,而是看谁能把技术真正变成价值。
2026年下半年,OpenAI的首批定制芯片系统就要上线了,到时候才能知道这场26GW的豪赌有没有初步成果。
而咱们中国芯片,还会在更多行业场景里落地,继续验证“务实路径”的生命力。
但无论哪种模式,最终都得回答一个问题,投入的每一分钱,是不是真的解决了用户的需求、提升了社会的效率。
更新时间:2025-10-19
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号