曦望发布推理GPU芯片启望S3 推进推理云生态共建

本报讯 (记者袁传玺)1月27日,专注于推理GPU的曦望(Sunrise)在杭州举办首届Sunrise GPU Summit,发布新一代推理GPU芯片“启望S3”,并披露其围绕推理场景构建的算力产品体系及共建推理云生态计划。这也是曦望在近一年累计完成约30亿元战略融资后的首次集中公开亮相。

与强调峰值算力和通用能力的训推一体GPU路线不同,曦望在启望S3芯片上继续强化其“All-in推理”的定位。

曦望联席CEO王勇表示,AI行业正在进入以应用落地为核心的下半场,推理逐步超越训练,成为主要算力消耗场景。相比训练阶段的一次性高投入,推理更强调长期交付能力、单位成本和系统稳定性,这也正在改变GPU的竞争逻辑。

据介绍,启望S3是一款面向大模型推理深度定制的GPU芯片,围绕真实推理负载,对芯片架构、存储体系与互联方式进行了系统级设计。相比上一代产品,启望S3在典型推理场景下的整体性价比提升超过10倍。

在算力与存储设计上,启望S3支持从FP16到FP4的精度自由切换,在保证模型效果的前提下显著提升低精度推理效率;同时率先在国内GPU产品中采用LPDDR6显存方案,显存容量较上一代提升4倍,缓解了大模型推理中常见的显存瓶颈问题。

在DeepSeekV3/R1满血版等主流大模型推理场景中,启望S3的单位Token推理成本较上一代降低约90%。王勇表示,这是使“百万Token一分钱”从概念走向可规模化部署的工程能力。

王勇表示,曦望的推理GPU并非单点硬件创新,而是通过芯片架构、软件体系与算力交付方式的一体化设计,将硬件能力稳定转化为可交付、可计价的推理算力。目前,曦望已构建与CUDA兼容的基础软件体系,支持推理应用低成本迁移与持续优化,相关能力已覆盖ModelScope平台90%以上主流大模型形态。

围绕启望S3,曦望同步发布了面向大模型推理的寰望SC3-256超节点方案,可高效支撑PD分离架构与大规模专家并行(EP)部署,适配千亿、万亿级参数的多模态MoE推理场景。

同时,曦望还推出覆盖PCIe、OAM模组、一体机及AI计算集群在内的S3产品矩阵,覆盖从单机推理到大规模集群部署的多样化需求。

值得关注的是,曦望通过生态共建推理云被视为其推理算力体系中的关键一环。依托自研推理GPU,曦望实现从底层芯片到上层平台的全栈优化,将硬件能力以平台化方式稳定释放,从而降低模型适配和系统部署复杂度,形成面向应用落地的完整算力交付路径。

曦望联席CEO王湛表示,新一代的AI算力平台,应具备软硬件深度协同、资源利用高度弹性、技术门槛低且运行稳定可靠等特征。基于这一判断,曦望通过云化方式对算力交付模式进行重构,使推理算力从“设备能力”转化为可标准化、可规模化的服务能力。

据介绍,共建推理云以启望S3为底座,通过GPU池化与弹性调度,将分散的算力资源整合为统一的推理算力池,并以MaaS(Model as a Service)作为核心入口,向企业提供开箱即用的大模型推理服务。企业无需关注底层硬件配置和集群运维,即可按需调用模型能力,并根据业务负载灵活扩展算力规模。

曦望董事长徐冰表示,随着大模型进入规模化应用阶段,AI产业正从“训练驱动”转向“推理驱动”。相比一次性投入巨大的训练,推理更强调长期交付能力、单位成本和系统稳定性。

他指出,曦望并不希望只做一家卖芯片的公司,而是希望围绕推理场景,构建“芯片+系统+生态”的整体布局,让推理算力真正成为可规模化、可持续的基础设施。2025年,曦望芯片交付量已突破万片。

“谁能持续降低推理成本,谁就掌握了AI产业的成本曲线。”徐冰表示,曦望希望通过推理算力体系的系统性创新,助力AI应用实现规模化落地与可持续增长。

(编辑 李家琪)

展开阅读全文

更新时间:2026-01-29

标签:科技   芯片   生态   模型   能力   体系   场景   成本   显存   系统   集群   方式

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top