【环球网科技综合报道】10月28日,高通宣布推出面向数据中心的下一代AI推理优化方案,包括基于Qualcomm AI200与AI250芯片的加速卡及机架系统。依托自身在NPU技术领域的积累,该系列方案聚焦机架级性能与内存容量优化,可凭借高效能为生成式AI推理提供支持,助力各行业推进可扩展、高效率的AI部署。

Qualcomm AI200方案专为机架级AI推理设计,重点服务大语言模型(LLM)、多模态模型(LMM)推理及其他AI工作负载,核心优势在于低总体拥有成本与性能优化。每张加速卡支持768GB LPDDR内存,既能满足更高内存容量需求,又能控制成本,为AI推理场景提供扩展性与灵活性支持。
Qualcomm AI250方案则首发近存计算(Near-Memory Computing)创新内存架构,该架构可实现10倍以上有效内存带宽提升,同时显著降低功耗,为AI推理工作负载带来能效与性能提升。此外,其支持的解耦式AI推理功能,能实现硬件资源高效利用,适配不同客户的性能与成本需求。
Qualcomm AI200与AI250的机架解决方案具备多项共性技术设计:均支持直接液冷散热,可提升散热效率;兼容PCIe纵向扩展与以太网横向扩展,满足不同规模部署需求;内置机密计算功能,保障AI工作负载的运行安全;整机架功耗统一控制为160千瓦,符合数据中心能耗管理标准。
高通技术公司高级副总裁兼技术规划、边缘解决方案和数据中心业务总经理马德嘉(Durga Malladi)称,为配合硬件方案落地,高通技术公司提供超大规模级AI软件栈,覆盖从应用层到系统软件层的全链路,且针对AI推理场景优化。据悉,该软件栈支持主流机器学习(ML)框架、推理引擎、生成式AI框架,以及解耦服务等LLM/LMM推理优化技术。
开发者可通过高通的高效Transformer库与Qualcomm AI Inference Suite,实现模型无缝接入,还能一键部署Hugging Face模型。同时,软件端提供开箱即用的AI应用与智能体、完善工具、库、API接口及AI运营化服务,降低企业与开发者的集成、管理及扩展成本。
Qualcomm AI200预计于2026年实现商用,Qualcomm AI250则计划在2027年推向市场。未来,高通技术公司将按年度迭代节奏推进数据中心产品技术路线图,持续聚焦AI推理性能、能效与总体拥有成本优化,助力数据中心更好适配生成式AI发展需求。(心月)
更新时间:2025-10-29
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号