登录/注册

搜索历史清空

国产算力火速适配DeepSeek新版本

 财中社 孙语彤  2025-09-30 21:11  1.7w阅读

华为云、寒武纪、海光信息等国产算力厂商第一时间宣布完成适配,凸显国产AI软硬件生态协同加速的趋势。这一协同效率背后是国产算力生态的成熟。

9月29日,国内AI企业深度求索(DeepSeek)正式推出实验性(Experimental)模型DeepSeek-V3.2-Exp,在V3.1-Terminus的基础上首次引入自研稀疏注意力机制(DSA),在保持模型性能的同时大幅降低长文本处理成本。

与此同时,华为云、寒武纪(688256.SH)、海光信息(688041.SH)等国产算力厂商第一时间宣布完成适配,凸显国产AI软硬件生态协同加速趋势。

成本大降

DeepSeek-V3.2-Exp作为V3系列的实验性版本,核心突破在于采用稀疏注意力架构(DSA)。

DSA是一种针对Transformer架构的优化技术。在大语言模型的技术机制中,注意力机制是一个核心组件,决定了模型如何在文本序列中聚焦关键信息,实现语义理解与生成。

因为实现细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,可以实现长文本训练和推理效率的大幅提升。

成本优化效果直接体现于API(应用程序接口)价格调整。

输入价格上,缓存命中时,DeepSeek-V3.2-Exp从0.5元/百万tokens降至0.2元/百万tokens;缓存未命中的价格则从4元/百万tokens降为2元/百万tokens;输出价格上,从12元/百万tokens直接降到了3元/百万tokens。

深度求索称,降价得益于新模型服务成本的大幅降低。

目前,DeepSeek-V3.2-Exp 模型已在Huggingface与魔搭开源,官方App、网页端、小程序均已同步更新为DeepSeek-V3.2-Exp。API 的模型版本已经更新为 DeepSeek-V3.2-Exp,访问方式保持不变。

同时,为方便用户进行对比测试,DeepSeek为此前发布的V3.1-Terminus临时保留额外的API访问接口,将开放至10月15日,调用价格与V3.2-Exp一致;为支持社区研究,DeepSeek还开源新模型研究中设计和实现的GPU算子,包括TileLang和CUDA两种版本。团队建议社区在进行研究性实验时,优先使用基于TileLang的版本,以便于调试和快速迭代。

火速适配

新模型发布后,国产算力厂商迅速响应。

华为昇腾快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。

华为云第一时间完成对DeepSeek-V3.2-Exp模型的适配工作,最大可支持160K长序列上下文长度。目前该模型已正式上架华为云大模型即服务平台MaaS,为企业及开发者提供模型体验和API服务。

华为云方面称,ModelArts推理平台基于CloudMatrix384超节点,为DeepSeek-V3.2-Exp模型提供稳定、可靠的推理服务。ModelArts推理平台能够根据实际负载需求,按需供给和分配模型推理算力资源,实现资源分时复用与灵活扩缩容。

针对DeepSeek-V3.2-Exp模型,此次沿用大EP并行方案部署,基于稀疏Attention结构叠加实现长序列亲和的上下文并行策略,并兼顾模型时延和吞吐性能。

寒武纪(688256.SH)亦同步适配DeepSeek-V3.2-Exp,并开源vLLM-MLU推理引擎源代码,依托自研BangC融合算子与Triton框架达成“计算与通信并行”的极致性能优化。

海光信息(688041.SH)同日宣布其DCU实现无缝适配+深度调优,做到大模型算力“零等待”部署。海光信息表示,基于GPGPU架构强大的生态优势,与编程开发软件栈DTK的特性,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自主可控的技术优势。

这一协同效率背后是国产算力生态的成熟。华为昇腾、寒武纪等企业近期持续优化软硬件协同设计,而互联网厂商如腾讯云、阿里云亦积极拥抱国产芯片适配。

重要提示: 本文著作权归财中社所有。未经允许,任何单位或个人不得在任何公开传播平台上使用本文内容;经允许进行转载或引用时,请注明来源。联系请发邮件至editor@caizhongshe.cn。

长按保存图片

相关文章

24小时热门文章

最新文章