财中社 孙语彤 2025-09-30 21:11 1.7w阅读
华为云、寒武纪、海光信息等国产算力厂商第一时间宣布完成适配,凸显国产AI软硬件生态协同加速的趋势。这一协同效率背后是国产算力生态的成熟。
9月29日,国内AI企业深度求索(DeepSeek)正式推出实验性(Experimental)模型DeepSeek-V3.2-Exp,在V3.1-Terminus的基础上首次引入自研稀疏注意力机制(DSA),在保持模型性能的同时大幅降低长文本处理成本。
与此同时,华为云、寒武纪(688256.SH)、海光信息(688041.SH)等国产算力厂商第一时间宣布完成适配,凸显国产AI软硬件生态协同加速趋势。
成本大降
DeepSeek-V3.2-Exp作为V3系列的实验性版本,核心突破在于采用稀疏注意力架构(DSA)。
DSA是一种针对Transformer架构的优化技术。在大语言模型的技术机制中,注意力机制是一个核心组件,决定了模型如何在文本序列中聚焦关键信息,实现语义理解与生成。
因为实现细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,可以实现长文本训练和推理效率的大幅提升。
成本优化效果直接体现于API(应用程序接口)价格调整。
输入价格上,缓存命中时,DeepSeek-V3.2-Exp从0.5元/百万tokens降至0.2元/百万tokens;缓存未命中的价格则从4元/百万tokens降为2元/百万tokens;输出价格上,从12元/百万tokens直接降到了3元/百万tokens。
深度求索称,降价得益于新模型服务成本的大幅降低。
目前,DeepSeek-V3.2-Exp 模型已在Huggingface与魔搭开源,官方App、网页端、小程序均已同步更新为DeepSeek-V3.2-Exp。API 的模型版本已经更新为 DeepSeek-V3.2-Exp,访问方式保持不变。
同时,为方便用户进行对比测试,DeepSeek为此前发布的V3.1-Terminus临时保留额外的API访问接口,将开放至10月15日,调用价格与V3.2-Exp一致;为支持社区研究,DeepSeek还开源新模型研究中设计和实现的GPU算子,包括TileLang和CUDA两种版本。团队建议社区在进行研究性实验时,优先使用基于TileLang的版本,以便于调试和快速迭代。
火速适配
新模型发布后,国产算力厂商迅速响应。
华为昇腾快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。
华为云第一时间完成对DeepSeek-V3.2-Exp模型的适配工作,最大可支持160K长序列上下文长度。目前该模型已正式上架华为云大模型即服务平台MaaS,为企业及开发者提供模型体验和API服务。
华为云方面称,ModelArts推理平台基于CloudMatrix384超节点,为DeepSeek-V3.2-Exp模型提供稳定、可靠的推理服务。ModelArts推理平台能够根据实际负载需求,按需供给和分配模型推理算力资源,实现资源分时复用与灵活扩缩容。
针对DeepSeek-V3.2-Exp模型,此次沿用大EP并行方案部署,基于稀疏Attention结构叠加实现长序列亲和的上下文并行策略,并兼顾模型时延和吞吐性能。
寒武纪(688256.SH)亦同步适配DeepSeek-V3.2-Exp,并开源vLLM-MLU推理引擎源代码,依托自研BangC融合算子与Triton框架达成“计算与通信并行”的极致性能优化。
海光信息(688041.SH)同日宣布其DCU实现无缝适配+深度调优,做到大模型算力“零等待”部署。海光信息表示,基于GPGPU架构强大的生态优势,与编程开发软件栈DTK的特性,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自主可控的技术优势。
这一协同效率背后是国产算力生态的成熟。华为昇腾、寒武纪等企业近期持续优化软硬件协同设计,而互联网厂商如腾讯云、阿里云亦积极拥抱国产芯片适配。