币小二 快讯,4月24日——DeepSeek V4-Pro 和 DeepSeek V4-Flash 于 4 月 24 日正式发布,并开源发布;上下文处理长度从 128K 大幅扩展至 1M,容量提升接近 10 倍。华为计算宣布其 Ascend 超算节点产品通过芯片与模型技术的紧密协作,全面支持 DeepSeek V4 系列模型。

华为 Ascend 950 通过融合算子内核与多流并行等技术,实现高吞吐、低时延的 DeepSeek V4 模型推理部署,以降低 Attention 计算及内存访问开销。对于输入 8K 的 DeepSeek V4-Pro,Ascend 950 实现约 20ms TPOT,单卡 Decode 吞吐达 4,700 TPS;对于输入低于 8K 的 DeepSeek V4-Flash,吞吐可达约 10ms TPOT、1,600 TPS。Ascend A3 超算节点系列同样实现全面兼容,并提供训练参考实现以便快速微调。基于采用大 EP 模式的 Ascend A3 64 卡超算节点,使用 vLLM 推理引擎,DeepSeek V4-Flash 在 8K/1K 输入输出场景下实现单卡 Decode 吞吐超过 2,000 TPS。华为全线 Ascend A2、A3 和 950 产品均支持 DeepSeek V4-Flash 与 V4-Pro。

华为云宣布与 DeepSeek V4 的“先发兼容”,通过其 MaaS 平台为开发者提供一键式 API Token 服务。华为云优化系统层、算子层和集群层能力,确保模型快速适配与高性能部署。包括金山 WPS 和 360 在内的企业已通过华为云集成了 DeepSeek 的新模型。

寒武纪同样宣布基于 vLLM 推理框架的 DeepSeek V4-Flash 与 V4-Pro Day 0 兼容性,并将适配代码开源至 GitHub 社区。寒武纪此前在去年 DeepSeek V3.2 发布时也实现了“先发适配”,在 DeepSeek 系列模型上开展了深度的软件-硬件协同性能优化。