互联网
DeepSeek代码开源第二弹:DeepEP通信库,优化GPU通信
2025-02-25 16:15  来源:TechWeb

2月25日消息,继昨天开源Flash MLA后,DeepSeek今日向公众开源了DeepEP——第一个用于MoE模型训练和推理的开源EP通信库。

据介绍,DeepEP是一个用于MoE(混合专家)模型训练和推理的EP(Expert Parallelism)通信库,它为所有GPU内核提供高吞吐量和低延迟,也称为MoE调度和组合。该库还支持低精度操作,包括FP8。

同时,DeepEP针对NVlink(NVlink是英伟达开发的高速互联技术,主要用于GPU之间的通信,提升带宽和降低延迟)到RDMA(远程直接内存访问,一种网络数据传输技术‌,用于跨节点高效通信)的非对称带宽转发场景进行了深度优化,不仅提供了高吞吐量,还支持SM(Streaming Multiprocessors)数量控制,兼顾训练和推理任务的高吞吐量表现。

对于对延迟敏感的推理解码,DeepEP包含一组低延迟内核和纯RDMA,以最大限度地减少延迟。该库还引入了一种基于钩子的通信计算重叠方法,该方法不占用任何SM资源。

DeepSeek称,DeepEP的实现可能与DeepSeek-V3论文略有不同。

DeepSeek还列出了DeepEP的实际性能:

在H800(NVlink的最大带宽约为160 GB/s)上测试常规内核,每台设备都连接到一块CX7 InfiniBand 400 Gb/s的RDMA网卡(最大带宽约为50 GB/s),并且遵循DeepSeek-V3/R1预训练设置(每批次4096个Tokens,7168个隐藏层单元,前4个组,前8个专家(模型),使用FP8格式进行调度,使用BF16格式进行合并)。

在H800上测试低延迟内核,每台H800都连接到一块CX7 InfiniBand 400 Gb/s的RDMA网卡(最大带宽约为50 GB/s),遵循DeepSeek-V3/R1的典型生产环境设置(每批次128个Tokens,7168个隐藏层单元,前8个专家(模型),采用FP8格式进行调度,采用BF16格式进行合并)。

DeepEP运行环境要求:

Hopper GPU(以后可能支持更多架构或设备)

Python 3.8及以上版本

CUDA 12.3及以上

PyTorch 2.1及以上版本

NVlink用于内部节点通信

用于节点间通信的RDMA网络

您可能感兴趣的...
高德地图 上线当天使用高德扫街榜用户超4000万人
2025苹果秋季新品发布会
美团筹备大学校园即时零售新项目
华为公司董事长梁华 2024年全年销售收入超过8600亿元
智慧乌镇点亮数字经济新未来
  • 智慧乌镇点亮数字经济新未来
  • 2024-11-21分享热度:735...
  • 以“拥抱以人为本、智能向善的数字未来——携手构建网络空间命运共同体”为主题的2024年世界互联网大会...
  • GoPro宣布计划裁员约15%
  • 2024-08-20分享热度:269...
  • 曝GoPro将裁员15% 该计划将在2024财年的预计支出基础上减少约5000万美元的运营支出。
发表评论
0评