2月25日,开源放福利的DeepSeek甩出了一张王炸——开源全球首个面向MoE模型的全栈通信库DeepEP。
DeepEP,DeepSeek旗下开源项目,是专为专家混合(MoE)和专家并行(EP)设计的通信库,提供高吞吐、低延迟的全对全(all-to-all)GPU 计算核,也被称为 MoE dispatch 和 MoE combine。
2月25日,开源放福利的DeepSeek甩出了一张王炸——开源全球首个面向MoE模型的全栈通信库DeepEP。
DeepEP,DeepSeek旗下开源项目,是专为专家混合(MoE)和专家并行(EP)设计的通信库,提供高吞吐、低延迟的全对全(all-to-all)GPU 计算核,也被称为 MoE dispatch 和 MoE combine。