5月8日消息,DeepSeek官方近日通过社交媒体公开致谢腾讯团队,感谢腾讯技术团队针对DeepSeek开源的DeepEP通信框架进行深度优化,显著提升了其在多网络环境下的传输效率,为AI大模型训练提供更高效的底层支持。
具体而言,腾讯技术团队针对DeepEP框架的通信协议、资源调度等核心模块进行重构,使其在RoCE(RDMA over Converged Ethernet)和IB(InfiniBand)两种主流网络环境下均实现性能跃升。针对RoCE网络,通信延迟降低50%,带宽利用率提升100%,满足大规模分布式训练需求;而IB网络在高性能计算场景下,数据传输效率提升30%,稳定性进一步增强。经过实测,优化后的DeepEP框架可有效缩短AI大模型训练周期,降低企业算力成本。
这是人工智能领域技术合作的又一新进展,DeepEP作为DeepSeek开源的通信中间件,旨在解决AI集群训练中的网络瓶颈问题。腾讯技术团队的介入,不仅展现了其在分布式系统领域的深厚积累,更通过“开源+协同”模式为行业注入创新动能。DeepSeek在致谢声明中表示,腾讯的代码贡献“大幅提升了框架的普适性与鲁棒性”,为全球开发者提供了更高效的工具链。
随着AI大模型训练规模持续扩大,通信效率已成为制约产业发展的关键因素之一。此次腾讯与DeepSeek的合作,标志着中国科技企业在AI基础设施层的协同创新能力进一步提升,有望推动自动驾驶、医疗影像、智能客服等领域的技术落地。