千卡算力破局:科通技术以”AI大模型+AI芯片”重构智算底座

配资导航 2025-3-17 1 3/17

2025年,随着DeepSeek大模型的开源迭代,AI技术在云计算领域的应用加速渗透,市场对高性能AI芯片的需求迎来爆发式增长。作为AI算力供应链的核心供应商,深圳市科通技术股份有限公司(以下简称“科通技术”)推出的“DeepSeek+AI芯片”全场景方案,在云AI领域取得重大突破。除了GPU的算力总量,云AI的一大挑战来源于GPU集群的数据互联效率。某大型互联网集团为解决云AI系统中千卡级GPU集群的高性能需求,面临服务器与加速卡间数据交换带宽和延迟的严苛挑战。科通技术联合全球顶尖设备原厂,基于Infiniband技术打造了叶-脊(Leaf-Spine)架构的服务器网络集群方案,成为云场景算力升级的标杆案例。

Infiniband技术是一种高性能的计算机网络技术,它在数据传输方面具备高带宽、低延迟的显著优势,能够快速处理大量数据,满足AI计算对数据传输速度的严苛要求。而叶-脊架构是一种常用于数据中心网络的拓扑结构,相较于传统网络架构,它有着更高的扩展性和更低的网络延迟,非常适合大规模集群的应用场景。

在技术细节上,科通技术采用高性能服务器CPU与高端GPU卡的组合,通过芯片级优化实现千块GPU卡池的高带宽、低延时数据交换。方案设计中,叶-脊架构的网络拓扑不仅满足了当前千卡级集群的数据吞吐需求,还通过预留充足的接口容量支持未来业务扩展,确保系统具备长期适应性。此外,科通技术为集群配置了100G/200G/400G高速网卡及智能网关设备。经测试,与传统方案相比,该方案可提供3.2倍以上数据交换吞吐量,不仅使AI推理效率提升了15%以上,还降低36%的功耗。这一方案的成功实施,科通在高速网络设备业务的显著提升直接带动了科通技术代理的各原厂专业GPU、服务器CPU及相关存储产品的销量增长。

在市场成效方面,该案例不仅帮助客户实现了大参数模型(如千亿级参数)的高并发训练与推理应用指标,还推动了科通技术在云AI基础设施领域的深度布局。通过代理全球80余家芯片原厂的核心产品,科通技术构建了覆盖云端训练、推理、存储、网络的全栈芯片矩阵,能够为不同规模客户提供定制化解决方案。随着DeepSeek大模型对算力需求的持续攀升,云场景的AI芯片采购量呈现指数级增长。科通技术已与多家头部互联网企业达成长期合作,预计未来云场景相关业务将持续带动公司营收增长。

可以预见,DeepSeek大模型的技术迭代将持续催化AI芯片在云端的应用需求。科通技术凭借全场景方案的技术整合能力和全球供应链优势,在AI算力供应链中占据重要地位。随着AI模型复杂度的提升和云服务规模的扩大,科通技术有望凭借其技术优势和市场布局,在行业中持续发展,为AI芯片应用产业的发展贡献重要力量。

本文来源:财经报道网

- THE END -

配资导航

3月17日13:20

最后修改:2025年3月17日
0

非特殊说明,本博所有文章均为博主原创。

共有 0 条评论

您必须 后可评论