作者: |
发布时间:Tue, 19 Aug 2025 00:00:00 GMT
东吴证券:AI Scale-Up趋势下,交换芯片迎千亿空间 
摘要:
推理时代,AI性能瓶颈从算力转向运力。Scale-Up网络架构驱动AI服务器内部Switch芯片需求,GPU+Switch紧耦合背景下,第三方互联厂商迎来发展机遇。预计2025年交换芯片市场规模将达491.39亿元,2027年将扩大至1022.23亿元。 重点推荐盛科通信、海光信息,建议关注澜起科技。
正文
推理时代性能瓶颈转移:从“算力”到“运力”。小批量、低精度、MoE的推理任务对计算本身要求不高,但在分布式部署下,多卡之间的通信延迟往往成为效率瓶颈。为此,行业正在把互联方式从机柜之间的Scale-Out网络转向机柜内部的Scale-Up网络(NVLink、UALink、PCIe等),利用更短的传输距离实现更高带宽和更低延迟,从而提升整体吞吐。
在Scale-Up网络架构中,AI服务器内部使用的switch芯片大致可分CPU–GPU连接与GPU–GPU互联两类。
- 前者主要负责把CPU的有限上行通道扩展出来,连接到多块GPU、网卡以及存储设备。
- GPU–GPU switch芯片则直接服务于GPU之间的大规模数据面通信,是GPU集群实现高带宽、低延迟的核心。
GPU+Switch紧耦合背景下,GPU百花齐放带动Switch格局生变。早先英伟达时代,NV GPU+NVLink Switch共同掌握AI“霸权”。不同于训练时代NVIDIA独占的封闭体系,推理市场的加速芯片更加多样,PCIe6/7、UALink、NeuronLink等开放标准为第三方互联厂商打开了机会窗口。海外市场Astera Lab一骑绝尘,深度参与AMD的UAlink和AWS的Trainium NeuronLink生态,占据了非NVIDIA阵营的核心互联位置,并有望伴随AI基建扩张持续放量。
市场空间:AI服务器崛起驱动Switch芯片市场高增,2025-2027市场规模翻倍增长。据TrendForce,全球AI服务器在2022–2029年的出货量复合增速约为27.2%。我们选取2023–2027年的出货量作为测算基础。
在配置假设上,我们参考AI服务器的典型参数:单机搭载8颗GPU、2颗CPU。根据主流互联方案,设定GPU与Switch的配比为2:1;CPU–Switch的配比依据主流服务器的dual root架构,取1:1,从而推算出AI服务器对GPU互联Switch与CPU-GPU互联Switch芯片需求量。
在价格假设上,据Global Tech Research,PCIe Gen5 Switch芯片的ASP为450美元,约合3500元人民币。后续迭代产品价格随代际提升,假设PCIe Gen6/Gen7的ASP约为7000元人民币。在此基础上,再结合各代产品的年度渗透率预估,推算得到整体ASP变化趋势。
由此测算得出:
- 2025年市场规模约为 491.39亿元
- 2027年市场规模扩大至 1022.23亿元
投资建议
重点推荐:
- 盛科通信:在高规格以太网交换芯片上持续推进:最大端口速率800G、交换容量12.8T/25.6T的产品已完成向客户送样与导入测试,并在2024年实现小批量交付。
- 海光信息:于24年报中披露开展先进封装与高带宽低时延Chiplet互联相关研发,并在高速I/O支持上涵盖PCIe、CXL。
建议关注:
- 澜起科技:于2025年1月22日发布PCIe6.x/CXL3.x Retimer并已向客户送样;此前其PCIe5.0/CXL2.0 Retimer已量产。
风险提示
地缘政治不确定性、需求不及预期、技术迭代风险等。
延伸阅读
研报PDF原文链接