[东莞证券]半导体行业事件点评:deepseek大模型实现训练降本,有望加快AI应用场景落地

:memo: 作者: 刘梦麟,陈伟光| :date: 发布时间:Wed, 05 Feb 2025 00:00:00 GMT

半导体行业事件点评:DeepSeek大模型实现训练降本,有望加快AI应用场景落地

摘要

1月20日,DeepSeek发布了一系列DeepSeek-R1模型,显示出在性能和成本方面的显著优势。DeepSeek-R1系列不仅在推理能力上表现优异,还通过大幅降低训练和推理成本,展现出强大的商业化落地潜力。DeepSeek通过技术创新实现了大模型成本的优化,有望加快AI应用场景的落地,并推动算力需求的长期增长。

正文

DeepSeek-R1系列模型发布

1月20日,DeepSeek发布了DeepSeek-R1系列模型,包括DeepSeek-R1、DeepSeek-R1-Zero和DeepSeek-R1-Distill。这些模型在推理能力上表现出色,尤其是在AME2024测试中,DeepSeek-R1的表现略高于OpenAI的I-o1-1217,在MATH-500测试中与OpenAI的表现相当。同时,DeepSeek的API服务定价相较于OpenAI同类产品具有明显优势,显示出显著的成本优势和商业化潜力

DeepSeek的性能与成本优势

DeepSeek-R1在第三方基准测试中表现优异,超越了OpenAI、Anthropic和Meta等海外领先AI企业。在AIME2024数学基准测试中,DeepSeek-R1得分为79.8%,超过了OpenAI的o1推理模型。在标准化编码测试中,DeepSeek在Codeforces上获得2029 Elo的评级,超越了96.3%的人类竞争对手

成本方面,DeepSeek的训练成本仅为OpenAI同类模型的十分之一,仅花费557.6万美元2048块英伟达H800 GPU便完成了性能对标GPT-4o的模型训练。推理方面,DeepSeek的推理成本低至每百万Token0.14美元,而OpenAI的推理成本为每百万Token7.5美元

DeepSeek的技术创新与成本革命

DeepSeek通过技术创新实现了大幅降本,首次摒弃了监督微调环节,完全依赖强化学习训练大语言模型。对于小模型,DeepSeek通过知识蒸馏技术成功获取了大模型的推理能力,显著提升了小模型在推理任务上的表现。DeepSeek-R1的API服务定价为每百万输入tokens1元(缓存命中)/4元(缓存未命中),远低于OpenAI等可比海外大模型API服务。

这种技术创新不仅引领了人工智能的成本革命,也为应对美国高端GPU出口管制提供了思路。通过软件/架构优化而非硬件堆叠来满足需求,可能导致短期算力芯片采购节奏放缓,但从长期来看,DeepSeek的技术创新有望降低行业技术门槛,加快AI应用场景的落地。

长期影响与国产替代

DeepSeek的大模型成本优化有望加快AI应用场景的落地,长期内可能增加算力总消耗量。随着更广泛的用户与应用场景的拓展,可能会引发对更大参数与更复杂大模型的迭代需求,尤其是在自动驾驶等场景中,算力需求呈现指数级增长。

在国产替代方面,美国限制高端GPU出口,国产算力自主可控需求迫切。若DeepSeek的降本增效技术与国产算力芯片结合,可能加速国产算力的国产替代进程,实现“弯道超车”。

结论

DeepSeek通过技术创新实现了大模型成本的显著优化,展现出强大的商业化落地潜力。长期来看,这种技术进步有望加快AI应用场景的落地,并推动算力需求的长期增长。建议关注AI算力、存储、终端SoC等环节。

风险提示

  • 国产替代进程不及预期
  • AI应用场景落地不及预期
  • 行业资本开支不及预期

:light_bulb: 延伸阅读
研报PDF原文链接