通信行业研究:DeepSeek算力效率提升≠算力通缩,国产算力需求方兴未艾
DeepSeek在知乎发布文章《DeepSeek-V3/R1推理系统概览》,披露其AI大模型的理论成本利润率高达545%,引发业内的热烈讨论。在本篇报告中,我们从以下三个角度:1)DeepSeek的底层架构优化;2)DeepSeek的利润率详细拆解;3)DeepSeek引发的算力需求之争,回应市场关心的问题。此外,当前市场针对算力之争多定性分析,本篇报告也旨在提供较完整的定量分析框架以供参考。
DeepSeek通过大规模专家并行与计算通信重叠提升算力效率:
大规模专家并行模式下,专家参数被存储在多个GPU中,集群处理并行请求能力得到增强,GPU算力资源利用率也得到了提高。但在此模式下,通信耗时增加,因此DeepSeek还采用算通信重叠策略以缓解该问题。我们认为AI大模型具有规模效应:通过底层架构优化后,伴随批量大小的增加,计算与通信的时间边际下降,吞吐率得到提升。因此大规模集群能提高算力利用率。
参考DeepSeek,我们认为MaaS厂商具有盈利潜力,率先实现规模效应的云厂商将脱颖而出:
我们对DeepSeek披露的545%高利润率进行了拆解,以进一步分析利润率的影响因素。545%是成本利润率,对应84.5%的收入利润率。将GPU租赁成本在总成本中的占比、付费率调至合理水平后,我们认为公司实际利润率或低于84.5%。付费率对公司利润率影响较大,伴随付费率的提升,公司利润率有望持续攀升。若能将付费率提升至40%+,则公司的利润率有望达20%+。根据对DeepSeek的利润率分析,我们认为MaaS模式具有盈利潜力。拥有大规模集群、能形成高用户并发的公有云厂商有望形成规模效应。
针对算力之争,我们认为算力效率是新的Scaling Law方向,多模态与AI Agent将打开算力的成长空间:
我们就DeepSeek的模型参数量、数据规模、峰值倍数、单卡算力、单卡利用率等关键指标进行了详细的拆解,发现DeepSeek低算力的原因在于:1)低峰值倍数:未设置较大的算力冗余(峰值倍数仅1.2),一定程度上牺牲了用户体验;2)超高的算力效率,具体体现在单次推理激活的模型参数量(单次推理仅激活370亿参数)、高单卡利用率(H800单卡利用率高达77%)。市场担心DeepSeek仅使用1814个H800就支持了约2500万DAU会证伪算力需求,但我们认为伴随峰值倍数的提高、数据规模的扩大,算力需求有望持续提升。高算力效率不等于算力通缩,“参数量*效率*数据规模”才是新的scaling law方向。从远期看,多品类APP接入AI大模型有望带来用户数的增长,多模态、AI Agent有望带来单次请求调用tokens数量的增加,这都将带动算力需求的提升。因此我们持续看好算力链。
投资建议与估值
我们认为算力需求将持续强劲,建议持续关注算力链板块。能实现大集群、形成高用户并发的公有云厂商有望率先实现规模效应,跑通MaaS盈利模式。我们看好能提供高安全可靠的云服务、并具有辐射全国的IDC资源的运营商云;也看好具有丰富客户资源、集团内部生态赋能的互联网大厂云。深度参与算力产业链的国产芯片、交换机厂商也将持续受益。建议关注中国移动、中国联通、中兴通讯等。
风险提示
AI落地不及预期、芯片供应不足、客户对公有云接受度不及预期、行业竞争加剧
本站内容源自互联网,如有内容侵犯了您的权益,请联系删除相关内容。 本站不提供任何金融服务,站内链接均来自开放网络,本站力求但不保证数据的完全准确,由此引起的一切法律责任均与本站无关,请自行识别判断,谨慎投资。