首页 行业研报 传媒互联网中期策略:底部再Call AI机会,重视互联网中的α

传媒互联网中期策略:底部再Call AI机会,重视互联网中的α

行业研报 90

  目录

  1.大模型及应用市场预期过度悲观,看好当前底部机会

  2.算力:光通信板块逻辑持续强化

  3.互联网:板块估值仍有性价比,个股α机会值得把握

  4.风险提示

  1.1当前处于国内大模型及应用板块基本面的右侧及股价底部

  wind人工智能指数已经跌回2023年初位置:

  市场对于国内AI行业变化反应过度悲观,例如对于AI大模型成本下降,很多投资人认为是大模型变卷,但实际上是创新带来的成本下降;

  市场风险偏好下降阶段,对于行业空间的判断变的保守;

  根据披露数据,AI应用相关标的的持仓已经显著下降。

  当前是A股AI应用板块的基本面右侧以及情绪的底部,风险偏好修复后AI应用板块有望迎来一波新的投资机会。

  1.2从DeepSeek看国内模型的优化创新持续超预期

  DeepSeek引领国内大模型API价格下降,它的创新性在三点:

  1、DeepSeek-V2设计了一种称为MLA的注意力机制。MLA通过低秩key-value联合压缩,实现了比MHA更好的效果并且需要的kvcache要小很多。

  2、DeepSeek采用DeepSeekMoE架构,这是一种高性能MoE架构,能够以更低的成本训练更强大的模型。

  3、针对性的进行了AIinfra的优化。

  基于这些技术的创新,其他的大模型想在短期实现类似DeepSeek同样的输出效率+效果下的价格是有难度的:1)DeepSeek算法开源,但是优化自己的模型需要时间;2)Moe对于Infra的要求更高,对于算力集群的架构搭建,是一个很高的门槛。对于推理降价我们认为是行业趋势,对于C端应用的普及起到加速作用。过去一年半时间,国内模型在缩小和海外模型的差距。

  1.传统Transformer采用MHA(Multi-HeadAttention),但是kvcache会成为推理瓶颈。MQA(Multi-QueryAttention)和GQA(Grouped-QueryAttention)可以一定程度减少kvcache,但效果上不如MHA。DeepSeek-V2设计了一种称为MLA(Multi-HeadLatentAttention)的注意力机制。MLA通过低秩key-value联合压缩,实现了比MHA更好的效果并且需要的kvcache要小很多。

  2.DeepSeek采用DeepSeekMoE架构,这是一种高性能MoE架构,能够以更低的成本训练更强大的模型。MoE此前都是8/16Expert选top2,DeepSeekV2设计了一种SharedExpert2+RoutedExperttop-6from160的新routing逻辑。

  1.3从AI社交看AI应用的能见度相比2023年有显著提升

  理解AI技术对于大模型产品的价值:大模型的意义在于具有千人千面的生成能力——当前的AIGC产品,正如2012年上线的今日头条(千人千面的分发能力)。

  理解AI社交产品的演进路径:AI社交产品的本质是AI小说,随着Sora等视频模型的逐渐成熟,后续有望推出千人千面的图片和视频生成,AI娱乐产品的成长路径远比2023年清晰。