客户端
游戏
无障碍

10

评论

18

11

手机看

微信扫一扫,随时随地看

郭明錤:DeepSeek加速生成式AI产业迈入新阶段

AI划重点 · 全文约1888字,阅读需6分钟

1.天风国际证券分析师郭明錤表示,DeepSeek-R1的发布加速了AI产业的新趋势。

2.郭明錤指出,即使没有DeepSeek-R1,AI算力仍可通过优化训练方式持续增长并挖掘新应用。

3.另一方面,API/Token价格显著下滑有利于AI软件/服务与设备端AI,加速AI应用多元化。

4.由于DeepSeek-R1的定价策略,预计将有其他中国厂商推出性能优异且定价更激进的LLM。

5.最后,郭明錤认为Nvidia仍然是未来Scaling law边际效益再次加速的赢家,但需要关注短期内量产问题和中长期美国半导体出口禁令的变化。

以上内容由腾讯混元大模型生成,仅供参考

IT之家 1 月 31 日消息,天风国际证券分析师郭明錤 29 日发布报告指出,DeepSeek-R1 发布后,有以下两个重要的 AI 产业新趋势值得关注。

  • Scaling Law 边际效益放缓时,AI 算力仍可透过优化训练方式持续成长并有利挖掘新应用。

  • API / Token 价格显著下滑,有利 AI 软件 / 服务与设备端 AI,加速 AI 应用多元化。

郭明錤称,就算没有 DeepSeek-R1,这两个趋势终将显著浮现,但 DeepSeek-R1 的出现,加速了趋势发生。IT之家附其观点如下:

DeepSeek-R1 发布后,有以下两个重要的 AI 产业新趋势值得关注。即便没有 DeepSeek-R1,这两个趋势终将显著浮现,但 DeepSeek-R1 的出现,加速了趋势的发生。

  • Scaling law 边际效益放缓时,AI 算力仍可通过优化训练方式持续增长,并有利于挖掘新应用。

  • API / Token 价格显著下滑,有利于 AI 软件 / 服务与设备端 AI,加速 AI 应用多元化。

  • 趋势一:Scaling law 的边际效益放缓时,AI 算力仍可通过优化训练方式持续增长,并有利于挖掘新应用

  • 过去 1-2 年,投资人对 AI 服务器供应链的投资逻辑主要基于 AI 服务器出货量在 Scaling law 成立下可持续增长。然而,Scaling law 的边际效益正逐渐递减,这让市场更加关注 DeepSeek 通过 Scaling law 以外的方式显著提升模型效益。

  • 最常被引用之一的 Chinchilla 的 Scaling law 指出,AI 模型性能由模型参数量 (N)、训练数据量 (D) 与运算能力 (C) 三者决定,最理想的情形是 N、D 与 C 同时增加

  • Scaling law 对提升模型性能边际效益放缓的原因:

1) 人类创作的文本资料 (D) 几乎已耗尽,

2) 在运算能力 (C) 没有大幅提升与训练数据量 (D) 耗尽的情况下,仅提升模型参数量 (N) 无助于模型效能,

3) 运算能力 (C) 短期内不易显著提升(如 Blackwell 系统尚未量产、电力供应限制等)。

  • 从产业研究角度,DeepSeek-R1 值得关注之处在于该 LLM 通过优化训练方式,而非 Scaling law,显著提升了模型效益,可以通过检视与测试其开源成果验证。

  • 当 Scaling law 的边际效益最终递减时,优化训练方式来提升模型效益,有利于持续提升 AI 基础设施的算力并挖掘新应用。对 AI 产业的长期发展而言,两者缺一不可。

  • 趋势二:API / Token 价格显著下滑,有利于 AI 软件 / 服务与设备端 AI,加速 AI 应用多元化

  • 当前从生成式 AI 趋势中获利的方式,主要仍是卖铲子与降低成本,而非创造新业务或提升现有业务的附加价值

  • DeepSeek-R1 采取了激进的定价策略,提供免费使用,且 API / token 定价最低者不到 OpenAI-o1 的 1/100,此竞争压力可能将推动 AI 使用成本下滑。AI 产业在中国市场竞争激烈,预计将有其他中国厂商推出性能优异且定价更激进的 LLM

  • 近期 AI 供应链相关股票大幅修正,主要原因是投资人调整了由于 Scaling law 边际效益放缓对 AI 服务器出货的负面影响,而非担心 LLM 服务供应商与 CSP 是否能够通过 AI 盈利,这是因为大部分投资人仍愿意耐心等待盈利的出现。

  • AI 软件 / 服务与设备端 AI 的成本因 API / Token 价格下滑与训练方法优化而降低,这有助于增加 AI 算力需求,并可降低投资人对 AI 投资能否获利的疑虑。

  • AI 的使用量肯定会因价格下滑而提升,但提升幅度是否能抵消下滑幅度仍需观察。此外,AI 使用量的提升有助于创造可盈利的商业模式,但这并非绝对。然而,在投资人普遍愿意耐心等待盈利的情况下,上述顾虑目前可以忽略。

  • 结论:

  • Scaling law 是经验法则,合理降低预期并理性看待反而有利于长期投资趋势。芯片升级 (C)、改善电力供应限制 (C) 与训练中加入更多多模态数据 (D) 等,都有利于未来再次加速 Scaling law 的边际效益。

  • 只有大规模部署者才会遇到 Scaling law 边际效应放缓,这也再次验证了英伟达的领先地位。等到英伟达方案的 Scaling law 边际效益再度加速时,预计届时其优势将更为显著(对比 ASIC 和 AMD)。

  • 近期 GB200 NVL72 量产不顺,因此此时调整 Scaling law 与 AI 服务器出货预期不是坏事。此次股价修正后,后续更有利反映 GB300 / Rubin 的利好。

  • 一线 CSP 不会仅因为有更好的训练方式而削减资本支出,因为两者并不冲突。如果此时放缓资本支出,等到 Scaling law 边际效益再次加速时,将落后竞争对手。

  • 开放社区资源与中国竞争激烈的环境,预计将见到其他中国厂商推出跑分优异且定价更激进的 LLM。届时,如果 LLM 服务供应商还未开始稳定盈利,盈利压力将进一步增加

  • 受益于 API / Token 价格显著下滑,AI 软件 / 服务与设备端 AI 将吸引更多投资者关注。而是否能成为新的长期投资趋势,取决于是否能够创造可盈利的商业模式。

  • Nvidia 仍然是未来 Scaling law 边际效益再次加速的赢家,但需要关注短期内 GB200 NVL72 量产问题以及中长期美国半导体出口禁令是否有所变化。

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部