摘要
【复盘与当下:投资方加码AI趋势显著】
国产算力加速变革中,投资方角度率先体现,互联网巨头capex倾斜AI趋势明显。国内主要互联网厂商(如字节跳动、百度、腾讯、阿里)在资本开支上有两大显著边际变化,一是总量扩大,各大厂商在AI算力扩展、AI芯片采购及数据中心升级领域的投入加速,二是结构优化,从传统互联网业务向AI相关领域的结构性转型,包括对AI模型训练平台和推理基础设施的倾斜较为明显:
字节跳动:在过去几年中,字节业务快速扩张,对技术和基础设施的投入不断增加,2024年字节资本开支达到800亿人民币,远超传统互联网巨头,巨额CAPEX主要是为了满足豆包等AI应用的快速发展需求以及自主构建大规模数据中心集群等。
腾讯:2023年腾讯的资本开支保持了较为稳定的增长,主要集中在互联网服务等传统业务领域,2024年腾讯的资本开支策略有明显变化,24Q3实现资本开支171亿元,同比增长114%,主要是公司对AI的投入增加。
阿里:阿里在2022年及之前就已经在云计算、大数据等领域进行了大量的投入,为后续AI业务发展奠定基础,24Q3 阿里资本开支为175亿元,同比增长239.4%,主要是围绕算力投资。
百度:在过去几年中持续投入大量资金进行 AI 技术的研发和应用,例如在自动驾驶、智能语音等领域取得了显著成果。
【展望:国内capex走向与受益环节】
我们认为,IDC建设、算力提升和AI技术研发有望成为互联网大厂在AI领域的重点投资方向:
数据中心建设:数据是AI发展的底座,互联网厂商需要大量的数据来训练和优化 AI 模型,因此,建设大规模、高效的数据中心有望成为互联网厂商的重点投资方向之一,包括数据中心的选址、建设、设备采购等方面均会获得投资。
涉及算力提升的相关软硬件领域:AI 技术的发展对算力的需求呈指数级增长,提升算力水平涉及到多重软硬件投资,包括购买高性能的服务器、GPU、光模块、交换机等硬件设备,以及研发和应用新的算力提升技术,如量子计算、边缘计算等。
应用研发:应用的不断创新是推动行业发展的关键,互联网厂商需要投入大量资金进行AI技术的研发,包括算法研究、模型训练、应用开发等。
互联网厂商在AI相关领域的资本投入,为多条产业链环节带来了显著利好。光模块供应商因数据中心通信需求的增长受益,国内光模块厂商有望获得更多订单和市场份额;交换机供应商也会受益于数据中心规模扩张和性能需求的提高;数据中心托管商凭借机房租赁和运维业务的增长实现快速发展;散热厂商则因液冷散热设备需求增加而受益;备用电源供应商随着数据中心可靠性要求的提升获得更多市场机会;服务器组装环节和电源供应商也因AI业务对服务器需求的增长迎来更大的订单和利润空间。
综上,我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国产算力龙头寒武纪-U,国产光通信厂商如光迅科技、德科立、华工科技等,交换机厂商如锐捷网络、菲菱科思(代工)等,温控散热厂商如英维克、高澜股份,第三方IDC 厂商如润泽科技、光环新网、奥飞数据等,关键通信部件厂商如中兴通讯、盛科通信等。
建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。
风险提示:AI发展不及预期,算力需求不及预期,市场竞争风险。
1. 投资策略:字节领跑,国内算力投资加码
本周建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。
铜链接:沃尔核材、精达股份。
算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。
液冷:英维克、申菱环境、高澜股份。
边缘算力承载平台:美格智能、广和通、移远通信。
卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。
数据可视化:浩瀚深度、恒为科技、中新赛克。
本周观点变化:
本周国内市场算力产业链火爆,字节产业链概念股、AI服务器、AIDC、交换机、铜缆高速互联、液冷散热等个股大涨,上涨的原因主要源于消息面的刺激,一是12月18日深圳市工业和信息化局印发的文件提出加快推进先进算力基础设施建设,鼓励市内重大算力基础设施以优惠价格提供算力服务;二是12月18日,在上海举行的2024火山引擎冬季FORCE原动力大会上,火山引擎总裁谭待宣布豆包大模型家族的重磅更新,豆包应用的火爆,给AI算力带来了无限想象空间。利好消息频出大幅提振市场信心,带动字节产业链概念股如乐鑫科技、视觉中国、润泽科技、光环新网周涨幅分别达到23.0%、21.3%、18.9%、7.0%,其中润泽科技周四20cm涨停,光环新网周四涨12.0%,乐鑫科技周五涨18.0%。
我们仍长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国产算力龙头寒武纪-U,国产光通信厂商如光迅科技、德科立、华工科技等,交换机厂商如锐捷网络、菲菱科思(代工)等,温控散热厂商如英维克、高澜股份,第三方IDC 厂商如润泽科技、光环新网、奥飞数据等,关键通信部件厂商如中兴通讯、盛科通信等。
2. 行情回顾:通信板块不变,量子通信表现最优
本周(2024年12月16日-2024年12月20日)上证综指收于3391.88点。各行情指标从好到坏依次为:沪深300>上证综指>万得全A >万得全A(除金融,石油石化)> 中小板综>创业板综。通信板块上涨,表现强于上证综指。
从细分行业指数看,量子通信、光通信、运营商、通信设备分别上涨5.1%、3.9%、2.4%、1.9%,表现优于通信行业平均水平;云计算、物联网、区块链、移动互联、卫星通信导航分别下跌1.3%、1.6%、2.6%、3.9%、4.7%,表现劣于通信行业平均水平。
本周,受益铜缆高速互联概念,博创科技上涨50.106%,领涨版块。受益CPO概念,光迅科技上涨29.610%;受益于国产芯片概念,飞天诚信上涨26.168%;受益算力概念,中兴通讯上涨22.357%;受益算力概念,大位科技上涨11.753%。
3.周专题:字节领跑,国内算力投资加码
【复盘与当下:投资方加码AI趋势显著】
国产算力加速变革中,投资方角度率先体现,互联网巨头capex倾斜AI趋势明显。国内主要互联网厂商(如字节跳动、百度、腾讯、阿里)在资本开支上有两大显著边际变化,一是总量扩大,各大厂商在AI算力扩展、AI芯片采购及数据中心升级领域的投入加速,二是结构优化,从传统互联网业务向AI相关领域的结构性转型,包括对AI模型训练平台和推理基础设施的倾斜较为明显:
字节跳动:在过去几年中,字节业务快速扩张,对技术和基础设施的投入不断增加,2024年字节资本开支达到800亿人民币,远超传统互联网巨头,巨额CAPEX主要是为了满足豆包等AI应用的快速发展需求以及自主构建大规模数据中心集群等。
腾讯:2023年腾讯的资本开支保持了较为稳定的增长,主要集中在互联网服务等传统业务领域,2024年腾讯的资本开支策略有明显变化,24Q3实现资本开支171亿元,同比增长114%,主要是公司对AI的投入增加。
阿里:阿里在2022年及之前就已经在云计算、大数据等领域进行了大量的投入,为后续AI业务发展奠定基础,24Q3 阿里资本开支为175亿元,同比增长239.4%,主要是围绕算力投资。
百度:在过去几年中持续投入大量资金进行 AI 技术的研发和应用,例如在自动驾驶、智能语音等领域取得了显著成果。
【展望:国内capex走向与受益环节】
我们认为,IDC建设、算力提升和AI技术研发有望成为互联网大厂在AI领域的重点投资方向:
数据中心建设:数据是AI发展的底座,互联网厂商需要大量的数据来训练和优化 AI 模型,因此,建设大规模、高效的数据中心有望成为互联网厂商的重点投资方向之一,包括数据中心的选址、建设、设备采购等方面均会获得投资。
涉及算力提升的相关软硬件领域:AI 技术的发展对算力的需求呈指数级增长,提升算力水平涉及到多重软硬件投资,包括购买高性能的服务器、GPU、光模块、交换机等硬件设备,以及研发和应用新的算力提升技术,如量子计算、边缘计算等。
应用研发:应用的不断创新是推动行业发展的关键,互联网厂商需要投入大量资金进行AI技术的研发,包括算法研究、模型训练、应用开发等。
互联网厂商在AI相关领域的资本投入,为多条产业链环节带来了显著利好。光模块供应商因数据中心通信需求的增长受益,国内光模块厂商有望获得更多订单和市场份额;交换机供应商也会受益于数据中心规模扩张和性能需求的提高;数据中心托管商凭借机房租赁和运维业务的增长实现快速发展;散热厂商则因液冷散热设备需求增加而受益;备用电源供应商随着数据中心可靠性要求的提升获得更多市场机会;服务器组装环节和电源供应商也因AI业务对服务器需求的增长迎来更大的订单和利润空间。
综上,我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国产算力龙头寒武纪-U,国产光通信厂商如光迅科技、德科立、华工科技等,交换机厂商如锐捷网络、菲菱科思(代工)等,温控散热厂商如英维克、高澜股份,第三方IDC 厂商如润泽科技、光环新网、奥飞数据等,关键通信部件厂商如中兴通讯、盛科通信等。
4. 火山引擎Force大会召开!AI新纪元开启?
据有连云报道,12 月 19 日,火山引擎 Force 原动力大会开发者论坛在上海世博中心举行。上午主论坛中亮相的火山方舟、扣子、豆包MarsCode 等产品,展示了从高代码到低代码,火山引擎如何在大模型时代通过大模型产品和能力,助力开发者高效创新。
12月18日,在火山引擎Force大会上,火山引擎官方宣布,截至12月中旬,豆包通用模型的日均tokens使用量已超过4万亿,较七个月前首次发布时增长了33倍。此前的全球月活跃用户排行榜显示,豆包App的MAU已接近6000万,仅次于OpenAI的ChatGPT,位列全球第二。字节跳动正式发布了豆包视觉理解模型、豆包3D生成模型,以及全面升级的豆包通用模型pro、音乐模型和文生图模型等。
字节跳动旗下的豆包通用模型日均 tokens 使用量在七个月内增长 33 倍,这一数据体现了大模型市场的强劲需求。随着大模型的不断发展和应用,其对算力的需求呈指数级增长。为了满足这种需求,云服务提供商需要不断扩充算力基础设施,包括建设更多的数据中心、购置大量的服务器和高性能计算设备等。这将直接带动硬件设备制造商、数据中心建设及运营企业的业务增长,为相关企业带来更多的订单和收入,比如浪潮信息等在算力领域具有优势的企业,有望在这一过程中持续受益。
目前火山引擎和豆包大模型已在零售、汽车、教育、金融、游戏等领域落地。随着技术的不断成熟和应用场景的不断拓展,更多的行业将开始采用云计算大数据和大模型技术来提升业务效率、创新业务模式和优化用户体验。
例如,在智能网联汽车领域,火山引擎的多模态数据湖解决方案已成功应用,帮助企业解决了数据处理和分析的难题,实现了成本降低和效率提升。在金融领域,大模型可用于风险评估、投资决策、客户服务等方面;在医疗领域,可辅助医疗影像诊断、药物研发等。这些应用场景的不断拓展将为云计算与大数据企业带来更多的商业化机会,推动企业收入增长和盈利提升。
5. 英伟达CEO黄仁勋:GB200正满载生产进展顺利
据C114报道,英伟达CEO黄仁勋明确表示,GB200正处于满载生产阶段,且整体进展顺利。
黄仁勋进一步强调,英伟达最新的Blackwell平台服务器在推理过程中不仅实现了高效能与节能的完美结合,其性能更是实现了惊人的30倍提升。这一表述不仅彰显了英伟达在技术创新方面的强大实力,也为Blackwell平台服务器赢得了更多的市场关注。
黄仁勋直言,“越来越多公司争相建设AI能量,三个月的时间差可能就会改变游戏规则。”他还对Blackwell平台服务器“超强性能”信心喊话,有稳定军心味道,也为鸿海、广达、纬创、英业达等GB200 AI服务器代工厂出货吞定心丸。
值得一提的是,鸿海、广达等首批负责出货GB200 AI服务器的代工厂此前已经透露,他们计划在今年年底前实现小批量出货,并在明年第一季度实现大规模放量。如今,随着黄仁勋的出面稳军心,这些代工厂对于GB200 AI服务器的出货前景更加乐观,纷纷确认将按照既定计划推进,并有望为各自公司带来实质性的营收增长。
此外,在接受采访时,黄仁勋还透露了Blackwell平台AI芯片的出货进展同样顺利,并再次强调了其卓越的效能。他指出,以往需要花费数月时间处理训练模型所需的数据并进行模型训练,而现在通过Blackwell平台,这一过程的时间可以缩短至原先的三分之一到四分之一。
原先需要六个月的时间来完成训练模型的工作,现在仅需一个半月左右即可完成。这一改进无疑将极大地提升AI模型的训练效率,为AI技术的广泛应用提供更加坚实的基础。
6. 苹果、英伟达强强联手:LLM推理加速利器ReDrafter开源,AI性能提升2.7倍
据C114报道,苹果公司12 月 18 日发布博文,宣布和英伟达(Nvidia)合作,通过开源 Recurrent Drafter(ReDrafter)推测解码方法,显著提升了 AI 大语言模型(LLM)的推理速度。
苹果公司表示 ReDrafter 已集成到 NVIDIA TensorRT-LLM 推理加速框架中,在 NVIDIA GPU 上,每秒生成 tokens 速度最高提升 2.7 倍,有效降低了用户延迟和计算成本。
苹果的机器学习研究人员指出,LLM 越来越多地用于驱动生产应用程序,提高推理效率对降低计算成本和用户延迟至关重要。
援引苹果官方博文,ReDrafter 使用 RNN 草稿模型,结合波束搜索(beam search)与动态树注意力(dynamic tree attention),可以让开源模型每步生成最多 3.5 个 tokens,超越了先前推测性解码技术的性能。
为将 ReDrafter 应用于生产环境,苹果与 NVIDIA 展开合作,将其集成到 NVIDIA TensorRT-LLM 框架中。
英伟达为此添加了新的运算符并公开了现有运算符,增强了 TensorRT-LLM 对复杂模型和解码方法的适应性。
基准测试结果显示,在 NVIDIA GPU 上使用集成了 ReDrafter 的 TensorRT-LLM 框架,数百亿参数规模的生产模型的解码速度提升了 2.7 倍。这不仅降低了用户体验延迟,还减少了 GPU 使用数量和功耗。
7. 软银宣布未来四年在美投资1000亿美元 主要涉及AI等领域
据C114报道,软银公司首席执行官孙正义在与即将上任的美国总统唐纳德·特朗普举行的新闻发布会上承诺,该公司将在未来四年内在美国投资1000亿美元。
在当选总统后的首次新闻发布会上,特朗普表示,这笔投资将创造10万个就业岗位,主要集中在人工智能和相关基础设施领域。这笔投资将分散在特朗普的四年任期内,覆盖数据中心、半导体和能源等多个领域。
2016年12月,在特朗普首个任期开始前,孙正义也曾做出投资500亿美元的承诺,并预计创造5万个就业岗位。
据彭博社报道,截至9月底,软银资产负债表上的现金和等价物为3.8万亿日元(250亿美元)。软银从去年Arm Holdings的首次公开募股中获益匪浅,目前持有Arm Holdings 90%的股份。
越来越多的大科技公司高管表示支持特朗普,孙正义就是其中之一。
在同一次新闻发布会上,特朗普还表示,他可能会在1月19日,也就是他宣誓就任总统的前一天,改变即将实施的Tik Tok禁令。
8. Meta推出Apollo开源模型,让AI“看懂”视频
据C114报道,Meta 携手斯坦福大学,推出全新 AI 模型系列 Apollo,显著提升机器对视频的理解能力。
视频包含复杂的动态信息,人工智能更难处理这些信息,不仅需要更多的计算能力,而且如何设计最佳 AI 视频解读系统,也存在诸多困难。
在视频处理方面,研究人员发现,保持每秒恒定的帧采样率能获得最佳结果。因此 Apollo 模型使用两个不同的组件,一个处理单独的视频帧,而另一个跟踪对象和场景如何随时间变化。
在模型训练方面,团队研究表明训练方法比模型大小更重要。Apollo 模型采用分阶段训练,按顺序激活模型的不同部分,比一次性训练所有部分效果更好。
9. “AI巨兽”Databricks拿下百亿美元融资,估值升至620亿美元
据路透社12月18日报道,AI 独角兽企业 Databricks 通过成功筹集 100 亿美元获得了 620 亿美元的估值,这笔融资成为历史上最大的一轮风险投资之一。
Databricks 预计将在明年 1 月 31 日结束的季度首次实现正向自由现金流,并计划在 1 月突破 30 亿美元的年化收入。公司还预计,在接下来的财年将实现 38 亿美元的收入。
Databricks 的联合创始人兼 CEO Ali Ghodsi 表示,剩余的资金将被用于吸引顶级 AI 人才、投资新 AI 产品,并为潜在的初创公司并购提供资金。Databricks 能够在收入迅速增长的同时实现正现金流,得益于公司努力放缓员工扩张,并将部分岗位外包至成本较低的地区。
虽然 Databricks 被普遍认为是未来可能上市的公司,但此次融资为其提供了更多的灵活性,从而推迟了首次公开募股(IPO)。Ghodsi 表示:“我们相信,这家公司未来将成为公开公司,‘何时’比‘是否’更重要。理论上最早可能是在明年,但我们现在有了一些灵活性。对管理层来说,我们最关注的是为员工提供流动性机会。”
此次融资金额超越了 OpenAI 在 10 月筹集的 66 亿美元(当前约 480.89 亿元人民币),反映了市场对简化 AI 应用的企业的需求巨增,推动了像微软支持的 OpenAI 和埃隆 马斯克的 xAI 等初创公司估值的急剧上升。
Databricks 总部位于旧金山,为包括 Jack Dorsey 领导的支付公司 Block、通信巨头 Comcast、电动汽车制造商 Rivian 以及能源公司 Shell 在内的 1 万家客户提供数据分析服务。目前,该公司员工已达 7000 人,正与市值约为 570 亿美元的 Snowflake 展开竞争。
10. 谷歌发布AI图像生成新工具Whisk,支持上传多张图片以图生图
据C114报道,谷歌12月17日发布了一款名为 Whisk 的全新 AI 图像生成工具,该工具允许用户使用其他图像作为提示来生成图像,而不需要冗长的文本提示。用户只需提供图像,即可指定 AI 生成图像的主题、场景和风格。
使用 Whisk 时,用户可以为主题、场景和风格分别提供多张图像作为提示。(当然,用户仍然可以选择使用文字提示。)如果手头没有合适的图像,用户还可以点击骰子图标,由谷歌自动填充一些图像作为提示(这些图像似乎也是 AI 生成的)。此外,用户还可以在流程的最后阶段在文本框中输入一些文字,以添加关于目标图像的额外细节,但这并非必需步骤。
Whisk 随后会生成图像,并为每张图像生成相应的文本提示。如果用户对生成结果满意,可以选择收藏或下载图像;如果需要进一步调整,则可以通过在文本框中输入更多文字或点击图像并编辑文本提示来进行优化。
谷歌在一篇博文中强调,Whisk 的设计初衷是“快速的视觉探索,而非像素级的精细编辑”。该公司还表示,Whisk 可能会出现“偏差”,因此允许用户编辑底层的提示。
据体验者称,在短暂的使用过程中,Whisk 带来了有趣的体验。图像生成需要几秒钟的时间,虽然生成的图像有时会有些奇怪,但所有生成的内容都易于迭代修改。
11. ChatGPT重大更新:新增实时搜索和高级语音
据C114报道,OpenAI开启了第八天技术分享直播,对ChatGPT搜索功能进行了大量更新。此次ChatGPT新增的功能亮点纷呈。其中,实时搜索功能尤为引人注目。OpenAI对搜索算法进行了深度优化,使得用户提出问题后,能在极短的时间内(分钟级别)获取到包括股票、新闻等在内的实时内容。这一更新无疑极大地提升了搜索的时效性和实用性。
不仅如此,ChatGPT在搜索结果呈现上也做出了改进。现在,用户在获取内容的同时,还可以直接看到源链接,只需轻轻一点即可直达原文。更令人兴奋的是,一些视频类内容甚至可以直接在ChatGPT中播放,为用户带来了更加便捷、直观的搜索体验。在交互方式上,ChatGPT也迈出了重要一步。它支持高级语音模式,让用户能够以更自然的方式与ChatGPT进行多轮搜索对话。这一模式仿佛为用户配备了一位专属的语音搜索管家,只需通过语音查询即可轻松获取所需信息。例如,用户可以询问有关旅行目的地的最新圣诞活动信息、当地的天气预报,甚至是活动创意等。值得一提的是,ChatGPT的语音助手还提供了10种预设的语音风格供用户选择,进一步满足了用户的个性化需求。
此外,ChatGPT在移动端也进行了全面优化。无论是安卓、iOS还是平板等移动设备,用户都能享受到更加流畅、高效的搜索体验。据数据显示,移动端的使用效率提升了40%以上。
ChatGPT还新增了地图集成功能。用户可以直接在搜索结果中查看周边的地理位置信息,进行路线规划和地点探索。这一功能的加入,不仅丰富了ChatGPT的搜索场景,也为未来的商业模式发展埋下了伏笔。有观点认为,这一功能未来有望与餐厅、商城等商业实体进行深度合作,为用户带来更加便捷、全面的服务体验。
12. 风险提示
AI发展不及预期,算力需求不及预期,市场竞争风险。
本文节选自国盛证券研究所已于2024年12月21日发布的报告《国盛通信丨字节领跑,国内算力投资加码》,具体内容请详见相关报告。