【国盛通信】重视AIDC基建,推荐“四大四小”

摘要

事件:ChatGPT服务器跳闸,微软数据中心电力故障。北京时间12月27日凌晨2点30分左右,Open   AI的AI服务器中断服务,影响 ChatGPT 聊天机器人、Sora 视频生成模型以及部分   API 调用。OpenAI称“此问题是由上游提供商引起”。而作为 Open AI 的独家云服务提供商,微软   Azure 同日也报告数据中心出现“电源”问题,因此可以初步判断,微软数据中心电力故障或是本次事件的主要原因。而在此之前,Open AI服务器就曾多次出现停电问题:在过去90天内,API调用曾有8次停电事故,其中3次重大停电;ChatGPT聊天机器人曾有11次停电事故,其中6次重大停电。且自12月11日Sora上线至今,API调用、ChatGPT聊天机器人不到一个月已发生2次重大停电。


AIDC基建——电源是稳定性的基石。AIDC一般有24/7全天即时相应的需求,且其电流需求高顿瞬变,每微妙变化甚至可达2000A,因此电能供应对于AIDC的稳定性至关重要。数据中心电源根据其应用场景可分为服务器电源和UPS备用电源。


  • 服务器电源:服务器电源负担着为服务器集群提供稳定、高效电能供应的任务,高压电从电网进入数据中心后,一般包含AC/DC、DC/DC等组件,AC/DC电源模块包含电源模块(PSU)和电源管理控制器(PMC),其中PSU负责将来自电网的交流电转换为服务器电子组件所需的直流电,PMC通过监控和调整服务器电源的供应和消耗来实现最佳的电源管理,以提高服务器的能效和性能。在电源系统中,AC/DC转换器先将交流电转为50V直流电,接着主板上的DC/DC转换器再将电压转换成12V、5V、3V和0.8V等。


  • UPS备用电源:即不间断电源,是一种含有储能装置的不间断电源。当市电输入正常时,UPS将市电稳压后供应给负载使用,此时的UPS就是一台电稳压器,同时它还向机内电池充电。当市电意外中断时,UPS立即将电池的直流电能,通过逆变器切换转换的方法向负载继续供应电能,使负载维持正常工作并保护负载软、硬件不受电网波动而造成损坏。


Open AI服务器最近90天,尤其是在Sora发布后频繁出现重大电力事故意味着其日益增加的计算需求已为电力供应系统带来巨大负担。电力是一切数据中心运行的必要条件,未来随着数据中心电力需求的逐渐增长,我们认为数据中心电源供应商有望受益于提高数据中心稳定性的需求。建议重视相关标的,如服务器电源厂商麦格米特、欧陆通;USP备用电源厂商科华数据等。


AIDC设备——国产化趋势加速,从芯片到服务器、交换机、光通信全行业受益。国内主要互联网厂商如字节跳动、腾讯、阿里巴巴等资本开支均开始向AI倾斜,且总量逐步扩大。我们认为,多条产业链环节将因为互联网厂商在AI相关领域的资本投入受益。芯片厂有望受益于算力需求的增长;服务器和其他通信设备厂商将有望受益于数据中心规模扩张;交换机厂商与光通信厂有望因数据中心的扩建需求和性能需求的提高而受益;其他提升AI性能的技术有望在AI发展中受益。建议重视相关标的,如国产算力龙头寒武纪-U,服务器和其他通信设备厂商中兴通讯,交换机厂商锐捷网络,光通信厂商光迅科技,同时建议关注市值更小的企业如边缘侧算力厂商美格智能,长距离光模块主要供应商德科立,MPO供应商太辰光,光通信原件厂商东田微等。


综上,我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国内“四大四小”:

中兴通讯(国内通信龙头,AI为终端、交换、数字能源等业务打开增长空间);

锐捷网络(国内交换机龙头,与互联网企业构建长期合作关系);

寒武纪-U(国产GPU龙头,产品逐渐成熟中);

光迅科技(光模块老牌厂商,受益于国内算力投资提速及产能扩张);

美格智能(智能模组领跑者,智驾渗透率提升奠定业绩基础,AI终端发力打开想象空间);

德科立(DCI提供出海新机遇,2025新品扩张正当时);

太辰光(算力互联密度提升,MPO维持高景气度)

东田微(消费电子增长打底,隔离器紧缺助推通信板块发力)。


建议关注:

算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、海格通信。


数据要素——

运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。


风险提示:AI发展不及预期,算力需求不及预期,市场竞争风险。


图片


图片

1.   投资策略:重视AIDC基建

本周建议关注:


算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。

铜链接:沃尔核材、精达股份。

算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。

液冷:英维克、申菱环境、高澜股份。

边缘算力承载平台:美格智能、广和通、移远通信。

卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。


数据要素——

运营商:中国电信、中国移动、中国联通。

数据可视化:浩瀚深度、恒为科技、中新赛克。


本周观点变化:


本周国内市场光通信市场火爆,主要原因为从字节到华为到小米的AI投资主题驱动,同时叠加AEC等新技术的放量,想象空间进一步扩大。自上周火山引擎冬季FORCE原动力大会举办后,12月26日全国规模最大、设施最先进、功能最齐全的华为鸿蒙生态中心 —— 鸿蒙生态(武汉)创新中心揭牌启用,同日界面新闻报道小米正在着手搭建自己的GPU万卡集群,将对AI大模型大力投入。多重利好消息大幅提振市场信心,中际旭创、天孚通信、德科立本周涨幅分别达到7.67%、7.02%、5.48%。

 

我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国内“四大四小”:中兴通讯、锐捷网络、寒武纪-U、光迅科技+美格智能、德科立、太辰光、东田微。

2. 行情回顾:通信板块下跌,光通信表现最优

本周(2024年12月23日-2024年12月27日)上证综指收于3400.14点。各行情指标从好到坏依次为:沪深300>上证综指>万得全A >中小板总>万得全A(除金融,石油石化) >创业板综。通信板块上涨,表现强于上证综指。


图片


从细分行业指数看,光通信、运营商、量子通信分别上涨4.5%、2.8%、2.7%;云计算下跌2.5%,表现优秀于通信行业平均水平;卫星通信、通信设备、物联网、移动互联、区块链分别下跌4.0%、4.7%、4.8%、6.7%、7.4%。


本周,受益储能概念,中恒电气上涨42.079%,领涨版块。受益植物照明概念,实益达上涨31.829%;受益于铜缆高速互联概念,博创科技上涨28.841%;受益铜缆互联概念,金信诺上涨13.679%;受益液冷概念,科华数据上涨12.574%。


图片

3.周专题:重视AIDC基建,推荐“四大四小”

事件:ChatGPT服务器跳闸,微软数据中心电力故障。北京时间12月27日凌晨2点30分左右,Open AI的AI服务器中断服务,影响 ChatGPT 聊天机器人、Sora 视频生成模型以及部分 API 调用。OpenAI称“此问题是由上游提供商引起”。而作为 Open AI 的独家云服务提供商,微软 Azure 同日也报告数据中心出现“电源”问题,因此可以初步判断,微软数据中心电力故障或是本次事件的主要原因。而在此之前,Open AI服务器就曾多次出现停电问题:在过去90天内,API调用曾有8次停电事故,其中3次重大停电;ChatGPT聊天机器人曾有11次停电事故,其中6次重大停电。且自12月11日Sora上线至今,API调用、ChatGPT聊天机器人不到一个月已发生2次重大停电。


AIDC基建——电源是稳定性的基石。AIDC一般有24/7全天即时相应的需求,且其电流需求高顿瞬变,每微妙变化甚至可达2000A,因此电能供应对于AIDC的稳定性至关重要。数据中心电源根据其应用场景可分为服务器电源和UPS备用电源。


  • 服务器电源:服务器电源负担着为服务器集群提供稳定、高效电能供应的任务,高压电从电网进入数据中心后,一般包含AC/DC、DC/DC等组件,AC/DC电源模块包含电源模块(PSU)和电源管理控制器(PMC),其中PSU负责将来自电网的交流电转换为服务器电子组件所需的直流电,PMC通过监控和调整服务器电源的供应和消耗来实现最佳的电源管理,以提高服务器的能效和性能。在整个电源系统中,AC/DC转换器先将交流电转为50V的直流电,接着主板上的DC/DC转换器再将电压转换成12V、5V、3V和0.8V等。


  • UPS备用电源:即不间断电源,是一种含有储能装置的不间断电源。当市电输入正常时,UPS将市电稳压后供应给负载使用,此时的UPS就是一台电稳压器,同时它还向机内电池充电。当市电意外中断时,UPS立即将电池的直流电能,通过逆变器切换转换的方法向负载继续供应电能,使负载维持正常工作并保护负载软、硬件不受电网波动而造成损坏。


Open AI服务器最近90天,尤其是在Sora发布后频繁出现重大电力事故意味着其日益增加的计算需求已为电力供应系统带来巨大负担。电力是一切数据中心运行的必要条件,未来随着数据中心电力需求的逐渐增长,我们认为数据中心电源供应商有望受益于提高数据中心稳定性的需求。建议重视相关标的,如服务器电源—麦格米特、欧陆通;USP备用电源—科华数据等。


AIDC设备——国产化趋势加速,从芯片到服务器、交换机、光通信全行业受益。国内主要互联网厂商如字节跳动、腾讯、阿里巴巴等资本开支均开始向AI倾斜,且总量逐步扩大。我们认为,多条产业链环节将因为互联网厂商在AI相关领域的资本投入受益。芯片厂有望受益于算力需求的增长;服务器和其他通信设备厂商将有望受益于数据中心规模扩张;交换机厂商与光通信厂有望因数据中心的扩建需求和性能需求的提高而受益;其他提升AI性能的技术有望在AI发展中受益。建议重视相关标的,如国产算力龙头寒武纪-U,服务器和其他通信设备厂商中兴通讯,交换机厂商锐捷网络,光通信厂商光迅科技,同时建议关注市值更小的企业如边缘侧算力厂商美格智能,长距离光模块主要供应商德科立,MPO供应商太辰光,光通信原件厂商东田微等。


综上,我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国内“四大四小”:

中兴通讯(国内通信龙头,AI为终端、交换、数字能源等业务打开增长空间);

锐捷网络(国内交换机龙头,与互联网企业构建长期合作关系);

寒武纪-U(国产GPU龙头,产品逐渐成熟中);

光迅科技(光模块老牌厂商,受益于国内算力投资提速及产能扩张);

美格智能(智能模组领跑者,智驾渗透率提升奠定业绩基础,AI终端发力打开想象空间);

德科立(DCI提供出海新机遇,2025新品扩张正当时);

太辰光(算力互联密度提升,MPO维持高景气度)

东田微(消费电子增长打底,隔离器紧缺助推通信板块发力)。

4. 国产大模型DeepSeek-V3开源:6710亿参数自研 MoE,性能和 GPT-4o 不分伯仲

据C114报道,“深度求索”官方公众12月26日发布博文,宣布上线并同步开源 DeepSeek-V3 模型。


援引博文介绍,DeepSeek-V3 是一个 6710 亿参数的专家混合(MoE,使用多个专家网络将问题空间划分为同质区域)模型,激活参数 370 亿,在 14.8 万亿 token 上进行了预训练。


多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能比肩 GPT-4o 和 Claude-3.5-Sonnet 等世界顶尖闭源模型。


该模型在知识、长文本、代码、数学和中文等方面均取得显著进步,尤其在算法代码和数学方面表现突出,生成速度提升至 60 TPS,相比 V2.5 提升了 3 倍。


官方开源了原生 FP8 权重,并提供 BF16 转换脚本,方便社区适配和应用。SGLang、LMDeploy、TensorRT-LLM 和 MindIE 已支持 V3 模型推理。


DeepSeek-V3 更新上线的同时,DeepSeek 还调整了 API 服务价格,模型 API 服务定价也将调整为每百万输入 tokens 0.5 元(缓存命中)/ 2 元(缓存未命中),每百万输出 tokens 8 元。

5.  融资启新,“独角兽”企业象帝先终迎曙光

据C114报道,国内GPU厂商象帝先计算技术(重庆)有限公司,(以下简称象帝先)发布公告,表明公司正进行组织结构和人员配置优化,寻找融资机会。


12月26日,象帝先发文表示,公司新一轮融资已有重大进展。营销团队在困境中寻求突破,积极与上下游客户沟通合作,完成了与多家整机厂商、主流软件厂商的测试适配。凭借产品的高性能、稳定性和良好兼容性,逐渐赢得客户认可。


此外,象帝先研发团队在已量产GPU产品的基础上,不断深耕细作,优化性能,完善解决方案,为营销团队提供了强力保障。同时,象帝先也未停止对未来新产品核心架构的研究与技术创新。


如今,象帝先新一代产品量产流片研发,市场业务拓展,都有了必要的资金支持。在妥善处理了离职员工的欠薪等问题之后,许多老员工表达了强烈的回归意愿,同时象帝先社会化招聘也已开启,即将翻开崭新发展篇章。


据悉,象帝先在获得了重庆2024年“独角兽”企业称号的同时也收获了高新技术企业、专精特新中小企业、创新型中小企业以及中小型硬科技企业等称号。展望未来,象帝先表示,将继续秉持技术创新的理念,稳步推进市场拓展,新产品研发,生态建设等工作。不断优化产品设计,提升产品性能,确保产品在市场竞争中保持领先地位,共同构建更加完善的产业生态链

6.   OpenAI ChatGPT AI服务再次“跳闸”,初步推测为微软数据中心电力故障导致

据C114报道,OpenAI 的 AI 服务器再次“跳闸”,本次系统服务中断于北京时间 12 月 27 日凌晨 2 点 30 分左右开始,影响 ChatGPT 聊天机器人、Sora 视频生成模型以及部分 API 调用。OpenAI 公司北京时间12约27日凌晨 3 点发布动态,称 ChatGPT、API 及其文本到视频生成器 Sora“目前错误率很高”。


OpenAI 公司随后于北京时间今天早上 6 点 05 分更新状态,OpenAI 宣布“ChatGPT 已部分恢复”,但聊天历史记录仍然无法加载,修复工作仍在进行中,何时完全恢复尚无明确时间表。


至于本次服务中断原因,OpenAI 公司并未具体说明,只是称“此问题是由上游提供商引起”。而作为 OpenAI 的独家云服务提供商,微软 Azure 今天也报告数据中心出现“电源”问题,因此可以初步判断,微软数据中心电力故障或是罪魁祸首。


本次 ChatGPT 服务中断并非个例,过去几个月已发生多次类似事件。本月早些时候,OpenAI 向 ChatGPT 订阅用户发布 Sora 视频生成工具后不久,ChatGPT 和 Sora 就曾中断服务数小时。

7. Anthropic联合创始人:AI尚未发展至极限,2025年将继续高速狂飙

据C114报道,Anthropic 联合创始人杰克 克拉克(Jack Clark)表示,得益于传统模型的规模化扩展和新模型、新方法的百花争鸣,2025 年 AI 领域继续在高速路上狂飙。


克拉克在其 Import AI 博客中,反驳了 AI 发展已达到极限的说法,他表示,o3 模型并非简单地增大模型规模,而是利用强化学习和额外的计算能力,为规模扩展开辟了全新的可能性。


克拉克预估各大公司通过结合扩展基础模型,并在训练和推理过程中整合新的方法,在 2025 年进一步推动 AI 领域的快速发展。


克拉克认为,大多数人都没有为即将到来的快速发展做好准备,他警告说:“我认为现阶段没有人能预估 AI 未来的快速发展。”


援引博文介绍,他同时也强调了计算成本是一个主要挑战,高配版 OpenAI o3 模型所需计算能力是其基本版本的 170 倍,而 o3 低计算版成本又是 o1 模型的数倍,因此更大的算力需求和高额成本,可能会进一步推动 AI 硬件的发展。

8.   LightCounting:CPO发展现复苏势头,部署或将很快开始

据C114报道,近日,光通信市场研究机构LightCounting在最新的市场报告中指出,AI驱动下,预计未来5年高速线缆的销售额将增长两倍之多,到2029年将达到67亿美元。


有源电缆(AEC)和有源铜缆(ACC)的市场份额将逐渐超过无源直连铜缆(DAC)。与DAC相比,AEC和ACC的传输距离更长,厚度更薄。ACC的另一个优势是延迟更低,这对人工智能集群至关重要。


不过,LightCounting指出,到2029年,DAC仍将占高速电缆总出货量的50%。由于DAC无源,因此是数据中心提高能效的默认连接解决方案。对于人工智能集群而言,最大限度地降低功耗最为关键。英伟达的策略就是尽可能多地部署铜缆,绝对必要时才使用光缆。


随着人工智能技术的不断演进,英伟达和许多其他公司面临的下一个挑战是如何将高带宽互连扩展到单机架之外。将 GPU集群从36-72颗芯片扩展到500-1000颗芯片是加速人工智能训练的最佳选择。在未来3年内,即使是推理集群也可能需要多达1000颗GPU才能支持更大参数的模型训练。


Meta目前使用ACC将两个机架上的GPU互连,每个机架上有36颗GPU,但这种方法可能无法扩展到更多机架和更高的GPU数量。


LightCounting认为,CPO可能是在4-8机架系统中提供数万个高速互连器件的唯一选择。下图比较了到2029年,1.6T线缆类和传输距离50m的1.6T CPO端口的出货量占比。


LightCounting表示,CPO的有限部署应该很快就开始。到2028-2029年,CPO极有可能成为1.6T及更高速互连的可行选择。LightCounting的预测还包括3.2T CPO端口的出货,预计到2029年将超过1000万个,这其中还不包括IB和以太网连接所需的光模块。


LightCounting认为,部署传输距离50m的CPO不会减少可插拔光模块或任何高速线缆的市场机会。它将NVLink连接从板载或铜缆背板扩展到多机架配置,这确实是光互连的一个新市场。


业内专家指出,光模块速率持续升级,在功耗控制、单比特传输成本优化、传输时延等方面对光模块提出了更高的要求,发展低成本、低功耗和低时延的高速光模块势在必行。


CPO提出的初衷主要是降低功耗,但是由于客户对可靠性和可维护性等问题的担心,以及可插拔技术路线的进步(单通道达到200Gb/s、LPO低功耗方案等),使得CPO的规模商用进程一直在往后推迟。


不过,AI发展势头迅猛,开放计算全球峰会 2024(OCP 2024)期间,产业界表示CPO离现实更近了一步。也有专家认为,800G/1.6T会有更多LPO/LRO的创新,到了3.2T以上会走向CPO。

9.  亚马逊云科技发布6款基础模型,Amazon Bedrock新接入超100款模型

据C114报道,在2024 re:Invent全球大会上,亚马逊云科技围绕生成式AI、数据战略和云服务三大领域,推出了一系列技术,致力于帮助企业客户重塑云上创新体验。


在生成式AI领域,亚马逊云科技推出了Amazon Nova六款基础模型,并强化了Amazon SageMaker、Amazon Bedrock和Amazon Q等核心服务,通过更低的训练和推理成本、更多的模型选择、更深入场景的应用全面加速企业应用生成式AI创新。


其中,Amazon Nova Micro、Lite和Pro应用成本比Amazon Bedrock中表现最佳的模型至少降低75%;Amazon Bedrock新接入100多款模型,并推出AI防护、多智能体协作和模型蒸馏等更新,全面优化推理场景的准确性、成本和响应速度;Amazon Q更加深入软件开发和商业应用场景,并为传统工作负载转型开辟新途径;Amazon SageMaker AI将帮助客户更快更轻松地构建、训练和部署模型。


在数据战略方面,亚马逊云科技发布了新一代Amazon SageMaker,为数据、分析和AI提供统一平台;同时,Amazon S3新增Tables存储类型和元数据功能,以及无服务器分布式SQL数据库Amazon Aurora DSQL,将进一步提升用户的数据管理能力。


在云服务方面,推出搭载Trainium2芯片的新型计算实例和为万亿参数模型提供实时推理性能的超级服务器。据悉,基于Amazon Trainium2的EC2 Trn2实例已正式可用,较当前GPU实例性价比提升30-40%;配备64个Trainium2芯片的EC2 Trn2 UltraServers服务器计算能力是单一实例的四倍。


亚马逊云科技大中华区产品部总经理陈晓建表示:“我们不仅在云的核心服务层面持续创新,更在从芯片到模型,再到应用的每一个技术堆栈取得突破,让不同层级的创新相互赋能、协同进化。我相信,只有这样全栈联动的大规模创新才能真正满足当今客户的发展需求,加速前沿技术的价值释放,助力各行各业重塑未来。

10.  o3模型点亮OpenAI发布会:突破、局限与趋势

据C114报道,OpenAI从2024年12月5日起举行了连续12个工作日的发布会,发布内容涵盖了模型、技术、产品功能、合作等领域。发布会不仅是OpenAI技术更新的展示,也是AI产业未来趋势的重要信号。


OpenAI在最后一天发布新一代推理模型o3系列的预览版(o2因与英国运营商O2重名跳过)。相比o1,o3在理解复杂任务、逻辑推理、多模态支持、可控性等方面的性能有显著提升,在多个基准测试中达到或接近饱和点。o3 mini则平衡了性能与成本,在某些场景下性能优于o1。根据OpenAI的安全研究计划,目前o3仍处于早期安全测试阶段,并面向公众开放测试申请。


OpenAI在发布会首日推出o1完整版,相较预览版速度更快(响应速度快50%)、性能更强(在数学、科学、编码等方面的ML基准测试中表现更佳)、准确率更高(错误率减少34%),并新增多模态输入功能。随后发布了基于o1模型的专业领域定制化方案——强化学习微调技术(RFT)、开放o1 API、实时API集成WebRTC、偏好微调等更新,提升模型的专业性与可用性。


Sora正式版于第三天发布,除了基础的文本/图片/视频生成视频功能之外,还加入了故事板编辑工具、场景混合和循环视频制作等高级编辑功能,支持最高分辨率1080p和最长20秒的视频输出。

11. 马斯克旗下xAI宣布完成60亿美元C轮融资,英伟达和AMD等参投

据C114报道,埃隆 马斯克创立的生成式人工智能公司 xAI 宣布完成 60 亿美的 C 轮融资。本轮融资吸引了众多知名投资机构和科技巨头的参与,包括 A16Z、贝莱德、富达管理与研究公司、王国控股、光速创投、MGX、摩根士丹利、OIA、卡塔尔投资局(QIA)、红杉资本、Valor Equity Partners 以及 Vy Capital 等。值得注意的是,GPU 巨头英伟达和 AMD 也参与了本轮投资。


这是 xAI 在今年 5 月完成上一轮 60 亿美元融资后的又一次大规模融资。今年夏季,xAI 在孟菲斯推出了拥有高达 10 万块英伟达 H100 GPU 的超级计算机。据 CNBC 上月报道,xAI 当时的目标估值为 500 亿美元,而本次融资的主要用途预计是采购另外 10 万块英伟达 GPU,以进一步扩充其算力规模。本月早些时候,孟菲斯商会透露,马斯克最终计划将这台名为“Colossus”的超级计算机扩展到约 100 万块 GPU 的规模。

xAI 在其融资公告中表示:“本轮融资将用于进一步加速我们先进基础设施的建设,推出将被数十亿人使用的突破性产品,并加速未来技术的研发,以实现公司理解宇宙真正本质的使命。”


xAI 一直将自身定位为 OpenAI 的替代者。马斯克目前正在起诉 OpenAI,指控其偏离了最初的非营利宗旨。马斯克曾公开批评 OpenAI 的 ChatGPT 过于“觉醒”和“政治正确”,并声称 xAI 的 Grok 追求“最大程度的真相”。xAI 称,旗下迄今为止最强大的模型 Grok 3 目前正在训练中。


xAI 成立于 2023 年 3 月,此后发展迅速,其产品已深度集成到马斯克旗下的社交媒体平台 X(原 Twitter)中,并利用该平台的用户生成数据进行训练。本次巨额融资的完成,无疑将进一步推动 xAI 在人工智能领域的发展,并加剧其与 OpenAI 等竞争对手的角逐。


12.  风险提示

AI发展不及预期,算力需求不及预期,市场竞争风险。

本文节选自国盛证券研究所已于2024年12月29日发布的报告《国盛通信丨重视AIDC基建,推荐“四大四小”》,具体内容请详见相关报告。

图片

图片

图片

图片