瞭望中国式创新⑥丨打通算力“巴别塔”,中国AI要造自己的算力电网?

从人工智能、具身智能脑机接口到量子计算等领域,科技创新在中国大地上浪奔浪流,新一代创业者以原始创新为使命,破土而出。


联想创投作为联想集团的“科技瞭望塔”,以“科技•产业•CVC”为特色,坚定投早、投小、投硬科技。截至目前,联想创投累计投资超过300家科技企业,其中有141家被投企业上榜国家级及省市级专精特新、62家上榜国家级“小巨人”,培育出50余家细分领域的独角兽。


瞭望中国式创新①丨机器人如何“触碰”物理AI的未来?


瞭望中国式创新②丨脑机接口全球竞速,中国能否对标Neuralink?


瞭望中国式创新③丨跳出二维屏幕,机器人如何“读懂”三维世界?


瞭望中国式创新④丨从科研工具到商用底座,量子计算何时迎来“AlphaGo时刻”?


瞭望中国式创新⑤丨细菌抗癌迈向精准时代,150年难题就此破解?


当ChatGPT、DeepSeek等引爆大模型时代,稀缺与割裂的算力,如何才能转化为普惠的新质生产力?


本期“中国式创新”聚焦联想创投生态中的基础设施先锋——无问芯穹。面对高端芯片一卡难求和国产异构芯片“巴别塔困境”,这支清华系团队选择了一条软硬件协同优化路径。


他们成功构建了跨越异构、异域、异属芯片的“算力世界语”,让国内分散的算力资源像国家电网一样统一调度、高效流通。这不仅大幅降低了AI应用的成本和门槛,也为中国AI算力生态的突围与规模化落地提供了最优解。


——编者按



“AI好像比我更会写。”

“跟AI聊天,像和真人聊天一样。”

“已经分辨不出哪些图是AI生成的。”


犹记得AI刚出圈那会儿,听不懂人话、P图张冠李戴、卡壳装死是常态,被网友们调侃为“人工智障”。


然而短短1、2年时间,AI风评大反转,不知不觉间,AI变聪明了。对我们来说,只是觉得AI越来越好用了,但在这背后,除了技术的进化,更隐藏着一个中国算力觉醒的宏大命题。


算力,是驱动所有人工智能应用的引擎和大脑,它决定了AI能多快理解你的指令、为你生成答案。如果算力跟不上,再厉害的AI也无用武之地。


无问芯穹的故事,就是这个算力觉醒大叙事中的一个篇章。


2022年11月,ChatGPT横空出世,世界仿佛一下子被拉进了AI的快车道,这对中国创业者来说,既是机会,也是挑战。技术洪流卷席着无数大模型公司奔涌向前,但算力焦虑,像一堵高墙,横亘在无数中国创业者面前。


一方面,英伟达芯片一卡难求,又不是所有人都能用得上、用得起;另一方面,国产芯片深陷“巴别塔困境,不同芯片之间、不同地区的智算中心之间“语言不通”、生态割裂、难以流通,导致大量算力资源错配,闲置、浪费严重,无法有效转化为AI生产力。


这是无问芯穹联合创始人、CEO夏立雪和团队看到的机会。


在清华读博期间,他便深耕软硬件协同优化,目标很纯粹:面向模型,“压榨”出硬件的最后一分性能,简言之,即在当前芯片现状下,通过减少浪费让算力资源最大化。这简直是为当下中国的算力难题量身定制的解题方案。


于是,夏立雪和导师汪玉迅速组建团队,无问芯穹应运而生。公司要做的事就是将不同芯片各自的“方言”翻译成一门统一的“世界语”,让这些不同品牌、不同类型、不同架构的芯片能互联互通,高效协作,从而将原本浪费的算力统一调度起来,输送给大模型使用。


图片

第八届进博会上,无问芯穹展出无穹AI云交互体验机,让观众直观感受到如何在不同芯片上部署和运行不同的顶尖大模型。


听起来似乎不难,但这背后需要的技术攻坚和生态构建,却是一场硬仗。


首先,需要发明一门“世界语”,打通不同芯片之间的算力;其次,仅打通算力还不行,不同芯片擅长不同“工种”,还需要在分配任务时因片制宜。如此,才能实现算力的高效流通。要做到这一步,本身就需要攻破很多技术瓶颈,更别说现实情况往往更复杂,地理距离、带宽限制、人际沟通等都是一道道需要跨越的鸿沟。


如果给无问芯穹所做的事下个定义,大模型时代的顶尖基础设施供应商或许是更贴切的表达。像国家电网将不同来源的电力整合成“一张网”,输送给千家万户,让算力像电力一样,也成为基础设施资源,输送给不同需要者。


图片

无问芯穹打通多种异构芯片生态壁垒,让算力像电力一样,成为基础设施资源。


“我们打造的是一个能兼容多元芯片的基础设施,目标就是把更多算力用起来,让大模型乃至智能体的落地成本降下来,让AI真正成为千行百业用得起的新质生产力。”夏立雪说,“之前几次工业革命,科技突破的主场都在西方;而现在,中国在AI的算法和数据等方面已经积累了独特优势,如果能进一步打开算力的上限,那么,中国就有机会第一次站在技术创新的浪潮之巅,第一次成为领跑者,引领AI产业的革命。”



图片



在效率洼地寻找破局点



无问芯穹成立于2023年5月,但故事的开始,远早于这一天。


无问芯穹的发起人汪玉教授,38岁便就任清华大学电子工程系系主任,长期专注于智能芯片、高效电路与系统的研究,是芯片领域公认的大咖。


2013年,彼时汪玉还是清华大学电子工程系副教授,不久后他的第一位正式博士生夏立雪也进入了汪玉的NICS-EFC实验室。这个实验室主要做的事,是针对深度学习的软硬件联合优化,用夏立雪的话说,就是“面向模型,‘压榨’出硬件的最后一分性能”。


人工智能的升级,需要软硬件共同实现,有三条技术路径:一是从算法等软件层面提升效率;二是像英伟达一样做硬件迭代;三就是NICS-EFC实验室深耕多年的软硬件联合优化。


但早期的AI 1.0时代,模型主要针对特定场景开发,图像识别模型与语音处理模型之间结构差异较大,这意味着有100个场景,就需要100个模型,就需要做100次联合优化,2016年汪玉教授首次孵化的AI芯片公司深鉴科技走的就是这条路。对当时的夏立雪来说,像为不同应用修建“专用车道”,规模小,无法复用,这让他深感瓶颈。


图片

从AI 1.0时代的专用模型到AI 2.0时代的通用模型。


转折发生在2020年左右,GPT-3展现出了Transformer在多种任务上的巨大通用性,大模型的出现让用相同模型来支持不同场景成为可能,也让夏立雪看到了一条“通用高速路”。“我们实验室积累了十多年的技术,终于可以从服务于一个点状场景,扩展为支撑千行百业的算力底座。”夏立雪的兴奋可想而知。


到2022年末,ChatGPT一鸣惊人,在全球范围内掀起巨大的浪潮,AI二字,仿佛一夜之间就从科幻变成了现实。夏立雪意识到:机会真的来了!


很快,创始团队的成员集结,无问芯穹成立,夏立雪担任CEO。这支来自清华大学的豪华阵容团队让无问芯穹自成立伊始就备受行业关注——在热火朝天的大模型训练下,算力成了最稀缺的资源。


芯片方面,国内和全球顶尖水平大概还有至少两代的差距,高端芯片供不应求;产业方面,尽管近几年智算中心成了“新基建”的主旋律,国内的算力规模也大幅增长,但大量配置或地理位置不够理想的集群利用率低,空置、浪费严重;生态方面,国内面临巴别塔难题,特有的AI基础设施情况是多模型和多芯片,不同厂商的芯片架构和指令集互不兼容,这就带来了大量异构算力,简单理解,就是用了A芯片的开发者很难迁移至B芯片工作,两种芯片也无法共同完成大模型训练或推理。


既然高端芯片不足一时难以解决,通过互联互通、“南水北调”把当下已有的异构算力高效利用起来,也未尝不是解决问题的好办法。而这种办法,与无问芯穹的技术路径不谋而合。


图片

无问芯穹通过打造“M种模型”和“N种芯片”间的“M×N”中间层产品实现多种大模型算法在多元芯片上的高效、统一部署。


2025年初,DeepSeek爆火出圈,刷新了世界对中国AI的认知,其最大的亮点,便是打破了ChatGPT带来的“天价成本才能训练出好模型”的认知,其基础模型V3总训练成本仅为557万美元,只有GPT-4o的1/20。


而低成本的背后,正是DeepSeek对于算力的高效利用,核心便是利用软硬件协同设计的思想,不断提升模型训练成本到模型尺寸、能力的转化率。这充分印证了无问芯穹多元异构、软硬协同技术路径的可行性。


“未来的算力生态必然是多元且碎片化的,”谈及当前的异构算力现状,夏立雪表示,“异构的不完美,恰恰指明了核心攻关方向,性能瓶颈不在于芯片本身,而在于连接它们的‘协作策略’和‘调度系统’不够聪明。”


无问芯穹的目标,就是通过复杂的调度和优化技术,把现有硬件的潜力充分挖掘出来,让模型跑得更高效、更便宜,让即便是很小的AI创业者也能用得起算力、用得好算力



图片



从“好用”到“更好用”



如何实现?


简而言之,就是实现算力资源的统一标准化。在这一标准化体系中,既包括在功能层面打通不同类型算力的使用,也包括在效率层面实现任务的合理分配。


打个比方,异构算力就像是一个个封闭的村庄,彼此互不相通,而要打通这条“村村通公路”,至少需要解决下面两个问题:


首先是不同芯片之间的信息交互问题。和人类社会一样,芯片之间的通信也需要“语言”,不同构架的芯片“语种”各不相同,正如相邻的村镇大家说着不同的方言,自然难以沟通,夏立雪基于原本在清华大学电子系的技术积累,带领团队发明了一种让异构芯片之间能够顺畅交流的“世界语”,实现了不同芯片间的算力打通。


但仅打通算力还不行,不同的芯片擅长不同的“工种”,如果平均分配任务,就会出现“尖子生”空闲而“普通人”忙不过来的现象,造成算力浪费,要解决这一问题,就需要研究团队能预判每种芯片在实际执行中的速度和效果,从而在分配任务时就因片制宜。


无问芯穹给出了“一网三异”的独特解决方案。


在异构算力适配上,无问芯穹打造了“M×N”新范式,即连接“M种场景与模型”和“N种硬件与芯片”,实现了多种大模型算法在多元芯片上的高效协同部署。


2024年7月,无问芯穹在业内首次实现了六种不同品牌芯片间的交叉混合训练。这些芯片包括华为昇腾、天数智芯、沐曦、摩尔线程的产品,分别与AMD和NVIDIA的芯片进行组合,在支持了700亿参数规模的大模型训练的前提下,实现了高达97.6%的算力利用率,能够有效地帮助上层用户和应用任务屏蔽底层不同芯片之间的差异。


图片

2024年7月,无问芯穹大规模模型的异构分布式混合训练系统发布。


在异域联合训练技术上,无问芯穹全球首创跨机房训练技术,能够支持间距最远约2,000公里的跨机房训练,且可容忍最低至1GB/s的带宽。可大幅提升零散算力资源的可用性,让算力与数据流通更高效。


在异属算力资源高效调度方面,无问芯穹积极推动各个算力服务平台落地,建设算力生态,通过算力领域的“南水北调”,实现了跨域算力资源共享和配置优化,助力算力资源和下游产业协同发展。


通过这样一张网,无问芯穹将异构、异域、异属的算力汇聚到一起整合优化,让下游的AI创业者和开发者们,只需要一键购买,就能得到源源不断的算力。


要知道,在OpenAI刚推出ChatGPT时,大模型训练的算力成本是非常高的,这在无形中成为了无数AI创业者的拦路石。而无问芯穹通过深层次的软硬协同、联合优化,大大降低了大模型落地的算力成本,不仅让中小企业也用上了算力,更让国产算力得以被大众看见。


在这之前,人们对国产芯片心存疑虑,总会问一句:“异构算力能行吗?”


无问芯穹用行动给出了答案。


夏立雪曾分享过这样一个小故事:一家做AI应用的客户,在发布新版本时,算力服务需求量瞬间爆发,急需扩容。就在服务器要宕机的关口,无问芯穹给出建议,既然进口算力拿不到,何不试试其他算力。最终,在无问芯穹的优化调度下,客户的算力服务能力成功翻了一倍。


2025年年初,DeepSeek-R1爆火,无问芯穹迅速做了DeepSeek-R1模型在壁仞、海光、摩尔线程、沐曦、昇腾、燧原、天数智芯七家芯片上的深度适配与优化,在算力受限的条件下,通过软硬件协同优化有效提升了模型性能,构建了“模型-芯片-系统”的产业闭环,让大众看到异构芯片也“抗打”。


图片

2025年2月,无问芯穹逐一打通DeepSeek-R1在七大硬件平台上的便捷部署与推理服务。


“客户的真需求不是‘用什么芯片’,而是‘如何高效完成AI任务’。”夏立雪在采访中如此总结自己对客户的需求洞察。当算力像水电一样能够随取随用,源源不断,又何必再关心它来自什么品牌呢?


通过技术创新,无问芯穹让异构算力无感融入到了整个算力资源池,支撑起了中国大地上千行百业的AI创新,这或许是无问芯穹带给产业的更大价值。



图片



芯火燎原 无问西东



中国人“基建狂魔”的属性在无问芯穹身上体现得淋漓尽致。


26座城市、53个核心数据中心,成立2年半时间,无问芯穹正如夏立雪当初设想的那样,将中国的算力资源连成了一张网,成为了无数AI企业和科研机构背后的基础设施企业。


面对即将到来的智能体时代,夏立雪有更大的野心,并早就开始了从面向AI场景的基础设施到面向智能体场景的基础设施的布局与转型——构建完整的“智能体基础设施×(云+端)”技术与产品架构


“未来的AI世界,不会是‘云’或‘端’的二选一,而是一个云边端协同的完整体,是数字世界和物理世界的深度融合。”基于这样的趋势判断,无问芯穹在云端发力的同时,也没有落下在终端智能上发力。


比如,其推出的“端模型+端软件+端IP”终端智能一体化解决方案:端模型无穹天权(Infini-Megrez)能以3B的计算成本和7B的内存需求对标21B级的智能水平;端软件无穹开阳(Infini-Mizar)终端推理加速引擎,可以在主流硬件上实现3倍时延降低、40%的能耗节省和40%的内存占用;端IP无穹天璇(Infini-Merak)自研端侧LPU IP,在能效翻倍的基础上,能进一步大幅降低大模型推理成本。


图片

无问芯穹Mizar智能终端推理加速引擎能最大化端侧硬件性能的利用。


当下,以智能体为代表的人工智能技术正逐步从数字世界走向物理世界,借助电脑、手机、机器人等载体,真切地影响着人们的生活。


唯有从云、端双侧发力,才能更好地支撑数字世界与物理世界的智能体应用效能突破与持续进化。夏立雪说:“这样的双轨布局,不是为了做两件事,而是为了在下一场竞争中,构筑一个彼此增强的、‘活’的生态系统。”


近期,无问芯穹又连续推出了两款Agentic AI产品:


一款是面向云端的基础设施智能体蜂群,用于自动化调度、运维、优化算力服务。具体来说,就是让无问芯穹做出来的智能体,反过来参与到基础设施的工作流程中,使智能体生产的综合管理和运维成本下降了一个数量级。


图片

无问芯穹推出基础设施智能体蜂群,让算力平台以自治化的方式主动服务于研发任务和业务目标。


另一款是面向终端设备的通用推理加速与优化平台Kernel Mind,让端侧推理更快、更省、更稳。


凭借这种持续进化、全国领先的云端一体化能力,无问芯穹正在补全智能体落地最缺的那段基础设施能力。


而这,也是资本看好无问芯穹的重要原因之一。


2025年11月,无问芯穹迎来了一个单笔近5亿元的大额融资,联想创投就是其中之一。而且,这是继2024年9月之后,联想创投第二次追加投资。


夏立雪说,联想创投带来的核心价值在于一种深度的能力互换与融合:通过联想庞大的终端设备网络,无问芯穹的软硬件协同优化技术,获得了前所未有的规模化落地场景,从而将技术潜力转化为了实实在在的市场影响力。


在联想即将量产的下一代AI PC等终端设备上,搭载了无问芯穹的Mizar智能终端推理加速引擎和Megrez端侧大模型,这样的双向奔赴,让无问芯穹的技术真正走进了消费者中。这意味着每一项算法优化、每一次引擎升级,都能在千万级的真实用户场景中即刻得到验证和反馈,形成一个“研发-落地-反馈-再优化”的闭环,这是初创公司难以独立构建的壁垒。


图片

无问芯穹与联想合作,打造下一代现象级AI PC等智能终端设备。


“当一项优化技术能从芯片层贯穿到用户体验层时,它释放的价值将是现象级的。”夏立雪在采访中表示,“我们正与联想一起,让这个现象加速成为现实。”


“在单点技术不是最领先的情况下,通过系统级的工程创新和紧密的产学研用协作,然后将技术快速、大规模地应用于庞大而复杂的实体经济中,在解决实际问题的过程中完成技术的迭代与价值的创造。”夏立雪如此总结中国式创新在AI算力赛道上的核心特质。


这是无问芯穹正在走的路,也是包括AI算力赛道、新能源赛道、具身智能赛道等各行各业的无数中国企业们正在走的路。


中国式创新的大潮,在中国大地这片充满复杂应用场景与无限可能的热土上奔涌,并在全世界迸发出越来越大的影响力。


“非常幸运,能在全球技术范式切换的窗口期,用我们积累最深的能力,去解决一个时代级的痛点。”作为亲历这场大潮并勇立潮头的创业者,夏立雪用“幸运”来形容自己的感受。


这样的“幸运”,正在成为中国式创新的主旋律。



图片



对话无问芯穹联合创始人、CEO夏立雪


图片


Q:目前行业存在“算力过剩与算力缺口并存”的矛盾:部分智算中心算力利用率不足30%,而中小企业却面临“算力贵、用不起”的问题。无问芯穹的模式,能否真正解决这种资源错配?未来是否会出现“算力交易所”这类新形态,重构行业的资源分配逻辑?


 夏立雪:  这个矛盾正是我们选择出发的原因之一。


市场上不缺算力,但缺的是能让中小企业拎包入驻的成熟算力服务。传统服务像毛坯房,只有大企业才有能力自己装修。我们的角色,就是打造一个设施齐全、管理完善的商业广场,把各种来源的算力整合优化后,让中小企业能直接“开店”,快速用上。


我们的核心能力不是占有更多硬件,而是通过复杂的调度和优化技术,把现有硬件的潜力充分挖掘出来;同时让所有模型跑得更高效、更便宜。我们专注于做好模型与硬件之间的桥梁,通过系统级创新降低整个AI链条的成本。


“算力交易所”是一个很好的未来构想。但要实现它,前提是必须有人先做好我们正在做的事——把异构、分散的算力资源,变成标准、稳定、可高效调度的服务。简单说,我们先当好这个“服务商”,把路铺通、把服务做好,让算力先真正流动起来。当高效的算力服务像水电一样普及时,“交易所”那样的形态才会自然出现。



Q:在通往AGI的道路上,您认为我们目前正处于哪个关键阶段?从您所处的基础设施领域来看,最具颠覆性的变革体现在哪里?会带来什么影响?


 夏立雪:  Open AI从技术角度将人工智能发展划分为五个阶段,结合中国的产业生态情况,我们认为从产业落地来看,目前正处于深化L3“自主式AI”并迈向L4“创新型AI”的关键过渡期。这一阶段的焦点,是智能体(Agent)在产业中的大规模落地与持续进化。


这一演进对基础设施提出了颠覆性的要求。其核心在于,Agent的任务不再是过去那种离散、单一的指令,而是一个具有记忆、状态和上下文关联的连续任务体系。这意味着,基础设施必须具备一定的智能性,能够保障Agent执行任务的质量。换句话说,基础设施要从“生产线工厂”转变为“解决方案公司”,为Agent的整体产出质量提供系统性支撑。


而更会“思考”的基础设施,会带来更多创新需求,这些新需求又会推动技术研发的进一步升级,形成了一个良性的技术与应用双向飞轮。



Q:进入Agent时代,您觉得传统的算力使用方式是否会颠覆?将会通过何种路径颠覆?


 夏立雪:  会的。过去的AI算力基础设施通常以固定虚拟化或容器化单元来划分算力资源,每个“格子”大小固定、生命周期较长。这在传统AI训练和推理任务中问题不大,但在Agent场景下极不经济——一个智能体可能并行尝试上百个小任务,而每个任务所需资源仅为传统“格子”的十分之一。


然而,由于容器与虚拟机实例粒度过大、启动周期较长,系统在资源分配和调度上存在显著浪费。比如:容器冷启动过程(镜像加载、依赖初始化、网络绑定等)通常耗时数秒到数十秒,在高频创建和销毁任务的Agent场景中会造成大量时间损耗与资源空转。此外,资源在调度过程中被“预留锁定”,即使任务尚未实际运行,也会占用GPU或CPU Slot,进一步拉低整体利用率。


因此,良好的Agent Infra会通过微虚拟化沙箱、沙箱调度和高并发沙箱管理机制来颠覆这种传统模式,让算力按需动态拼装、快速回收,实现毫秒级环境切换和接近100%的资源利用。虽然Agent的智能推理确实增加了算力需求,但在这种优化后的架构下,增长是可控的,能以合理成本支撑更复杂的智能行为。



Q:公司前不久发布了新一轮融资的消息,锚定了智能体时代的Agentic Infra布局,这笔资金除了用于技术研发和商业化,在业务布局上是否有“反常识”的投入规划?


 夏立雪:  我们始终认为,基础设施必须面向智能发展前沿:它既是服务智能体开发与迭代的产线,也是智能体落地实践的绝佳试验场,更是支撑智能体规模化产业应用与持续进化的基石。而我们的另一个核心判断是:未来的AI世界不会是“云”或“端”的二选一,而是一个云边端协同的完整体,是数字世界和物理世界的深度融合。以智能体为代表的人工智能技术正逐步从数字世界走向物理世界,在电脑办公、移动响应与体力作业等典型的生产劳动场景中,借助云端基础设施、移动终端设备与具身机器人等载体影响现实。


所以面向智能体时代,无问芯穹不仅将持续扩大无问芯穹软硬协同、多元异构的技术领先优势,推动云与终端方案在产业中的规模化拓展;更会加大智能体基础设施研发投入,构建完整的“智能体基础设施×(云+端)”技术与产品架构,加速实现智能体在数字世界与物理世界中的规模化普惠应用。


进一步,支撑数字世界与物理世界的智能体应用效能突破与持续进化。这样的双轨布局,不是为了做两件事,而是为了在下一场竞争中,构筑一个彼此增强的、“活”的生态系统。