分析丨亚马逊自研造芯,能否复制Graviton的成功经验?

·聚焦:人工智能、芯片等行业

欢迎各位客官关注、转发





前言

亚马逊目前拥有三款自主研发的芯片,分别是CPU芯片Graviton 4,主要与英特尔的产品竞争;


AI训练芯片Trainium 2,与英伟达的A100/H100等高端AI训练芯片竞争;


以及AI推理芯片Inferentia 2,与英伟达的A10等入门级AI推理芯片竞争。



作者 | 方文三
图片来源 |  网 络 

图片

[雷尼尔计划]:构建规模庞大的算力集群


近日,Anthropic公司联合创始人兼首席计算官汤姆·布朗在亚马逊AWS举办的年度全球大会上,正式对外公布了[雷尼尔计划]。


该计划的核心目标在于,Anthropic计划构建一个规模庞大的算力集群,其中将集成数十万枚亚马逊自主研发的芯片,这一数量将是Anthropic现有算力集群的五倍以上。


若[雷尼尔计划]得以实施,Anthropic将跻身全球最大的人工智能算力集群之一。


Anthropic是一家获得亚马逊投资的AI创业公司,其主要竞争对手为微软支持的AI创业公司OpenAI


Anthropic推出的Claude系列模型在性能上表现出色,是市场上为数不多能与OpenAI旗下GPT-4模型相媲美的产品。


Anthropic选择使用亚马逊自研芯片的一个关键因素在于亚马逊是其主要投资者,两家公司之间存在深度的合作关系。


亚马逊还期望Anthropic能够采用其自研的Trainium系列AI训练芯片和Inferentia系列AI推理芯片来部署其大型模型。


在这样的合作框架下,Anthropic的大量训练和推理算力需求将直接促进亚马逊AWS的收入增长;


并可能吸引一批对生成式AI技术感兴趣的商业客户,进而推动其他基础云服务产品的交叉销售。


图片

[登月]计划:在自身数据中心部署十万颗自研芯片


近日,彭博社报道,为降低对英伟达芯片的依赖,亚马逊已悄然启动一项名为[登月]的计划。


该计划的核心是在其位于德克萨斯州奥斯汀的工程实验室中,加速开发一款名为Trainium2的新型人工智能芯片。


该芯片的开发目标是在亚马逊自身的数据中心内部署十万颗,旨在提升数据处理的效率并降低人工智能芯片的采购成本。


Trainium2的研发始于亚马逊在2015年收购Annapurna Labs之后,该项目便在秘密中进行。


根据亚马逊提供的数据,Trainium2相较于前一代产品,在训练速度上提升了四倍,能效提升了两倍,内存容量更是达到了之前的三倍。


该芯片能够在EC2 UltraClusters中扩展至十万颗芯片,从而在极短的时间内训练基础模型和大型语言模型。


目前,Trainium2芯片正在接受包括Anthropic、Databricks、Stockmark等人工智能初创公司以及德国电信、日本理光等多家客户的测试。


在今年十月,Databricks与亚马逊网络服务(AWS)签署了一项全面的合作协议,承诺采纳AWS的Trainium芯片。


尽管Databricks的AI工具目前主要依赖于英伟达的硬件平台,但该公司已计划逐步以Trainium芯片取代部分现有硬件。


亚马逊AWS的首席执行官马特·加曼近期宣布,计划在2025年量产新一代AI训练芯片Trainium 3。


该芯片采用3纳米工艺,性能是前代产品Trainium 2的两倍,性价比预计提升40%。


Trainium3芯片是为满足下一代生成式人工智能工作负载的高性能需求而专门设计的,它将帮助客户更快速地构建更大规模的模型,并在模型部署时提供卓越的性能。


图片


云厂商自研AI芯片的意愿愈发强烈


目前,亚马逊的AWS和阿里巴巴的云服务已经实现了CPU的大规模量产,有效减少了计算能力的成本。


即便面临更高的成本,为了摆脱对外部技术的依赖,部分云服务提供商仍然坚持自主研发的策略。


数据中心芯片市场主要由CPU芯片和GPU/AI芯片两大领域构成。在GPU/AI芯片市场中,英伟达公司占据了主导地位,其市场份额超过九成,目前受到的影响相对较小。


然而,这种情况可能不会持久。近年来,云服务提供商为了在大型模型这一关键领域占据优势,大量采购英伟达的AI芯片,导致其资本支出大幅增加。


因此,云服务提供商自行研发AI芯片的意愿愈发强烈。


若云服务提供商能够实现自主研发芯片的大规模生产,其采购与运营成本将得以显著降低。


2024年,亚马逊AWS全球新增的CPU算力中,超过一半将基于Arm架构的Graviton系列芯片,其规模已超越x86架构芯片。


第三方数据表明,2023年推出的M7g系列实例中,基于Amazon Graviton的实例已与英特尔、AMD形成三足鼎立之势,这进一步证实了Graviton芯片在通用计算实例中的广泛认可。


根据云成本管理和优化平台Vantage的调查报告,2024年第一季度,在Amazon EC2 M7系列通用实例的成本支出方面,采用Graviton的M7g系列的市场份额已超过三分之一(34.5%)。


至2024年第二季度,在Amazon RDS、Amazon ElastiCache和Amazon OpenSearch等托管服务中,基于Amazon Graviton的选项已超越英特尔,越来越多的客户倾向于选择基于Graviton的托管服务。


包括苹果公司、全球最大的ERP(企业资源管理)软件企业SAP、AI创业公司Anthropic、知名数据分析企业Datadog、社交平台Pinterest在内的多家知名企业,都是亚马逊AWS三款自研芯片云服务的用户。


苹果公司的搜索产品采用了Graviton 4和Inferentia 2的云服务,其机器学习推理工作负载的效率提升了40%以上。


图片


规模优势是降低成本的最优解


若非亚马云科技所具备的规模优势,Amazon Graviton便难以吸引众多用户,其出货量亦不会如此庞大。


规模优势的缺失将导致Amazon Graviton的成本无法降低,正是云服务的规模与芯片制造的规模共同铸就了Amazon Graviton的成功。


云计算的庞大规模为亚马逊云科技提供了硬件研发的坚实基础,而硬件研发的成果又进一步促进了技术创新。


这些创新成果随着规模的扩大而不断放大效益。


同时,技术创新亦反向推动了云计算服务能力的提升,形成了一个良性循环。


规模效应在其他自研芯片上的作用亦不可忽视。


除了Amazon Graviton之外,亚马逊云科技还自主研发了基于ASIC芯片的Amazon Nitro系统,以及专为机器学习训练设计的Amazon Trainium和用于机器学习推理的Amazon Inferentia芯片,这些芯片同样得益于亚马逊云科技的规模优势。


真正的考验在于大规模部署时,用户的实际反馈将决定新芯片的成功与否。


AWS的一个显著优势在于其芯片能够以更低的能耗运行,这使得其数据中心的运行更为高效,从而有助于降低成本。


若将英伟达的GPU比作强大的通用工具,那么亚马逊则能够针对特定任务和服务优化其芯片。


分析师指出,对于大多数企业而言,选择英伟达还是亚马逊并非紧迫问题。


因为大型企业更关注如何从运行人工智能模型中获取价值,而非如何训练它们。


这样的市场趋势对亚马逊而言是利好消息,因为客户不会注意到云服务背后是由哪家芯片厂商提供支持。


定制硬件可以提供非常具体的并行化功能,这可能比通用型GPU的性能更优。


图片

结尾:任何技术路径所面临的挑战都是巨大的


与英伟达的GPU相比,亚马逊的芯片更专注于特定任务的优化,正如小型轿车与全能旅行车的比较,亚马逊的芯片更为精简和高效。


尽管亚马逊投入巨大,但目前AWS和Annapurna在人工智能基础设施市场中对英伟达的影响仍然有限。


此外,由于初期用量低,可能会导致高昂的成本,再加上研发成本,这无疑对公司在推进自研芯片方面构成了挑战。


在软件领域,挑战更为严峻。目前全球主要的通用并行图形处理单元(GPGPU)大多依赖于英伟达的CUDA生态系统,若不兼容则难以部署。


这使得英伟达在软硬件结合方面具有显著的先发优势。重新构建软件生态系统虽然是一条可行之路,但一旦成功,将带来巨大的商业利益。


然而,分析人士认为,亚马逊目前提供的Neural SDK软件工具尚处于起步阶段,尚无法与英伟达的解决方案相抗衡。


总结而言,亚马逊Trainium2芯片的抱负堪比人类登月,一旦成功,其商业回报将是巨大的。然而,如同登月任务充满风险,Trainium2芯片要成功替代英伟达H100,还有很长的路要走。


部分资料参考:财经杂志:《下一个OpenAI+微软?Anthropic将使用数十万枚亚马逊自研芯片》,Z Finance:《亚马逊迎来对英伟达关键一战,正部署10万颗自研二代芯片》,智能进化论:《自研芯片逾十年,亚马逊云科技Graviton系列芯片全面成熟》,雷锋网:《亚马逊自研3nm Trainium芯片,能否成为英伟达之外的第二选择?》,电子发烧友网:《亚马逊启动[登月]计划,目标部署10万颗自研AI芯片》,快客硬核AI:《亚马逊推出自研AI芯片,挑战Nvidia市场霸主地位》


本公众号所刊发稿件及图片来源于网络,仅用于交流使用,如有侵权请联系回复,我们收到信息后会在24小时内处理。