IBM Granite 3.0模型:为大规模企业AI应用指明方向

IBM在企业AI领域做出了一系列颇为独特的探索。蓝色巨人目前正在推动全栈技术布局,以自2020年来兴起的AI和混合云作为企业战略领域的两大基础性支柱,同时借鉴了自身在其产品组合中积累下的优势。

更重要的是,这套方案扭转了主要以AI概念验证为目标的总体趋势,转而专注于解决高度具体的业务用例,且执行效率更高。其通过基于内部企业数据构建并微调、与既定用途高度契合的AI基础模型作为达成目标的依托,而非选择由纯通用领域公共数据训练而成的普适性大语言模型。

就在几周之前,IBM正式发布了其全新Granite 3.0基础模型。除了将其作为上述战略规划的基础,蓝色巨人还在纽约举办了一场大型分析师活动,详尽介绍了公司当前探索方向以及相应运作成果,同时配合现场的实际用例展示了可量化的AI功能效果。我们也借此机会与IBM公司高管进行了交流访谈,希望加深对于蓝色巨人所做工作的理解。这既是对Granite 3.0模型的探究,也是对IBM整个AI战略的一份年度回顾。闲言少叙,我们马上进入主题。

运用Granite 3.0模型,在效率与性能间寻求平衡

让我们先从Granite 3.0模型聊起。作为一套在技术意义上的基础模型,这也是IBM开拓市场的方法论基础。受篇幅所限,本文将专门讨论该模型的业务影响力。

图片

据IBM介绍,企业数据在当今AI基础模型中的占比不足1%

新的Granite 2B与8B模型与我们从OpenAI、Meta乃至其他厂商处看到过的规模化大语言模型之间有着根本区别,后者这些拥有数千亿参数的大模型是由公共数据构建而成——也就是说,其训练素材为来自公共互联网上搜集而来的所有数据,包括用户可能关注的体育赛事比分、食谱、度假景区等各类信息。正如IBM公司CEO Arvind Krishna所言,如果我们并不清楚要用AI来做什么、或者需要搜索某些通用信息,那么这类模型无疑最为适合。

然而,这些大型公共语言模型的普适性定位,在企业环境中却面临着一系列重大挑战。首先,这些模型并不清楚特定公司在尝试解决具体业务问题时的狭义背景,毕竟它们无法访问到企业的内部账单信息、代码库或者来自供应链的统计数据。其次,大语言模型固有的强大训练和推理方法需要耗费海量资源,包括电力、数据中心算力(特别是昂贵的GPU算力)以及内存容量。

理想的作法当然是使用能够为更具针对性的用例提供准确答案的AI模型,并保证以经济高效、省时且节能的方式实现功能。这也正是IBM在其庞大数据平台背景之下,为全新Granite模型设定的基本定位。

图片

为IBM AI战略提供支持的数据平台,借鉴了蓝色巨人旗下技术组合中的多个不同领域

Granite模型到底有多高效?

此前版本的Granite模型已经具有很高的执行效率,但从各项统计指标来看,其性能仍未达到最高水平。但从我们亲自得出的基准测试结果来看,Granite的性能完全能够比肩(在多数情况下甚至超越)其他厂商的最佳同类模型。这也证明了IBM长期以来在研发方面投入的大量资源与心力(该公司早在两年之前生成式AI热潮出现之前,就一直致力于开发AI模型),也凸显出这类精心设计、专门面向数据库与ERP系统内结构化与非结构化数据的模型在特定业务场景下的卓越能力。

在本次纽约分析师活动中,IBM公司首席商务官Rob Thomas及研究主管Dario Gil带来了更多令人眼前一亮的成绩。Thomas指出,“现在我们在推理方面实现了40倍的性能提升。”Gil则补充称,IBM的内部数据显示“使用定制化专用模型能够显著节约实现成本,帮助客户以极低的投入获得更好的用例性能。”

除此之外,这里还要补充一点。像Granite这类体量相对较小的模型,不需要匹配最先进的GPU即可顺畅运行。换言之,用户可以在性能较差的GPU甚至是CPU上运行这些模型,使得它们在支撑应用场景时的运营成本降低至常规大模型的十分之一甚至二十分之一。

从“AI加力”到“AI优先”

这种技术和财务层面的实用性,也支撑起Thomas介绍的整体转变趋势。在过去几年里,企业已经可以将自己希望解决的任何问题和业务流程交付给AI,运用这项新兴技术成果改造自己的固有运营模式。Thomas表示,IBM意识到客户对于AI技术的态度已经发生根本性变化,逐步转向所谓“AI优先”思维。也就是说AI不仅仅是被附加在现有流程之上的加力因素,而是从设计初期就作为内置部分存在。在他看来,“未来十年谁能真正实施以AI为先的战略,谁就能在市场上拥有优异的表现。这也将成为新的业务运营常态。”

对于IBM的客户来说,最常规的操作流程就是先选择一套模型(Granite或者其他第三方模型),而后使用IBM的watsonx.ai运行该模型,再配合InstructLab产品根据自有业务数据对模型进行微调。IBM广泛产品组合带来的一大优势(所有这些都经过重新调整以支持其整体AI战略),就是客户可以根据自己的喜好运用IBM成果以满足自身AI需求。这种成果可以是完整的IBM解决方案,也可以是由IBM Maximo Application Suite提供的资产管理数据等。客户还可以使用红帽提供的数据管理要素,甚至与IBM咨询部门合作对其内容进行拆解分析。(顺带一提,IBM咨询部门继续保持着惊人的AI业务发展速度——根据蓝色巨人公布的最新收益报告,该部门的业务总额已经达到25亿美元。)换句话说,客户既可以亲自动手做出各种探索,也可以向IBM求助以尽可能满足自己的AI需求。

Thomas接下来介绍了IBM通过实际观察总结出的,企业AI能够为客户带来切实回报的关键领域,主要集中在客户体验、员工体验以及IT运营方面。在各种实际应用场景之下,AI模型、AI助手以及近期快速崛起的AI智能体正在批量识别模式、解决问题、检索相关信息、实施流程自动化改造并越来越多地采取自主行动,借此减轻员工的重复性工作量并创造出巨大的效率优势。他还列举了许多来自客户的特定用例,其中最令人印象深刻的数字,当数IBM在过去两年半中“通过实施我们的自有技术来提高生产力”,成功依托AI成果节约下20亿美元。(IBM高管们表示,他们预计后续节约数额还将进一步增加。)这也是IBM过去几年来,承诺在外部客户之前先行应用其AI产品所带来的巨大回报。

宽松许可和对治理的高度关注

IBM的方法论不仅为客户带来实用性,同时也高度关注企业AI在法律、财务和合规等领域的具体问题。虽然颇为“无聊”,但没有这些事务的加持,我们根本不可能正常开展业务。Granite模型采用极其宽松的Apache 2许可保护,与IBM对于开源议题的整体承诺相契合。Granite模型家族也同样经过IBM律师的严格审查,能够享受到IBM承诺的全额赔偿政策。

相信关注技术圈资讯的朋友都知道,近期开源社区一直在争论某些被宣传为开源的模型到底算不算“开放”。例如,反对者们注意到,Meta对其Llama模型的使用和微调方式就做出了不少实质性的限制,目的当然是为了增加其经济收益。相比之下,Apache 2许可在开源社区中则高度透明且广受好评。援引IBM的评价,Apache 2堪称“开放许可领域最宽松的许可协议”。

IBM在治理方面同样具有很大优势。在纽约的活动当中,Thomas表示自从IBM一年多前首次公布watsonx.governance以来,市场上就一直没有真正能与之竞争的同类产品。这样的情况着实令他感到惊讶。与此同时,同IBM保持合作的每一家全球系统集成商“都在全面使用watsonx.governance”。据Thomas介绍,“这是因为当今市场上真的没有其他方案可以帮助客户处理……不断变化的法规条款、如何向监管机构提交或认证报告内容、如何管理数据蔓延、如何管理风险等现实问题。”数据治理是IBM几十年来始终拥有出色表现的中车个“无聊”领域,我甚至严重怀疑是否有其他厂商能够在这个领域挑战蓝色巨人的传统优势。

IBM在AI领域的下一步计划

关于IBM的合作伙伴关系、AI智能体日益增长的现实应用、量子计算对于AI效能的加持作用以及蓝色巨人的其他未来规划,当然还有很多值得讨论的空间。例如,公司CEO Krishna就坚定认为,GPU从根本上讲无法满足未来几年的新增AI工作负载。在他看来,采用不同于以往的芯片设计方法有望在未来几年内将AI推理延迟进一步压缩,同时将所需电力控制在当前水平的百分之一。为了践行这一判断,IBM也在着手设计AI应用领域的定制芯片,其NorthPole芯片将采用完全不同的12纳米神经形态模拟架构。

更重要的是,IBM还希望以全栈、全部门覆盖的方式推动并落地企业AI战略。蓝色巨人已经拿下总额30亿美元的AI订单,其中包含大量咨询服务需求,客户显然希望借鉴IBM在多年经营之下积累得到的各种现实成果。

IBM还提出一个令人信服的论据,用Rob Thomas的话来说,AI将成为“推动企业生产力发展的强劲催化剂”。由此可见,AI已经成为蓝色巨人当前及下个阶段的发力重点。现在IBM需要进一步加大力度,包括增加推广投入、扩大销售范围并与Adobe及SAP等伙伴开展深度合作。简而言之,IBM当前的首要工作,就是对其此前所取得的成就做出一次漂亮的整理和总结。而随着Granite 3.0模型的发布,我们可以看到IBM显然决定走上一条多角度并进、以业务针对性为核心的战略路线,既涉及针对消费者优化的模型、又涵盖针对企业优化的模型和配套服务。总而言之,IBM正倾尽全力投身于企业AI应用。