中国联通业界首次提出大模型能力边界量化基准

全文1433字,阅读约需5分钟,帮我划重点

划重点

01中国联通业界首次提出大模型能力边界量化基准,为语言大模型的应用选型提供理论和经验指导。

02该评估基准包括文本生成、理解、关键信息抽取、逻辑推理、任务规划等5大类能力,细分为27类子能力。

03研究团队对8个不同规模的模型进行测试和评估,得到不同参数量模型在各种任务上的可靠评估结果。

04根据能力要求确定模型参数量,可依据某项任务对模型性能的底线要求来选择相应参数的规模。

05为此,中国联通研究团队探索设计模型选型使用“说明书”,集成到元景MaaS平台,为开发者提供选模型指引。

以上内容由腾讯混元大模型生成,仅供参考

IT之家 12 月 27 日消息,据中国联通官方今日消息,该公司借鉴动物智能演化规律,结合大模型实际落地应用实践,在业界首次提出大模型能力边界量化基准,定量分析主流语言大模型能力边界,详细刻画模型参数量、模型能力与应用场景之间的关系,为语言大模型的应用选型提供理论和经验指导,将有助于降低语言大模型应用门槛。

相关研究成果以 <What is the Best Model? Application-Driven Evaluation for Large Language Models> 为题发表在自然语言处理权威会议 NLPCC 2024 上,相应的评估基准已向业界开源

图片

借鉴动物智能演化规律

一般来说,动物的脑神经元越多,脑容量越大,智力水平就越高。另外,不同智力水平的动物擅长的任务种类和难度也各不相同,即使小如乌鸦的大脑,也可以完成“乌鸦喝水”这样的任务。

图片

动物智能演化规律

相似地,在语言大模型中,扩展法则指出模型参数量越大,模型能力越强,相应的算法消耗和应用成本也越高。然而这样的定性分析是不够的,大模型能力边界定量刻画的缺乏,导致在实际应用中经常出现“高射炮打蚊子”的情况。因此对大模型能力边界的定量刻画是必要且紧迫的。

构建大模型能力评估基准

中国联通研究团队从实际应用场景维度出发,对语言大模型主要能力进行归纳、梳理和总结,建立了应用驱动的大语言模型能力评估基准。该评估基准包括文本生成、理解、关键信息抽取、逻辑推理、任务规划等 5 大类能力,又细分为 27 类子能力

图片

语言大模型主要能力

针对 27 类子能力,中国联通研究团队构建了相应的评测任务和由易、中、难三个难度等级的 678 个问答对构成的评估数据集。为避免数据泄露问题,所有数据均由专家团队人工编写。

图片

应用驱动的语言大模型能力评估数据集

量化主流大模型能力边界

团队设计了专家评估和基于大模型的自动化评估方法,对同一家族 8 个不同规模的模型(0.5B、1.8B、4B、7B、14B、32B、72B、110B)进行测试和评估,避免模型架构、训练数据等非模型参数量因素对评估结果产生干扰,得到了不同参数量模型在各种任务上的可靠的评估结果。从下图的评测结果可以看出,不同参数量模型能力不同,模型参数量越大,模型能力越强,对于复杂任务需要使用大参数量模型

图片

图片

不同参数量模型在各类任务中的准确率

依据能力要求确定模型参数量

根据语言大模型能力边界测评结果,团队提出了一种简单可行的模型选型方法,指导模型落地应用时的参数选型。总的来说,针对不同任务,任务难度越高要求参数越大;针对同一任务,参数越大模型性能越好。

具体地,可依据某项任务对模型性能的底线要求来选择相应参数的规模,以图中任务为例:

  • 在用户需求准确率为 80% 的前提下,对于拼写错误校正任务,14B 以上模型可获 90 分以上;

  • 对于逻辑错误检测任务,110B 以上模型可达 90 分以上;

  • 如果同时应用多个任务,先为每个任务选择合适的模型,再选择其中参数量最大的模型即可

选型过程中不需要用户对大模型有深入了解,这将降低用户选择使用大模型的门槛,促进大模型普惠化。

图片

模型参数量选择方法示例

探索设计模型选型使用“说明书”

在元景大模型应用落地中,中国联通基于上述评估基准,打造评估工具,量化 1B、7B、13B、34B 和 70B 等元景基础大模型的能力边界,并分别将其用于违规短信分类、投诉工单分类、客服助手、渔业知识问答、元景 App 问答等场景,提炼“模型参数量-模型能力-应用场景”关联关系(如下图),作为大模型使用“说明书”,集成到元景 MaaS 平台,为开发者提供选模型指引

图片

模型参数量-能力-场景的对应关系图

IT之家附论文链接:https://arxiv.org/abs/2406.10307h

评估基准:https://github.com/UnicomAI/UnicomBenchmark/tree/main/A-Eval