划重点
01清华大学刘知远教授团队发现并提出了大模型的密度定律(Densing Law),模型能力密度随时间呈指数级增长。
02根据密度定律,研究团队预测每100天,我们可以用一半参数量实现当前最优模型相当的性能。
03此外,研究还发现模型推理开销随时间指数级下降,大模型能力密度正在加速增强。
04然而,研究指出无法仅依靠模型压缩算法增强模型能力密度,模型高性价比有效期不断缩短。
05最后,密度定律揭示了端侧智能的巨大潜力,有望推动AI计算从中心端到边缘端的分布式特性协同高效发展。
以上内容由腾讯混元大模型生成,仅供参考
机器之心编辑部
支持大模型一路狂飙的 Scaling Law 到头了?
近期,AI 圈针对 Scaling Law 是否到头产生了分歧。一派观点认为 Scaling Law 已经「撞墙」了,另一派观点(如 OpenAI CEO Sam Altman)仍然坚定 Scaling Law 的潜力尚未穷尽。
其实以上争论的核心点在于,大模型的性能提升是否还能继续靠无限堆叠数据和参数规模从而大力出奇迹。
然而 Scaling Law 并非唯一的视角,近期,来自清华大学刘知远教授团队发现并提出大模型的密度定律(Densing Law)—— 模型能力密度随时间呈指数级增长,2023 年以来能力密度约每 3.3 个月(约 100 天) 翻一倍。这意味着每 100 天,我们可以用一半参数量实现当前最优模型相当的性能。
根据密度定律,研究团队还得出以下重要推论,并且发现 AI 时代的三大核心引擎——电力、算力与智力,都同样遵循密度快速增长趋势。
推论 1 :模型推理开销随时间指数级下降。 推论 2 :大模型能力密度正在加速增强 。 推论 3:模型小型化揭示端侧智能巨大潜力 。 推论 4:无法依靠模型压缩算法增强模型能力密度 。 推论 5:模型高性价比有效期不断缩短。
该定律还揭示了端侧智能的巨大潜力,并指出未来应持续探索大模型科学化建设路径,不断改进模型制造工艺,实现大模型的高质量、可持续发展。
相关研究成果可参考论文《Densing Law of LLMs》。
论文标题:Densing Law of LLMs 论文链接:https://arxiv.org/pdf/2412.04315v2