1.UCL等研究机构发现LLM在推理时,并非简单地照搬答案,而是通过一种「程序性知识」,进行泛化。
2.研究发现,在涉及「世界上最长的河流」、「人体最常见的元素」等问题时,模型所依赖的数据集并不相同。
3.然而,一旦涉及到数学题这类推理问题,LLM却使用了某种策略,从文档中综合出了一种「程序性知识」。
4.通过定性分析,研究人员确认这些具有影响力的文档通常都包含程序性知识,如展示了如何使用公式或代码求解的过程。
5.尽管研究结果提供了证据,而非证明,但这项发现令人们更加关注LLM的能力和局限性。
以上内容由腾讯混元大模型生成,仅供参考
新智元报道
新智元报道
【新智元导读】LLM在推理时,竟是通过一种「程序性知识」,而非照搬答案?可以认为这是一种变相的证明:LLM的确具备某种推理能力。然而存在争议的是,这项研究只能提供证据,而非证明。
「程序性知识」被发现了
推理控制集的示例,表明上类似于斜率查询,但不需要任何推理
LLM是如何从预训练数据中学习推理的?
推理集中的示例,涉及计算穿过两点直线的斜率
文档对补全的影响
影响函数
应用EK-FAC
实验与结果
定量分析
定性分析
首先,搜索答案;
其次,分析文档与推理查询之间的关系;
局限性