划重点
01北卡罗来纳大学教堂山分校与谷歌的研究表明,逆向思维可以显著提升大型语言模型(LLM)的推理能力。
02该研究提出了一个名为RevThink的框架,可将逆向思维“灌输”给语言模型。
03实验结果显示,RevThink在不同数据集和模型上的平均性能表现都很好,优于基线。
04除此之外,RevThink在常识推理、表格数据推理和日期理解等方面表现出了更好的泛化能力。
以上内容由腾讯混元大模型生成,仅供参考
编辑:Panda
人能逆向思维,LLM 也可以吗?北卡罗来纳大学教堂山分校与谷歌最近的一项研究表明,LLM 确实可以,并且逆向思维还能帮助提升 LLM 的正向推理能力!
数学本身是高度结构化的,因此正向和逆向推理之间存在明确的逆反关系; 只需替换名称或数值等变量,就可以创建出新的数学问题。
论文标题:Reverse Thinking Makes LLMs Stronger Reasoners 论文地址:https://arxiv.org/pdf/2411.19865
基于问题生成正确的正向推理; 基于原始问题生成逆向问题; 基于逆向问题生成逆向推理。
基于问题生成正确的正向推理是知识蒸馏的标准方法; 生成逆向问题会促使学生模型「思考」如何逆向一个问题并确定要问的正确问题; 最后,解决这个逆向问题可以增强学生模型逆向推理的能力。
RevThink 表现出了很好的样本效率。 逆向问题生成可提高性能,但充分利用新的数据集可获得最佳性能。 RevThink 的目标比使用指令调整的单独实例更有效。 只需稍多一点 token,RevThink 就能获得更大提升。 RevThink 与模型大小呈正相关。 RevThink 可泛化至 OOD 数据集。 RevThink 可作为现有方法的补充。 RevThink 在可逆问题和中等难度问题上表现出了更大的提升。
查看原图 548K