为什么大模型总喜欢说“嗯”?背后的真正原因其实很有意思

如果你经常使用大模型,应该会发现一个很有趣的现象:

无论你问它什么问题,它往往都会先来一句“嗯”,再开始正式作答。这个问题也是最近知乎很火的一个问题



比如,DeepSeek 的思考过程,当你提问,它会回复:

嗯,这个问题可以从以下几个角度来理解……

ChatGLM 也常这样:

嗯,我明白你的意思……

感觉主要是因为大模型目前在学习任务的时候,大部分都是模仿人类的思维方式去学习的。如果你有认真关注的,会发现深度思考中,大部分的一些主流模型都会有这样的输出格式。


比如,DeepSeek的思考过程,如果你问它一个问题,它还是先回复“嗯”

图片


还有ChatGLM模型也会这样:

图片

为什么会出现这种情况,其实还是和模型训练过程中有关系。


1

训练数据决定了输出风格

在模型训练阶段,使用了大量人类对话语料进行预训练,而这些语料本身就包含了很多“嗯”、“呃”、“这个”之类的语气词。


毕竟,真实的人类对话中,经常会用这些词汇来进行思考、组织语言、或引导听众注意力。


因此,当大模型学习这些语料时,也自然“继承”了这种说话风格。


2

语气词让对话显得更自然

如果一上来就严肃且直接地给出复杂回答,很多用户会觉得冷冰冰,缺少情感色彩。


相比之下,加一个“嗯”,能在无形中拉近与用户的距离,让回答更接近真人对话的节奏,听起来亲切、自然,也更像一个真实的交流伙伴,而非冰冷的工具。


3

强化学习进一步强化了这种习惯

在强化学习(RLHF)阶段,研究者往往希望模型的输出“更像人”,而不是只追求逻辑正确。


比如在训练 R1 模型时,论文指出,最初的 R1-Zero 在推理能力上很强,但在语言表达和可读性方面存在问题:

  • 语言混合:推理过程会混合多种语言,导致难以理解

  • 格式混乱:缺少清晰结构,难以阅读

图片

但是这样做无疑也会使得模型趋向于学习更多的人类说话方式,因此不知不觉就把这种开头是“语气词”的习惯给学习下来了。


4

解码策略也在“推波助澜”

除了训练数据和奖励函数外,技术层面的解码策略同样有影响。


大部分生成式模型在输出文本时,都会使用 Top-k、Top-p 等随机抽样方法。在这种解码过程中,模型更倾向于先输出那些高概率但对整体语义影响较小的“安全词汇”。


比如“嗯”、“这个”等填充词,它们在统计上出现频率极高,先输出它们可以帮助模型“稳住”生成节奏,降低突然输出低质量或跑题内容的风险。

图片


5

用户可以如何应对?

从用户体验来看,虽然我们已经习惯了这些“嗯”带来的亲切感,但在某些场景下,它们也会显得啰嗦或累赘,降低阅读效率。


如果希望模型直接切入正题,可以在提示(prompt)中明确要求:

  • “请直接给出答案,不要添加任何多余的语气词。”

  • “省略所有开头的填充词。”

在强化学习微调(RLHF)阶段,若对填充词给予负奖励,也能进一步减少这些“嗯”字开场的输出,获得更加干脆、专业的回答。


6

写在最后

大模型“嗯”开头的习惯,既是因为训练数据本身就充满了这些语气词,也与解码策略、强化学习中的人类偏好奖励密切相关。


它看似无关紧要,但却是**让AI看起来更像“人”**的一种表现。


如果你喜欢这种人情味,就让它继续“嗯”下去;如果你偏好直接高效,那就用更精准的提示告诉它:“别嗯了,快说重点。”