如果你经常使用大模型,应该会发现一个很有趣的现象:
无论你问它什么问题,它往往都会先来一句“嗯”,再开始正式作答。这个问题也是最近知乎很火的一个问题
比如,DeepSeek 的思考过程,当你提问,它会回复:
嗯,这个问题可以从以下几个角度来理解……
ChatGLM 也常这样:
嗯,我明白你的意思……
感觉主要是因为大模型目前在学习任务的时候,大部分都是模仿人类的思维方式去学习的。如果你有认真关注的化,会发现深度思考中,大部分的一些主流模型都会有这样的输出格式。
比如,DeepSeek的思考过程,如果你问它一个问题,它还是先回复“嗯”
还有ChatGLM模型也会这样:
为什么会出现这种情况,其实还是和模型训练过程中有关系。
1
训练数据决定了输出风格
在模型训练阶段,使用了大量人类对话语料进行预训练,而这些语料本身就包含了很多“嗯”、“呃”、“这个”之类的语气词。
毕竟,真实的人类对话中,经常会用这些词汇来进行思考、组织语言、或引导听众注意力。
因此,当大模型学习这些语料时,也自然“继承”了这种说话风格。
2
语气词让对话显得更自然
如果一上来就严肃且直接地给出复杂回答,很多用户会觉得冷冰冰,缺少情感色彩。
相比之下,加一个“嗯”,能在无形中拉近与用户的距离,让回答更接近真人对话的节奏,听起来亲切、自然,也更像一个真实的交流伙伴,而非冰冷的工具。
3
强化学习进一步强化了这种习惯
在强化学习(RLHF)阶段,研究者往往希望模型的输出“更像人”,而不是只追求逻辑正确。
比如在训练 R1 模型时,论文指出,最初的 R1-Zero 在推理能力上很强,但在语言表达和可读性方面存在问题:
语言混合:推理过程会混合多种语言,导致难以理解
格式混乱:缺少清晰结构,难以阅读
但是这样做无疑也会使得模型趋向于学习更多的人类说话方式,因此不知不觉就把这种开头是“语气词”的习惯给学习下来了。
4
解码策略也在“推波助澜”
除了训练数据和奖励函数外,技术层面的解码策略同样有影响。
大部分生成式模型在输出文本时,都会使用 Top-k、Top-p 等随机抽样方法。在这种解码过程中,模型更倾向于先输出那些高概率但对整体语义影响较小的“安全词汇”。
比如“嗯”、“这个”等填充词,它们在统计上出现频率极高,先输出它们可以帮助模型“稳住”生成节奏,降低突然输出低质量或跑题内容的风险。
5
用户可以如何应对?
从用户体验来看,虽然我们已经习惯了这些“嗯”带来的亲切感,但在某些场景下,它们也会显得啰嗦或累赘,降低阅读效率。
如果希望模型直接切入正题,可以在提示(prompt)中明确要求:
“请直接给出答案,不要添加任何多余的语气词。”
“省略所有开头的填充词。”
在强化学习微调(RLHF)阶段,若对填充词给予负奖励,也能进一步减少这些“嗯”字开场的输出,获得更加干脆、专业的回答。
6
写在最后
大模型“嗯”开头的习惯,既是因为训练数据本身就充满了这些语气词,也与解码策略、强化学习中的人类偏好奖励密切相关。
它看似无关紧要,但却是**让AI看起来更像“人”**的一种表现。
如果你喜欢这种人情味,就让它继续“嗯”下去;如果你偏好直接高效,那就用更精准的提示告诉它:“别嗯了,快说重点。”