谷歌发布双思维AI Agent:像人类一样思考,重大技术突破!

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

今年10月,OpenAI高级研究科学家、德扑AI之父Noam Brown,曾在美国旧金山举办的TED AI大会上提出了一个惊人的理论——让AI模型思考20秒所带来的性能提升,相当于将模型扩大100,000倍并训练100,000倍的时间。

Noam所指的技术便是System 1/2thinking,也是OpenAI最新模型o1正在使用的技术。

谷歌DeepMind研究人员则直接把这项技术集成到AI Agent中开发了Talker-Reasoner框架,让其具备“快”、“慢”两种拟人化思考方式。这对于解决复杂、冗长的任务来说帮助巨大,也突破了传统AI Agent执行业务流程的方法,极大提升了效率。

图片

像人类一样思考——快、慢思维

在介绍谷歌的双思维AI Agent之前,「AIGC开放社区」先为大家简单介绍一下System 1/2的快、慢思维的由来和技术特性,对于理解Talker-Reasoner框架很有帮助

快、慢思维最早是由诺贝尔经济学奖得主-丹尼尔·卡内曼在其著作《思考,快与慢》中提出,并被广泛接受为理解人类思维的一种重要理论框架。

这两种思维方式分别被称为“System1”和“System 2”,它们各自承担着不同的认知任务,并以独特的方式影响着我们的决策过程。

图片

System1,所谓的“快思考”,是一种自动化的、迅速的思维模式,几乎不需要消耗大量的认知资源,也不需要个体付出明显的努力。

当我们面对一个熟悉的场景或问题时,System1会迅速作出反应,提供即时的答案或解决方案。例如,当我们看到一辆车突然向我们驶来时,我们会本能地做出躲避的动作;或者当我们听到一个笑话时,我们可能会立即感到好笑并发出笑声。

这些反应都是System1在起作用的结果,它依赖于直觉和经验积累,能够在短时间内处理大量信息,但同时也可能因为缺乏深入分析而产生偏见或错误判断。

相比之下,System2则代表着“慢思考”,这是一种更为复杂和谨慎的思维过程。System2负责执行那些需要更多注意力和努力的任务,如解决复杂的数学问题、进行逻辑推理或是制定长期计划等。

如果你使用过OpenAI的o1或者国内的Deepseek、阿里最新开源的QwQ-32B模型,它们在执行超复杂问题时,便会进入短暂的思考时间

System2的特点在于其能够对信息进行细致的分析和评估,从而得出更加准确和全面的结论。然而,由于这种思考方式需要消耗较多的认知资源,所以比System1要慢得多。

此外,在面对紧急情况或压力较大的情境下,System2的表现可能会受到影响,导致决策效率降低。

谷歌双思维AI Agent——Talker-Reasoner

而谷歌DeepMind研究人员提出的Talker-Reasoner中,巧妙地将System1/2集成到了AI Agent上。

Talker-Reasoner架构的核心思想是将AI Agent分为两个独立的模块:Talker和Reasoner。这两个模块分别对应于人类的System 1和System 2,各自承担着不同的任务和功能。

图片

Talker模块,类似于System 1,负责快速、直观的对话生成,它能够迅速响应用户的需求,生成自然语言的回答。而Reasoner模块,类似于System 2,负责复杂的多步推理和规划,它需要更多的时间和计算资源来处理复杂的任务,如调用外部工具、检索信息和解决问题。

在Talker模块中,AI Agent被设计为能够理解和处理自然语言,生成连贯和自然的对话。这需要AI Agent具备强大的语言理解和生成能力,以及对上下文的敏感性。Talker模块需要能够快速地从记忆中提取相关信息,以支持其对话生成。

这种记忆可以是对话历史、用户偏好或其他相关信息。Talker模块的设计使其能够模拟人类的直觉反应,即使在信息不完全的情况下也能做出合理的回应

与Talker模块的快速反应不同,Reasoner模块的设计重点在于深度思考和复杂问题解决。Reasoner模块需要能够执行多步推理,这可能涉及到对大量信息的分析和处理。它需要调用各种工具和数据库,以获取外部知识,支持其推理过程。

图片

Reasoner模块还需要能够形成和更新关于用户状态的信仰,这些信仰以结构化语言对象的形式存储在记忆中。这种信仰建模是Reasoner模块的关键特征,它使得AI Agent能够更好地理解用户的需求和意图,从而提供更准确的服务。

在实际应用中,Talker和Reasoner模块之间的交互是通过记忆来实现的。Reasoner模块负责生成新的信仰状态,并将其存储在记忆中。Talker模块在需要时从记忆中检索这些信仰状态,以支持其对话生成。

这种设计允许Talker模块即使在Reasoner模块尚未完成其推理过程时,也能够继续与用户进行互动。该分工类似于人类的大脑,System 1始终活跃,而System 2则在需要时介入。

Talker-Reasoner测试数据

为了测试Talker-Reasoner的双思维性能,研究人员用这个开发了一个睡眠辅导Agent。在这个场景中,AI Agent需要与用户进行对话,提供关于改善睡眠习惯的建议和计划。

Talker模块负责与用户的直接互动,而Reasoner模块则负责制定和调整睡眠辅导计划。这种分工使得AI Agent能够同时进行快速的对话和复杂的规划,提高了用户体验。

在测试中,Talker模块通过一系列指令编码专家知识,指导其完成睡眠辅导的各个阶段。这些指令不仅包括了与用户互动的规则,还包括了睡眠辅导的具体步骤和策略。Talker模块需要能够理解和回应用户的需求,同时保持对话的连贯性和自然性。

图片

Reasoner模块则需要根据用户的反馈和需求,调整和优化睡眠辅导计划。这可能涉及到调用外部资源,如睡眠相关的研究和建议,以及根据用户的具体情况制定个性化的计划。Reasoner模块的设计使其能够处理复杂的逻辑和推理,为用户提供最合适的建议。

在实际对话中,Talker和Reasoner模块的协同工作被证明是有效的。Talker模块能够流畅地与用户对话,而Reasoner模块则能够根据用户的反馈调整和优化辅导计划。这种分工执行使得AI Agent能够同时处理快速的对话和复杂的规划,极大提高了用户体验。

论文地址:https://arxiv.org/abs/2410.08328v1

本文素材来源谷歌Talker-Reasoner,如有侵权请联系删除