从 Anthropic,看见 Google 曾经的样子

全文5761字,阅读约需17分钟,帮我划重点

划重点

01Anthropic在2024年成为企业AI领域的市场领导者,市场份额从12%增至24%。

02该公司拒绝使用“AGI”描述其探索,而是强调“Powerful AI”,专注于具体的能力而非抽象概念。

03Anthropic采用Constitutional AI训练方式,强调可解释性、科学主义、工具理性与人文主义的调光板效应。

04与早期Google一样,Anthropic致力于在道德和伦理上引领AI发展,期待用户因Claude模型而变得明智。

05目前,越来越多的企业用户正在为Anthropic投票,预计2024年收入达10亿美元。

以上内容由腾讯混元大模型生成,仅供参考

这是硅基立场 2024-2025 系列盘点的第一期内容。


1. Anthropic 的崛起

  • Anthropic 的崛起是2024年全球 AI 产业最受瞩目的现象之一,它是 OpenAI 强有力的挑战者,令很多厌倦了 OpenAI 式虚张声势和夸大其词的 AI 研究者和开发者耳目一新。

  • 从 Menlo Ventures 提供的数据看,2024年 OpenAI 在企业 AI 领域的市场份额从50%下降至34%,Anthropic 的市场份额从12%增至24%,交叉线正在逼近。这也意味着更多企业开发者正在从 GPT-4 Turbo 的 API 切换到 Claude Sonnet 3.5,一个可能更适合开发企业级 AI 应用的基座大语言模型,也据说是这个世界上目前最受欢迎的大语言模型。

图片

  • Anthorpic 对企业市场的野心是巨大的。经常出差的同学们在旧金山机场几乎隔几个登机口就能看见一块 Claude 模型投放的广告牌,上面写着“Powerful, fast, or safe. Pick three”。这是一个进攻性的文案 —— "Good, fast, cheap, pick two” 是一个常见的商业常识表述,意在提醒人们 trade off 是不可避免的,但 Anthropic 无意妥协,它宣称自己打破了性能、速度和安全的不可能三角。大语言模型铁人三项,Claude 是全能的。

    图片

  • 这个风格非常不 Anthropic —— 如果换作别的公司,你可以认为它在自吹自擂。但偏偏 Anthropic 并未有过自吹自擂的历史纪录。相反的是,比起大多数 AI 明星公司(当然包括 OpenAI)对 AGI 表面上的过度热衷和自我包装,Anthropic 对 AI 未来发展的体现了一种审慎而克制的态度,这在 Anthropic 的联合创始人和 CEO Dario Amodei 的公开表达,Anthropic 对其关键业务的定义和描述,更重要的是 Claude 模型的训练方法上,都得到了体现。

2. Anthropic 的几个特点

Powerful AI,而非 AGI

  • 2024年10月11日,Anthropic CEO Dario Amodei 发表了一篇足以载入人工智能发展史册的长文“Machines of Loving Grace”(充满爱意的机器)。在这篇文献中,Amodei 不仅概述了“强大的人工智能”(Powerful AI)可以改变社会的五个关键领域:生物学和身体健康、神经科学和心理健康、经济发展和贫困、和平与治理、工作和意义。

  • Amodei 描述的未来体现了一种科学家的理性和现实,而非斯坦福辍学明星创业者式的信手拈来—— Amodei 拒绝用“AGI”(通用人工智能)这个科幻小说中诞生的热词描述他探索的一切,而用“Powerful AI”(强大的人工智能)取而代之。尽管有些刻意,但“Powerful AI” 的表述显然更专注于具体的能力,而不是抽象的概念。

  • Amodei 赋予了 Powerful AI 可衡量的特征和定义:在特定领域超过诺贝尔奖得主级别的智能、具体的界面(文本、音频、视频、鼠标/键盘控制)、可以自主完成长期任务、以 10-100 倍人类速度运行、可以复制数百万次、能够独立和协作工作,以及具体的时间表。Amodei 相信实现上述特征和定义的 Powerful AI最早在2026年实现,且不是一蹴而就。Powerful AI 的愿景强调具体的解决问题的能力,而不是匹配人类意识或一般智力。

谨慎使用 Agent

  • Amodei 的 Powerful AI 愿景,近期体现在 Anthropic 在 AI Agent 的探索。在 Amodei “Machines of Loving Grace” 的长文发表之后两周,Anthropic 推出了升级的 Claude 3.5 Sonnet 模型和 Claude 3.5 Haiku 新模型。与此同时,它还公布了一项匹配新模型的突破性功能:Computer Use(计算机使用),允许 Claude 像人类用户一样与计算机交互:移动光标和单击按钮、键入文本和执行按键、截取和分析屏幕截图和编辑文本文件等。

  • Computer Use 可以让 Claude 3.5 Sonnet 将自然语言指令转换为计算机命令的 API, 以实现 Powerful AI 的关键定义之一:通过具体的界面,自主完成长期任务,它被视作 AI Agent 实践的重要突破。2024年12月20日,Anthropic 官方发布了“Building Effective Agents” 的文章,第一次公开了对 AI Agent 的理解。Anthropic 在文章中精确定义了 Agent (代理)和 Workflow(工作流) 的区别:“工作流” 是用事先定义的代码路径操作模型,实现某种程度的自主性,而“代理”则是大模型动态指导自身流程和工具的使用,自主控制完成任务。

  • 这一定义的精确区分并非意味着 Anthropic 自我标榜只追求最先进的 Agent 研发。相反,它不厌其烦地拆解了搭建一个Workflow 或 Agent 的每一个关键步骤和每个步骤采用的 AI 工具(包括 Claude 系列模型和 API)。Anthropic 表示它建议用大语言模型开发 AI 应用的时候找到最简单的解决方案,“并且只在需要的时候增加复杂性”。它并不鼓励 AI 开发者炫技,并且致力于拆解 AI 开发的每一个环节和它工作的原理,提高大语言模型自身的可解释性和透明性。

可解释的 Constitutional AI

  • Anthropic 旗下的一系列模型,包括备受欢迎的 Claude 3 和 Claude 3.5系列模型的研发,都基于与 OpenAI 采用的RLHF(基于人类反馈的强化学习)迥异的训练方式,即 Constitutional AI (宪法式人工智能)。Constitutional AI 与 RLHF 的本质区别是:前者用构建于初始架构中的基准价值原则的 AI 自主评估和反馈训练结果,而后者是基于数万人类反馈样本的汇总进行训练反馈。具体对比如下表(感谢Perplexity的贡献):

    图片

  • 我其实更倾向于将 Constitutional AI 翻译成 “原则AI”,它的“原则”由一系列已知的人类价值观构成,用人类易懂的自然语言书写,从而避免复杂的数学公式或代码的黑箱决策。它的决策框架可以用来检视,使用基于已知原则的 AI 生成的反馈,避免人类反馈系统的不透明性,从而创建一致的、基于原则的生成结果和自主行为。此外,一个 AI 应用的价值观,在原则上可基于 Claude 模型的 API 进行定制,也可以修正。

  • 不难想象它对企业级 AI 应用的重要:不同的企业有不同的价值主张、商业规则和业务流程,且很难通过数万人类反馈的样本进行强化学习,对模型生成和行为结果的一致性也更关切,还对 AI 行为的可回溯、检视和透明化有更高的要求。而即便是个人用户,模型生成结果的一致性和持续性也更重要。用过 Claude 3.5 Sonnet 模型的很多人都对它的写作和代码两项能力印象深刻,也得益于它的训练方式。

  • 在人们评估 Anthropic 的潜力时,Constitutional AI 的训练方式往往被有意无意忽略了,或将 “Constitutional” 简单地理解为某一种特定的价值观。对开发者来说,它是可定制的、多元的原则在模型生成结果和行为时的透明化和一致性体现。

3. Anthropic 有什么样的性格?
Claude:作为大语言模型的性格
  • 强烈推荐同学们逐篇阅读 Anthropic 官方博客上的长文,体验一下这家研究驱动的人工智能公司在自然语言表达上清晰、克制却又带着强烈节奏感的审美。当然,从它的 CEO Dario Amodei 发表的长文 Machines of Loving Grace 里,我们也能感知到这种审美的一致性。这些文章中,比较吸引我的一篇是 Claude’s Character,它探讨了一个Claude 的“性格”。

  • “我们不必训练模型去采纳它们遇到的任何观点,强烈采纳单一的观点,或者假装没有观点或倾向,而是可以训练模型在训练后诚实地对待它们所倾向的任何观点,即使与它们交谈的人不同意它们的观点。我们还可以训练模型表现出合理的开放心态和好奇心,而不是对任何一种世界观过于自信”。Anthropic 继而补充:“我(指Claude)不会说(人们)想听到的东西”。

  • 听上去非常像一个聪明人该有的样子。以及,你很难想象一个大语言模型的性格跟研发它的团队没有任何关系,因此,Claude 作为一个模型的性格,某种程度也应该是 Anthropic 作为一家企业的性格,甚至人格。

Anthropic 的性格:可解释性、科学主义、工具理性与人文主义的调光板
  • 如前所述,Anthropic 作为一家人工智能公司的颇具个性的立场和价值观——包括 Constitutional AI 的原则、对 Agent 热潮的警惕,对 Powerful AI 而非 AGI 的未来愿景,都折射了这家公司的颇具特色的性格:简单可以总结为:可解释性、科学主义、工具理性与人文主义的调光板。

  • 没有一家 AI 公司像 Anthropic 那样,如此在意概念描述与术语定义的精确性:它刻意避免使用 AGI 这个最流行的描述 AI 未来的概念,而用 Powerful AI 这么一个中性得有些乏味的词汇定义它所做的一切。Anthropic 认为 AGI 是科幻小说派生的概念,用于指引 AI 发展的未来有不可解释性。其对 Agent 和 Workflow 的严格界定,也透露了这家公司对时髦 AI 术语的本能警惕与抵制。

  • 你可以认为,Anthropic 有意抵制日益普遍的 AI 炒作(AI Hypes),抗拒任何人和组织以任何形式的 AI 先知面目误导公众,而是试图用更精确、科学主义的方式呈现它的 AI 研究与产品,并注重其原理的透明性和可解释性。它主动谈论 AI 的安全问题,并且用可解释的原理,将安全作为 Claude 系列模型的卖点。它甚至不给外界 Claude 下一代新模型的预期,无论Sonnet, Haiku 还是传说中的 Opus,都是 Claude 3.5家族的成员,因为Dario Amodei 认为只有当神经网络的规模取得显著增长的情况下,才会诞生一代全新的模型。这应该是Scaling Law 的一个常识,现在却需要 Anthropic 和 Amodei 来重复。

  • 为什么 Anthropic 这么在意科学、透明和克制地解释 AI 的发展?粗暴的解释是:Dario Amodei 是一个科学家,他有生物物理学的博士学位,在百度和 Google 的研究岗位上延续他的学术生涯,然后加入了 OpenAI。很多人津津乐道 OpenAI 联合创始人 Ilya Sutskever 与 CEO Sam Altman 在理念上不可调和的冲突,可是有没有一种可能,曾担任 OpenAI 研究副总裁 Dario Amodei,与 Ilya Sutskever 同时,甚至更早看到 AI 演进的未来,和它带来的安全、伦理和其它黑盒子里的问题?而他要做的,就是用迥异于 OpenAI 理念和方法,把 OpenAI 的一切都反过来,重新塑造一个人工智能的未来?

  • 让我们通过 Anthropic CEO Dario Amodei 和 OpenAI CEO Sam Altman 公开表达的关于人工智能现状和未来的看法,对比一下两种不同的价值观(感谢Perplexity的贡献):

    图片

  • Anthropic 对人工智能的审慎、可解释和透明化原则体现了它对人工智能的工具理性立场,即人们该如何不受夸大、误导和驱使,按照自己的意志掌控和操作 AI,实现人的福祉增益。一个有意思的对比是:OpenAI 命名自带“AI”,但 Anthropic 这个自创的单词确出自希腊语的“anthropos”,意思是 human,即人类。不得不说,Anthropic 对 OpenAI 的反叛是深入每一个细节的,就连名字都如此。

  • 但 Anthropic 对 AI 与人类关系的思考又是充满柔和与温情的。在 Dario Amodei 那篇 The Machine of Loving Grace 里,提及人们对 AI 安全问题的低估是忧心忡忡的,讨论 AI 的定义和理性的,而展望起 AI 对人的生命延续、算法解决病例基因和消除人类精神疾病等领域,则体现了一种平静的温暖和笃定—— Amodei 没有扮演预言一切的先知,而是一如既往地展现了 AI 解决人类长期生理和心理健康的可解释性,提出了具体实现的步骤和原理。这种工具理性和人文主义的“调光”效应,折射了一家人工智能创业公司罕见的性格。

4. 从 Anthropic 看见早期 Google 的影子
  • Anthropic 的科学主义、可解释性原理、工具理性与人文主义的调光板效应,会让你想起人类历史上哪家影响深远的科技公司?我找到的答案是 Google。

  • “成为Google”,至今仍是对一家 AI 创业公司的褒扬—— Google 的研究员们最早地提出了奠定生成式人工智能发展路径的 Transformer 架构,且至今仍是 AI 竞技场上最重要的玩家之一。Google 成立之初秉持着整合世界上所有信息的善意和愿景,并且差一点就都做到了。Google 的创始人 Larry Page 发明了网页排名(PageRank) 技术,同时推动网页排名算法的透明化,公开了 Google 搜索结果生成的原理和步骤,并允许用户通过 “About this result”功能了解自己的搜索记录和数据如何用来个性化搜索结果。

  • 当然,更被熟知的是 Google “不作恶”(Don't be evil) 信条。它确实在早期 Google 的发展中得到了最大程度的展现—— “作为一个为世界做好事的公司,从长远来看,我们会得到更好的回馈——即使我们放弃一些短期收益”。这在 Google 严格在搜索结果中标注付费内容,并严格限制医疗和金融等领域的广告等方面都可以体现。

  • 毫无疑问,Anthropic 正在闪耀着早期 Google 曾经有过的光芒。它追求可解释性和有方法论的大语言模型生成原理,强调在 Agent 开发的流程中保持简单性和透明度,期待用户因为 Claude 模型而变得明智;这与 Google 早期增进信任和透明化的搜索结果呈现原理非常近似。而 Anthropic 提出的“原则 AI” (Constitutional AI),更接近 Google 一度奉行的“不作恶”价值观,是一家科技公司最重要的道德戒律。

  • 我们可以从更多层面对比一下 Anthropic 和早期 Google 在建立科技道德和人类善意方面的实践(感谢Perplexity的贡献):
    图片
  • Google 早期的一系列正直、诚实和透明的价值观和举措,被写进了2004年创始人致股东的公开信,成为 Google 上市文件中不可或缺的一部分,也推动了早期 Google 商业的繁荣。现在轮到 Anthropic 来证明:一个透明、可解释、安全、强大的大语言模型,可以在获得商业上更大的成功。

  • 越来越多的企业用户正在为 Anthropic 投票。2024年,Anthropic 的预期收入是10亿美元,85%来自 API 订阅,企业市场份额从12%增至24%。企业对什么是可靠、安全、高效,符合更高商业伦理与道德的 AI,也许比个人用户有着更真切的理解和更迫切的需求。

  • 一个脱胎于 OpenAI 的团队,甚至作为 OpenAI 的反面,Anthropic 只有一条路:在更多的场合取代 OpenAI。它不仅仅是占领 OpenAI 的市场份额,而是在什么是正确的、安全的、符合人类愿景的 AI 的认知上,引领更多的 AI 开发者和创作者。

  • 信息技术革命者身上的人性光辉,在1980年代的比尔盖茨身上出现过,在2000年代初的 Google 两位创始人身上出现过。如今,在 Dario Amodei 和他创建的 Anthropic,我们好像又看到了——在人工智能时代开启,人性的光芒最需要闪现的时候。