划重点
01Anthropic在2024年成为企业AI领域的市场领导者,市场份额从12%增至24%。
02该公司拒绝使用“AGI”描述其探索,而是强调“Powerful AI”,专注于具体的能力而非抽象概念。
03Anthropic采用Constitutional AI训练方式,强调可解释性、科学主义、工具理性与人文主义的调光板效应。
04与早期Google一样,Anthropic致力于在道德和伦理上引领AI发展,期待用户因Claude模型而变得明智。
05目前,越来越多的企业用户正在为Anthropic投票,预计2024年收入达10亿美元。
以上内容由腾讯混元大模型生成,仅供参考
这是硅基立场 2024-2025 系列盘点的第一期内容。
1. Anthropic 的崛起
Anthropic 的崛起是2024年全球 AI 产业最受瞩目的现象之一,它是 OpenAI 强有力的挑战者,令很多厌倦了 OpenAI 式虚张声势和夸大其词的 AI 研究者和开发者耳目一新。
从 Menlo Ventures 提供的数据看,2024年 OpenAI 在企业 AI 领域的市场份额从50%下降至34%,Anthropic 的市场份额从12%增至24%,交叉线正在逼近。这也意味着更多企业开发者正在从 GPT-4 Turbo 的 API 切换到 Claude Sonnet 3.5,一个可能更适合开发企业级 AI 应用的基座大语言模型,也据说是这个世界上目前最受欢迎的大语言模型。
Anthorpic 对企业市场的野心是巨大的。经常出差的同学们在旧金山机场几乎隔几个登机口就能看见一块 Claude 模型投放的广告牌,上面写着“Powerful, fast, or safe. Pick three”。这是一个进攻性的文案 —— "Good, fast, cheap, pick two” 是一个常见的商业常识表述,意在提醒人们 trade off 是不可避免的,但 Anthropic 无意妥协,它宣称自己打破了性能、速度和安全的不可能三角。大语言模型铁人三项,Claude 是全能的。
这个风格非常不 Anthropic —— 如果换作别的公司,你可以认为它在自吹自擂。但偏偏 Anthropic 并未有过自吹自擂的历史纪录。相反的是,比起大多数 AI 明星公司(当然包括 OpenAI)对 AGI 表面上的过度热衷和自我包装,Anthropic 对 AI 未来发展的体现了一种审慎而克制的态度,这在 Anthropic 的联合创始人和 CEO Dario Amodei 的公开表达,Anthropic 对其关键业务的定义和描述,更重要的是 Claude 模型的训练方法上,都得到了体现。
2. Anthropic 的几个特点
Powerful AI,而非 AGI
2024年10月11日,Anthropic CEO Dario Amodei 发表了一篇足以载入人工智能发展史册的长文“Machines of Loving Grace”(充满爱意的机器)。在这篇文献中,Amodei 不仅概述了“强大的人工智能”(Powerful AI)可以改变社会的五个关键领域:生物学和身体健康、神经科学和心理健康、经济发展和贫困、和平与治理、工作和意义。
Amodei 描述的未来体现了一种科学家的理性和现实,而非斯坦福辍学明星创业者式的信手拈来—— Amodei 拒绝用“AGI”(通用人工智能)这个科幻小说中诞生的热词描述他探索的一切,而用“Powerful AI”(强大的人工智能)取而代之。尽管有些刻意,但“Powerful AI” 的表述显然更专注于具体的能力,而不是抽象的概念。
Amodei 赋予了 Powerful AI 可衡量的特征和定义:在特定领域超过诺贝尔奖得主级别的智能、具体的界面(文本、音频、视频、鼠标/键盘控制)、可以自主完成长期任务、以 10-100 倍人类速度运行、可以复制数百万次、能够独立和协作工作,以及具体的时间表。Amodei 相信实现上述特征和定义的 Powerful AI最早在2026年实现,且不是一蹴而就。Powerful AI 的愿景强调具体的解决问题的能力,而不是匹配人类意识或一般智力。
谨慎使用 Agent
Amodei 的 Powerful AI 愿景,近期体现在 Anthropic 在 AI Agent 的探索。在 Amodei “Machines of Loving Grace” 的长文发表之后两周,Anthropic 推出了升级的 Claude 3.5 Sonnet 模型和 Claude 3.5 Haiku 新模型。与此同时,它还公布了一项匹配新模型的突破性功能:Computer Use(计算机使用),允许 Claude 像人类用户一样与计算机交互:移动光标和单击按钮、键入文本和执行按键、截取和分析屏幕截图和编辑文本文件等。
Computer Use 可以让 Claude 3.5 Sonnet 将自然语言指令转换为计算机命令的 API, 以实现 Powerful AI 的关键定义之一:通过具体的界面,自主完成长期任务,它被视作 AI Agent 实践的重要突破。2024年12月20日,Anthropic 官方发布了“Building Effective Agents” 的文章,第一次公开了对 AI Agent 的理解。Anthropic 在文章中精确定义了 Agent (代理)和 Workflow(工作流) 的区别:“工作流” 是用事先定义的代码路径操作模型,实现某种程度的自主性,而“代理”则是大模型动态指导自身流程和工具的使用,自主控制完成任务。
这一定义的精确区分并非意味着 Anthropic 自我标榜只追求最先进的 Agent 研发。相反,它不厌其烦地拆解了搭建一个Workflow 或 Agent 的每一个关键步骤和每个步骤采用的 AI 工具(包括 Claude 系列模型和 API)。Anthropic 表示它建议用大语言模型开发 AI 应用的时候找到最简单的解决方案,“并且只在需要的时候增加复杂性”。它并不鼓励 AI 开发者炫技,并且致力于拆解 AI 开发的每一个环节和它工作的原理,提高大语言模型自身的可解释性和透明性。
可解释的 Constitutional AI
Anthropic 旗下的一系列模型,包括备受欢迎的 Claude 3 和 Claude 3.5系列模型的研发,都基于与 OpenAI 采用的RLHF(基于人类反馈的强化学习)迥异的训练方式,即 Constitutional AI (宪法式人工智能)。Constitutional AI 与 RLHF 的本质区别是:前者用构建于初始架构中的基准价值原则的 AI 自主评估和反馈训练结果,而后者是基于数万人类反馈样本的汇总进行训练反馈。具体对比如下表(感谢Perplexity的贡献):
我其实更倾向于将 Constitutional AI 翻译成 “原则AI”,它的“原则”由一系列已知的人类价值观构成,用人类易懂的自然语言书写,从而避免复杂的数学公式或代码的黑箱决策。它的决策框架可以用来检视,使用基于已知原则的 AI 生成的反馈,避免人类反馈系统的不透明性,从而创建一致的、基于原则的生成结果和自主行为。此外,一个 AI 应用的价值观,在原则上可基于 Claude 模型的 API 进行定制,也可以修正。 不难想象它对企业级 AI 应用的重要:不同的企业有不同的价值主张、商业规则和业务流程,且很难通过数万人类反馈的样本进行强化学习,对模型生成和行为结果的一致性也更关切,还对 AI 行为的可回溯、检视和透明化有更高的要求。而即便是个人用户,模型生成结果的一致性和持续性也更重要。用过 Claude 3.5 Sonnet 模型的很多人都对它的写作和代码两项能力印象深刻,也得益于它的训练方式。 在人们评估 Anthropic 的潜力时,Constitutional AI 的训练方式往往被有意无意忽略了,或将 “Constitutional” 简单地理解为某一种特定的价值观。对开发者来说,它是可定制的、多元的原则在模型生成结果和行为时的透明化和一致性体现。
强烈推荐同学们逐篇阅读 Anthropic 官方博客上的长文,体验一下这家研究驱动的人工智能公司在自然语言表达上清晰、克制却又带着强烈节奏感的审美。当然,从它的 CEO Dario Amodei 发表的长文 Machines of Loving Grace 里,我们也能感知到这种审美的一致性。这些文章中,比较吸引我的一篇是 Claude’s Character,它探讨了一个Claude 的“性格”。 “我们不必训练模型去采纳它们遇到的任何观点,强烈采纳单一的观点,或者假装没有观点或倾向,而是可以训练模型在训练后诚实地对待它们所倾向的任何观点,即使与它们交谈的人不同意它们的观点。我们还可以训练模型表现出合理的开放心态和好奇心,而不是对任何一种世界观过于自信”。Anthropic 继而补充:“我(指Claude)不会说(人们)想听到的东西”。 听上去非常像一个聪明人该有的样子。以及,你很难想象一个大语言模型的性格跟研发它的团队没有任何关系,因此,Claude 作为一个模型的性格,某种程度也应该是 Anthropic 作为一家企业的性格,甚至人格。
如前所述,Anthropic 作为一家人工智能公司的颇具个性的立场和价值观——包括 Constitutional AI 的原则、对 Agent 热潮的警惕,对 Powerful AI 而非 AGI 的未来愿景,都折射了这家公司的颇具特色的性格:简单可以总结为:可解释性、科学主义、工具理性与人文主义的调光板。 没有一家 AI 公司像 Anthropic 那样,如此在意概念描述与术语定义的精确性:它刻意避免使用 AGI 这个最流行的描述 AI 未来的概念,而用 Powerful AI 这么一个中性得有些乏味的词汇定义它所做的一切。Anthropic 认为 AGI 是科幻小说派生的概念,用于指引 AI 发展的未来有不可解释性。其对 Agent 和 Workflow 的严格界定,也透露了这家公司对时髦 AI 术语的本能警惕与抵制。 你可以认为,Anthropic 有意抵制日益普遍的 AI 炒作(AI Hypes),抗拒任何人和组织以任何形式的 AI 先知面目误导公众,而是试图用更精确、科学主义的方式呈现它的 AI 研究与产品,并注重其原理的透明性和可解释性。它主动谈论 AI 的安全问题,并且用可解释的原理,将安全作为 Claude 系列模型的卖点。它甚至不给外界 Claude 下一代新模型的预期,无论Sonnet, Haiku 还是传说中的 Opus,都是 Claude 3.5家族的成员,因为Dario Amodei 认为只有当神经网络的规模取得显著增长的情况下,才会诞生一代全新的模型。这应该是Scaling Law 的一个常识,现在却需要 Anthropic 和 Amodei 来重复。 为什么 Anthropic 这么在意科学、透明和克制地解释 AI 的发展?粗暴的解释是:Dario Amodei 是一个科学家,他有生物物理学的博士学位,在百度和 Google 的研究岗位上延续他的学术生涯,然后加入了 OpenAI。很多人津津乐道 OpenAI 联合创始人 Ilya Sutskever 与 CEO Sam Altman 在理念上不可调和的冲突,可是有没有一种可能,曾担任 OpenAI 研究副总裁 Dario Amodei,与 Ilya Sutskever 同时,甚至更早看到 AI 演进的未来,和它带来的安全、伦理和其它黑盒子里的问题?而他要做的,就是用迥异于 OpenAI 理念和方法,把 OpenAI 的一切都反过来,重新塑造一个人工智能的未来? 让我们通过 Anthropic CEO Dario Amodei 和 OpenAI CEO Sam Altman 公开表达的关于人工智能现状和未来的看法,对比一下两种不同的价值观(感谢Perplexity的贡献):
Anthropic 对人工智能的审慎、可解释和透明化原则体现了它对人工智能的工具理性立场,即人们该如何不受夸大、误导和驱使,按照自己的意志掌控和操作 AI,实现人的福祉增益。一个有意思的对比是:OpenAI 命名自带“AI”,但 Anthropic 这个自创的单词确出自希腊语的“anthropos”,意思是 human,即人类。不得不说,Anthropic 对 OpenAI 的反叛是深入每一个细节的,就连名字都如此。 但 Anthropic 对 AI 与人类关系的思考又是充满柔和与温情的。在 Dario Amodei 那篇 The Machine of Loving Grace 里,提及人们对 AI 安全问题的低估是忧心忡忡的,讨论 AI 的定义和理性的,而展望起 AI 对人的生命延续、算法解决病例基因和消除人类精神疾病等领域,则体现了一种平静的温暖和笃定—— Amodei 没有扮演预言一切的先知,而是一如既往地展现了 AI 解决人类长期生理和心理健康的可解释性,提出了具体实现的步骤和原理。这种工具理性和人文主义的“调光”效应,折射了一家人工智能创业公司罕见的性格。
Anthropic 的科学主义、可解释性原理、工具理性与人文主义的调光板效应,会让你想起人类历史上哪家影响深远的科技公司?我找到的答案是 Google。 “成为Google”,至今仍是对一家 AI 创业公司的褒扬—— Google 的研究员们最早地提出了奠定生成式人工智能发展路径的 Transformer 架构,且至今仍是 AI 竞技场上最重要的玩家之一。Google 成立之初秉持着整合世界上所有信息的善意和愿景,并且差一点就都做到了。Google 的创始人 Larry Page 发明了网页排名(PageRank) 技术,同时推动网页排名算法的透明化,公开了 Google 搜索结果生成的原理和步骤,并允许用户通过 “About this result”功能了解自己的搜索记录和数据如何用来个性化搜索结果。 当然,更被熟知的是 Google “不作恶”(Don't be evil) 信条。它确实在早期 Google 的发展中得到了最大程度的展现—— “作为一个为世界做好事的公司,从长远来看,我们会得到更好的回馈——即使我们放弃一些短期收益”。这在 Google 严格在搜索结果中标注付费内容,并严格限制医疗和金融等领域的广告等方面都可以体现。 毫无疑问,Anthropic 正在闪耀着早期 Google 曾经有过的光芒。它追求可解释性和有方法论的大语言模型生成原理,强调在 Agent 开发的流程中保持简单性和透明度,期待用户因为 Claude 模型而变得明智;这与 Google 早期增进信任和透明化的搜索结果呈现原理非常近似。而 Anthropic 提出的“原则 AI” (Constitutional AI),更接近 Google 一度奉行的“不作恶”价值观,是一家科技公司最重要的道德戒律。 我们可以从更多层面对比一下 Anthropic 和早期 Google 在建立科技道德和人类善意方面的实践(感谢Perplexity的贡献): Google 早期的一系列正直、诚实和透明的价值观和举措,被写进了2004年创始人致股东的公开信,成为 Google 上市文件中不可或缺的一部分,也推动了早期 Google 商业的繁荣。现在轮到 Anthropic 来证明:一个透明、可解释、安全、强大的大语言模型,可以在获得商业上更大的成功。 越来越多的企业用户正在为 Anthropic 投票。2024年,Anthropic 的预期收入是10亿美元,85%来自 API 订阅,企业市场份额从12%增至24%。企业对什么是可靠、安全、高效,符合更高商业伦理与道德的 AI,也许比个人用户有着更真切的理解和更迫切的需求。 一个脱胎于 OpenAI 的团队,甚至作为 OpenAI 的反面,Anthropic 只有一条路:在更多的场合取代 OpenAI。它不仅仅是占领 OpenAI 的市场份额,而是在什么是正确的、安全的、符合人类愿景的 AI 的认知上,引领更多的 AI 开发者和创作者。 信息技术革命者身上的人性光辉,在1980年代的比尔盖茨身上出现过,在2000年代初的 Google 两位创始人身上出现过。如今,在 Dario Amodei 和他创建的 Anthropic,我们好像又看到了——在人工智能时代开启,人性的光芒最需要闪现的时候。