该图片可能由AI生成
一条半开玩笑的推文,却引发了AI圈一场严肃的思考。
华盛顿大学的Yuchen Jin抛出了一个大胆的假设:如果OpenAI在Anthropic的预训练模型上做后训练,再结合Google的持续学习技术——这不就是AGI吗?是时候让AI实验室们合并了。
有人接梗说,那应该叫AGO。Jin顺势改口:如果把OpenAI换成Ilya的SSI,那就是AGI——Anthropic、Google、Ilya的首字母缩写。玩笑背后,藏着一个真问题:当前AI发展的瓶颈,到底是技术本身,还是组织边界?
关于持续学习,Jin透露了一个关键信息:这项技术目前仍处于研究阶段,尚未在Gemini产品中上线。但Demis等Google高层对此相当看好,预计突破将在2026年到来。
这个“合并论”引发了两极分化的讨论。
支持者认为,最好的想法已经存在,只需要把它们组装起来。各家实验室各有所长,取长补短本是自然之道。有人甚至预测,AI终将因国家安全考量而被国有化,合并只是时间问题。
但反对声同样强烈。
最有力的反驳来自竞争论:正是因为竞争,我们才能以如此惊人的速度前进。垄断只会滋生懒惰,我们需要这场“战争”来催生AGI。还有人指出,现在各家实验室背后都是股东利益和巨额投资,合并不仅会制造垄断,更与推动人类进步的初衷背道而驰。
技术派则泼了一盆冷水:这充其量是更好的优化,而非真正的AGI。后训练加持续学习确实能提升样本效率和适应能力,但缺乏稳健的世界模型、长期规划能力和自主目标形成机制,本质上仍是窄域系统的拼凑,而非通用智能。即便有了持续学习,模型大概率仍是无状态的,在长时间跨度上会表现得古怪而不稳定。
还有一种声音值得玩味:AI的竞争护城河正在从模型架构转向训练效率和推理优化。当所有人都能大规模使用RLHF时,差异化就会向下游转移——数据质量、应用层、推理成本。最终胜出的,将是赢得效率之战的那一方。
或许最清醒的观点是这个:合并听起来是进步的美梦,却是去中心化的噩梦。把所有鸡蛋放进一个篮子,我们得到超级模型的同时,也失去了多元探索的可能。Anthropic执着于宪法AI,OpenAI不断突破边界——这种张力本身,恰恰是创新的源泉。
未来某天,国际模型委员会或许会问:为什么人类花了这么久才学会合作?
答案可能很简单:钱。
x.com/Yuchenj_UW/status/2010411689402155334