GPT 两月一代,你的公司还在半年开个会?

(4月10日,OpenAI 首席产品官 Kevin Weil 接受采访)

GPT 又升级了,一代比一代便宜,一代比一代强。

但你那边,AI 项目还卡在第三轮立项评审会上。

模型已经从 o1 到 o3 mini,性能翻倍、价格减半。

但你这边,预算还没批、人还没招完、PPT 还在“第六稿讨论中”。

这不是玩笑,而是 2025 年我们看到很多合作公司的真实场面。

这不是差距,而是节奏崩塌。

从 ChatGPT 到 Sora,从代码生成到多模态操作,AI 正在以不可思议的速度刷新一切可能。

OpenAI 首席产品官 Kevin Weil 说得非常直接:

“我们内部模型每两三个月就跃迁一次,能力变化足以推翻原有产品逻辑。”

但大多数组织,依然按旧节奏办事:

他们还在遵循传统路径:

开会立项、招人排期、年底复盘——结果,你还在画图规划 AI,那边已经上线迭代四轮。

真正的问题不是“你有没有部署 AI”,而是:

你有没有意识到:公司节奏,才是 AI 落地的第一瓶颈。

Kevin 的判断也一样锋利:

“AI 产品开发的范式已变,公司如果不变,落差只会越来越大。”

所以这篇文章,不是来讲 GPT 多强。

而是来直面一个更现实的问题:

当 AI 两月一代,你的公司,准备好了吗?

一、OpenAI 为什么快?组织也是产品

流程不是障碍,组织节奏才决定产品上线速度。

Kevin Weil 曾在 Twitter、Instagram、Facebook 这些大厂带过团队,但他坦言,在 OpenAI 工作的节奏,是他从未经历过的“另一种时间维度”。

为什么 OpenAI 可以快得如此“变态”?不仅是因为他们有全球最强的模型,更因为他们做对了一件关键的事:他们把“组织”,当作产品的一部分来设计。

在传统互联网公司,产品节奏遵循一套熟悉流程:立项、设计、开发、验收、上线,周期清晰,节点明确。 但在 OpenAI,这套流程几乎失效。Kevin 表示:“模型每两三个月能力就变一次,如果我们按传统方式组织,永远交付不出一个能匹配模型能力的产品。”

于是,OpenAI 的组织逻辑发生了根本改变:不是“从上到下审批”,而是“从问题出发,小团队直接先干”

ChatGPT 就是典型案例:它的第一版,并非源于长时间的战略规划,而是研究员做出的一个 demo,迅速被转化为用户可用的界面,扔到真实场景里去测试反应——然后根据用户行为迭代打磨,逐步演化为今天的现象级产品。

Sora 也是如此。尽管外界认为它是 AI 视频生成的重大突破,但在 OpenAI 内部,它不过是一个被允许“快速跑起来”的研究原型。不是等待 CTO 拍板、不是上会三轮审批,而是“先做出来,再试试看有没有用”。

Kevin 强调一个理念:Iterative Deployment(迭代式公共部署)——模型能力不是靠计划写出来的,而是靠部署出来、用出来、错出来的。 没有真实用户反馈,就没有真正的产品感知。

反观国内,大多数企业在AI上的“节奏感”依然属于 PPT 层面。

立项开会,排期排表,流程走得齐全,但半年后上线的功能已经被下一代模型“版本吊打”。产品还没上线,能力窗口已经关闭。

我们看到大量企业 AI 项目陷入困境的共同点是:

  • 要求“先论证再试错”,但 AI 的不确定性根本无法论证;

  • 要求“能力稳定后再上线”,但模型本身就没有稳定版本;

  • 要求“组织全员培训完再动”,但市场不等你培训完。

OpenAI 的经验告诉我们一个本质逻辑:

技术不再是可控变量,组织必须成为自适应系统。

当模型能力成为浮动因素时,你的组织还保持“瀑布式流程”,就等于用上世纪的工具修理超音速的引擎。

OpenAI 快,不是因为他们有更多人,而是他们让每个小团队都能快速响应模型变化,让组织成为“AI 产品的一部分”。

真正能落地 AI 的,不是资源最多的企业,而是节奏最灵活的组织。

二、模型飞奔,产品逻辑原地踏步

模型每两月升级一次,你的产品设计还在走年度路线图。

Kevin Weil 提到一个对传统产品人“认知爆破级”的现实:

“在传统软件领域,一项基础技术可能每年迭代一次,性能提升10%。但在 AI 领域,每两个月模型能力就发生一次质变,它直接打破了我们对产品构建逻辑的原始认知。”

过去,你可以依据确定性的“功能栈”来定义产品边界,比如按钮 A 一定触发行为 B,接口 X 一定返回结构 Y。

但现在,一个 GPT 模型在 3 月时还做不到的事情,在 5 月的版本里可能已经有 95% 的准确率。

你还敢用“半年版本计划”去设计一个产品吗?

Kevin 举了一个经典的例子:

GPT 在文本写作场景中可能只有 60% 的可靠性,这就意味着产品设计者需要在前端加上“冗余机制”来规避错误,比如给出多个选择、引导用户校验,甚至允许反悔。

而在编程代码生成场景中,GPT 准确率已经超过 95%,很多产品可以直接部署产出,少量人工补全即可。

同一个模型,在不同任务上的能力边界完全不同。

这带来了一个根本性的转变:

产品设计的出发点,不再是你想提供什么功能,而是模型在该能力上的可靠性有多高。

也就是说,不是用户需求驱动功能,而是模型能力决定结构。

这是一种颠覆传统的思维方式——我们正在从“前向构建”变成“后向适配”:

以前是:我们设想产品该长什么样,然后让技术去实现;

现在是:模型能做到什么,我们围绕它构建匹配机制。

Kevin 用一句话概括这种逻辑:

“如果你不根据模型能力变化去设计产品,产品上线那一刻就已经落后。”

这对企业提出了全新挑战:

你的架构,能不能“适应模型能力的浮动”?

你的产品团队,是“预设功能组”,还是“响应能力波动”的系统建构者?

我们看到 GPT 的发布节奏从 GPT-3.5 到 GPT-4.5,再到 o1、o2、o3 mini,一路狂奔;

国内的 DeepSeek 也不遑多让,从 DeepSeek-MOE 到 DeepSeek-Coder,一路刷新榜单。

但很多企业还停留在:功能文档还没写完,模型能力已经进化了两轮。

你会发现一个残酷现象:

技术在不断推翻产品假设,而你的组织却还在推着旧地图找路。

未来的产品结构,要有能力容纳“模型不稳定性”——

比如你需要设计一个系统,能在模型回答不确定时主动交给人工;

你需要允许系统内出现多种答案共存,并用辅助模型对其排序;

你甚至要在流程里设计“可信度评分”,让用户自己判断是否信任结果。

这不是某种高级玩法,而是 AI 时代的基本功。

Kevin 所说的,是一种新的产品思维:浮动能力驱动的系统构建。

它要求产品架构本身要足够柔性,能够随着模型能力进化而动态调整。

而中国许多企业还沉迷于“功能池思维”:“我能不能上五个功能,压死对手?”

殊不知,功能堆砌时代已经过去,未来拼的是谁能“最优适配模型能力的变化节奏”。

如果你还在用旧时代的产品逻辑去定义 AI 产品,

那等你上线那天,不是胜利,而是错过。

三、产品经理的升级:从 PRD 到评测

传统需求文档无法适配模型不确定性,评测才是新的语言。

在传统产品开发中,产品经理的主要任务是画流程图、写 PRD、定义功能清单。 流程逻辑清晰、功能边界明确,交给工程师照图施工即可。

但在 AI 时代,这套逻辑正在迅速失效。

Kevin Weil 提出一个关键观点:

“未来产品经理的第一能力,是写评测(evals),而不是写 PRD。”

因为大模型不是规则系统,而是概率系统。

它处理的是开放式的人类语言输入,响应方式不再可控、稳定和线性。

你无法像传统软件那样靠“需求文档”封住模型边界,必须依靠系统性评测机制,来定义模型是否“足够好”以支撑一个产品功能上线。

评测(eval)系统的本质,是一套连续出题、观察反馈、迭代打磨的闭环过程。

它像是模型能力的“验收仪式”,同时也是产品逻辑的“能力训练营”。

比如 ChatGPT 最近上线的 Deep Research 功能,能够围绕一个复杂问题,在30分钟内完成资料抓取、结构整理与文本生成。

这一能力的背后,不是简单地调了一个模型,而是产品团队与研究团队联合设定的一整套场景评测机制:

  • 它能否找到一手资料?

  • 信息是否来源可溯?

  • 内容结构是否合理?

  • 能否回答跨领域、多步骤的问题?

这些问题并非“验证”模型,而是帮助产品团队明确“能用在什么场景、不能在哪些场景失误”。

Kevin 说得很清楚:

“我们不会因为模型感觉还不错就上线一个功能,必须看它在评测体系下的表现是否稳定。”

这句话打中了一个关键盲区:

AI 产品经理的任务,不是定义功能,而是定义“能力的边界”。

你不是在管“功能列表”,而是在构建一个能力适配系统。

图片

这对中国的产品经理而言,是一项认知迁移。

很多文档写得极其细致,却忽视了模型的实际表现差异;

很多项目功能上线后出现混乱,根源不是模型能力弱,而是没有先建立任务级评测和容错机制。

我们甚至可以说:

评测系统是 AI 产品团队中,将“技术能力”与“用户价值”粘合在一起的唯一桥梁。

从某种意义上讲,写评测,就是 AI 时代产品经理的“代码”。

你也许不写代码,但你在告诉模型——

“这是我希望你擅长的任务区域, 这是我允许你出错的限度, 这是我衡量你上线资格的标准。”

未来,真正优秀的 AI 产品团队,必须具备以下三个能力:

  • 拥有一套覆盖目标场景的系统性评测体系;

  • 通过持续评测,跟踪模型能力的演进方向;

  • 能将评测结果快速反哺到产品结构与交互中。

如果没有这些能力,

你写得再多的 PRD,也不过是在技术洪流中画出一张即将被冲刷的旧地图。

四、人模协作,重塑组织机制

未来的组织不是分工制,而是“人 + 模型”的协奏体。

图片

在 OpenAI,组织协作的逻辑早已不是“部门-汇报线-职责边界”的金字塔结构,而是一种更具弹性、更具适应性的协奏机制:

“人 + 模型 + 工具”共同组成产出单元,每个个体都像是“带着模型的组合体”。

Kevin Weil 描述过一个很典型的场景:

OpenAI 的首席人力官(Chief People Officer)在面对一个内部人才管理问题时,没有发起会议、拉团队讨论,而是自己调用 GPT 和内部工具快速搭建了一个原型系统,验证假设,测试可行性。

这个过程,不依赖技术部,不依赖产品部,也不需要流程审批。

她和模型组成了一个“人机原型小组”,几天就完成了传统流程几周才能完成的任务。

另一个场景:产品经理直接使用 GPT + Cursor + Copilot,快速 vibe coding 出 demo,

只需要一点点前端支持,就能做出可交互的早期原型。

这不再是“写需求—交设计—等开发”的老节奏,而是 “和模型共创—直接迭代—试错上线”的新协作范式。

Kevin 说:

未来的产品团队,每一个成员都是‘带模型的人’。

每个人都不再是孤立的角色,而是一个‘模型接口 + 任务感知 +快速试错’的微型产出单元。

这在组织结构上的含义非常深远:

  • 技术不再是单独一个部门,而是人人都能调动的“生产力协作体”;

  • AI 模型不再是支撑工具,而是与你并肩共创的“搭档”;

  • 流程不是走完就算,而是根据模型能力实时调整的“适应机制”。

这也是为什么 OpenAI 从不强调组织规模,更强调组织响应力。

Kevin 特别提出,他坚持将 PM 团队规模控制在约 25 人,因为组织越小,协作越快,模型介入越深。

反观很多中国企业,在谈到 AI 落地时,还在纠结“要不要设个 AI 部门”“要不要招个懂算法的”。

但事实是:AI 时代组织的关键,不是“谁懂AI”,而是“每个人是否能与AI协作”。

不是“懂模型的人更强”,而是 “能激发模型价值的人更快”。

在过去,组织是“人-人”协作单元,靠制度、流程、职能划分来驱动效率;

在今天,组织正在变成“人-模”协作系统,依赖的是人类意图 + 模型能力 + 工具链组合的实时产出能力。

你不需要招一个完美的 AI 工程师团队,也不需要每个人都会训练模型。 你需要的是一个内部文化:

  • 每个员工都能像调用 Excel 一样调用模型;

  • 每个小组都能快速拉通数据、原型、反馈流程;

  • 每个决策都能基于“人类经验 + 模型推演”共识达成。

组织不是为了“用 AI”,而是要 “变成适合与 AI 协作的结构”。

当 GPT 能写文档、生成代码、找资料、测评结果,你还在层层审批、分工明确?

你不是在“用 AI 提效”,你是在把 AI 关进会议室。

真正领先的组织不是多了模型,而是少了阻力。

五、上线不等于完美,部署就是试错

上线不是为了交付,而是为了获得下一轮反馈。

在大多数企业里,新功能要上线,通常得经历三轮评审、两轮验收、一次全员测试。 而在 OpenAI,Kevin Weil 更看重的从来不是“完美上线”,而是 “快速上线,然后持续试错”

他说得很坦率:“模型能力每天都在变,我们不可能等它100%成熟后再发布。我们必须在真实环境中快速部署,才能真正知道用户需要什么,模型能做到什么。”

这正是 ChatGPT 爆红的底层逻辑。它的早期版本并不完美,甚至功能极其有限——但它上线了,开放给全球数亿用户使用,并在使用中不断进化。

今天你看到的 ChatGPT,已经是经历了无数次真实交互 + 系统性评测 + 用户行为反馈之后的产物。

OpenAI 的产品节奏逻辑很清晰:

先放出去,再收数据,快速改;不是“想好再做”,而是“边做边明白”。

这种“以部署促能力”的方式,本质上是将产品、模型和组织融合为一体的迭代机制。

部署不再是终点,而是“下一轮理解用户 + 驱动模型演进”的起点。

反观许多国内企业团队,模型已经准备好了,功能也测完了,用户调研也反馈了,但就是迟迟不敢上线。 ——怕出错、怕 Bug、怕被客户吐槽,更怕“AI 不准”影响品牌。

这种普遍存在的“上线惧怕症”,正在悄悄杀死 AI 产品的节奏感。

你想等它完美,但 AI 模型的本质就是“不确定中进化”;

你想把所有细节控制好,但 AI 产品永远不可能通过文档来封闭问题边界。

最荒诞的现象是:模型每天都在进步,而组织却还在反复开会讨论“上线是否合适”。

Kevin 的理念锋利而务实:

“产品不再是线性计划下的交付物,而是模型能力的实时适配结果。”

一个组织如果总想着“等更稳一点再上线”,最终一定会被更快试错、更快调整的团队所超越。

AI 的不完美不是上线的理由,而是迭代的入口。

你只有把产品推到真实环境中,才能获得真正有价值的反馈,构建起“能力 - 场景 - 价值”的闭环。

OpenAI 敢于不断上线,是因为他们明白:

  • 真正的问题不是“上线后错没错”,而是“错了能不能马上修”;

  • 真正的竞争不是“谁不出错”,而是“谁更快发现问题、调模型、改设计”。

正和岛洞察:许多中国团队在 AI 项目早期阶段的最大障碍,不是技术本身不成熟,而是组织迟迟不愿暴露问题、不敢承担波动、不信任“边部署边修复”的逻辑。

但我们必须明白一个事实:

如果模型都在成长,你的组织凭什么停滞不前?

这不是完美主义的时代,这是试错主义的时代。

你越早上线,就越早掌握产品与市场之间的真实距离。

在 AI 时代,真正的护城河,是你组织能否拥有快速“试错 + 修正 + 再部署”的肌肉。

不完美,不是障碍,是前进的方向。

部署,本身就是一种新的设计。

图片

六、不是一站式平台,而是更新式组织

你要的不是“全包式 AI”,而是能跑得快、调得动、改得了的组织结构。

很多企业一谈到“拥抱 AI”,第一反应就是:找个最强的模型,把功能都打包进来,做一个“一站式 AI 平台”。

但 Kevin Weil 给出了一个完全不同的答案:

“GPT 越全能,你越需要明确边界,越需要用组织机制去调动它,而不是一股脑接入所有能力。”

OpenAI 自己也并没有打算“做完所有事”。

他们真正的战略,是围绕模型能力构建一个高度开放、模块化的 API 生态系统——让全世界的开发者、企业、团队基于同一个底座,共同完成适配、细化与部署。

你会发现:

  • ChatGPT 不会帮你做企业销售预测系统,但你可以基于 GPT 构建一个;

  • GPT 不会理解每一家制造企业的流程,但你可以训练它熟悉你独有的 SOP;

  • GPT 不会为你划清业务边界,但你可以通过评测机制,把它“圈”在可控区域内。

所以真正的问题从来不是 “GPT 能不能做”,

而是:你的组织,能不能快速跑完“需求-设计-测试-部署”的完整闭环。

换句话说,模型能力是“公有物”,组织能力才是“私有护城河”。

OpenAI 的产品演进方式非常明确:

  • 不是“等一切想清楚再做”,

  • 而是不断发布 API,开放插件接口,试验、失败、收反馈,然后快速重构。

这是一种 “从中心向外扩散”的能力结构。 GPT 是技术中台,真正转化价值的,是组织系统本身的响应速度和学习机制。

在 AI 时代,组织图谱早已不是传统的“职能制”或“流程导向”,而是由两个关键单元构成:

1、能快速交付结果的小型战斗单元

类似 OpenAI 内部的“项目孵化小队”:几个人、几周、一个目标、快速上线。 每个小队都具备“调用模型 + 接收反馈 + 快速上线”的最小闭环能力。

2、高反馈系统

不再依赖“年中复盘”“季度回顾”这些慢机制, 而是“部署即反馈、上线即监控、用户行为即样本”,构成实时迭代的能力回路。

真正的 AI 战略,不在于你接入了多少模型,

而在于你组织内部能否像一支“模型合奏团队”一样——动态响应模型变化,灵活适配新能力,持续交付新价值。

你要的,从来不是“一个万能的大模型”, 而是一个能持续学习、快速迭代、敏捷部署的组织操作系统。

所以,别再问你能不能“引入大模型”,而该问自己:

  • 你的组织是否能把一段需求在一周内走完整个交付流程?

  • 你的团队是否能识别并利用最新模型的“能力热区”?

  • 你是否能把评测、微调、发布变成团队日常的内循环?

没有这个系统,再强的模型也只是你的另一个“技术幻觉”。

七、技术易得,组织难求

大模型人人可用,组织的反应力和学习力才是护城河。

访谈快结束时,Kevin Weil 被问到一个温暖而现实的问题:“你会让你的孩子学什么,以适应 AI 时代?”

他的回答出人意料,却意味深长:

“我不会强求他们学哪门语言或技能,而是希望他们保持好奇、独立思考、自信心。这些能力,无论在什么时代都不过时。”

这不仅是一位父亲的思考,更是一位站在 AI 最前线的产品负责人,对未来组织能力结构的精准判断。

同样的道理,也适用于企业:

  • GPT、DeepSeek、Claude 这些模型能力,任何一家企业都可以买到;

  • Copilot、Cursor、Sora 这些工具,任何一家公司都能调用;

  • 但组织的认知、决策结构、反馈能力、学习方式,是买不到的。

如果你不能将模型的能力融入流程、产品、战略,

那它就只是一个外挂,而非你的组织进化的一部分。

Kevin 说得很清楚:

“未来真正拉开差距的,不是 AI 能做什么,而是组织如何驾驭 AI。”

这是一场能力结构的革命,而不是工具列表的升级。

它要求你重新审视:

  1. 你的组织是否具备快速迭代的机制?
  2. 你的团队是否愿意将模型当作“平等的协作对象”?
  3. 你的管理者是否能容忍 AI 带来的不确定性,并在真实场景中学习与适配?

那些在旧秩序里跑得最快的人,可能是新秩序里最难转弯的。

而那些看起来“不懂 AI”的组织,只要他们能重构内部反应链条,就能迅速弯道超车。

OpenAI 用全球最强模型证明了一个朴素的事实:

技术可以更新,但只有组织能力,才能真正穿越周期。

未来的竞争,不是比你能用哪个模型,而是看你组织能不能“消化”模型更新所带来的潜在机会。

组织,是唯一不能抄作业的竞争力。

它不是一个框架图、几张岗位职责表能解决的问题,而是一种深入骨髓的反馈能力、协作机制和认知弹性。

这,才是真正属于你的“专属 AI 模型”。

最应该更新不是模型,而是我们自己

GPT 已经在飞速演化,从 3.5 到 4.5,再到 o1、o2、o3 mini,两月一代。

AI 模型的能力正在以指数级速度逼近真实智能,性能在升级,成本在下降,生态在扩张。

而大多数组织,还停留在三年前的节奏感里:

按季度立项目,按年审预算,按人头配资源。

中台还在修,流程还在补,文档还在写——但世界,已经换了底层运行逻辑。

你不是看不懂 AI,也不是用不起 AI, 而是你组织的响应速度、适配能力和反馈机制,根本无法承接 AI 的节奏。

这才是最该被更新的部分。

我们常说“技术是工具”,但 AI 不再是“一个工具”——

它是一种能力流动方式,是一种工作重构逻辑,是一种决策新边界。

你想真正用好它,组织就必须像操作系统一样自我升级。

今天的 AI,不是冷冰冰的代码堆叠,而是你组织演进的放大器。 它会加速你已有的优势,也会撕裂你未解的结构性问题。

所以,请别只关注模型更新日志, 也回头看看:你的组织,有多久没“更新系统”了?

图片

“AI 模型两月一代,组织若五年不变,就是历史遗留系统。”

AI 一日千里,组织一成不变;你不是被模型淘汰,而是被节奏甩下。”



📮 本文由AI深度研究院出品,聚焦全球 AI 创新浪潮中的企业转型策略。

排版:Atlas

编辑:深思

主编:图灵