客户端
游戏
无障碍

25

评论

82

109

手机看

微信扫一扫,随时随地看

Sam Altman:AI 拥有了情绪、记忆与风格,但 TED2025现场他说最可怕的才刚开始

AI划重点 · 全文约8325字,阅读需24分钟

1.OpenAI CEO Sam Altman在TED2025上分享了AI发展的最新成果,强调AI正从工具变为伙伴,甚至可能成为世界的一部分。

2.Altman指出,AI具备风格、具备情绪感知、拥有记忆系统,与人类越来越相似,但人类仍需准备如何与它共创时代。

3.然而,AI的“记忆功能2.0”引发关于隐私和安全的担忧,Altman表示OpenAI将采取一系列措施确保AI的安全和可控。

4.此外,Altman谈到了AI决策者的道德责任,呼吁建立全球性的模型许可机制和AI安全审查机构。

5.最后,他表达了对AI未来发展的期待,希望人类的孩子能生活在一个更好的世界里。

以上内容由腾讯混元大模型生成,仅供参考

Thumbplayer Poster Plugin Image
播放
下一个
打开循环播放
00:00
/
00:00
倍速
3.0X
2.0X
1.5X
1.25X
1.0X
0.75X
0.5X
语言
多音轨
AirPlay
0
静音播放中,点击 恢复音量
画中画
网页全屏
全屏
error-background
你可以 刷新 试试
视频信息
1.33.6
播放信息 上传日志
视频ID
VID
-
播放流水
Flowid
-
播放内核
Kernel
-
显示器信息
Res
-
帧数
-
缓冲健康度
-
网络活动
net
-
视频分辨率
-
编码
Codec
-
mystery
mystery
-

按住画面移动小窗

X

(TED2025现场,对话Sam Altman)

不是更聪明,而是更像人

2025年4月11日周五,温哥华 TED 大会现场。

主持人请出 Sam Altman,全场掌声雷动。不是因为他是 OpenAI CEO,而是因为在他手上,AI 不再是“写作工具”或“生产力插件”这么简单。

主持人把他最近最爱的产品 Sora 拿出来展示:“我问它,如果你在 TED 分享一个惊人的观点,会是什么画面?”

结果——生成图像中,台上的主持人衣着相仿,神态夸张,五指清晰,仿佛比他本人还像他自己。

接着,他又问了一个让 Sam 当场震惊的问题:

“你能用一张图解释智能和意识的区别吗?”

Sora 给出的,不只是图像,而是一种似乎具备“理解力”的回答,像是 AI 正在摸索“自我意识”的边缘。

这一次,人们开始意识到:AI 不只是变聪明了,它开始变得像“人”了。

拥有风格、具备情绪感知、拥有记忆系统、可以与世界“持续交互”——在 TED 的这场访谈里,Sam Altman 把过去半年 OpenAI 内部最尖端的进展、最棘手的风险、最深层的哲学难题,全盘托出。

他说:“AI 正在从工具,变成伙伴。再往前,它会成为世界的一部分。”

他说:“你可以不喜欢它的变化,但技术不会因为不被喜欢就停止。”

他说:“最可怕的,还没开始。”

这不是一篇“新闻稿”,这是一次关于未来十年最重要变量的深度记录。

你正在阅读的这篇文章,整理自 Sam Altman 在 TED2025 全程对话,我们将从以下 5 个关键层面,完整提炼这位 AI 领航者眼中的未来地图:

  • 当 AI 拥有风格与情绪:创作边界的重新划定

  • 记忆觉醒之后:AI 如何真正“理解你”?

  • DeepSeek、开源与产品化之战

  • AGI 的倒计时:从敬畏到红色按钮测试

  • Altman 的父亲时刻:当孩子成为你做选择的镜子

他在 TED 说:“我希望我的孩子长大后,看我们这一代时,会觉得那个世界又辛苦又落后。”

这是技术的宣言,也可能是历史的悲悯。

图片

第一节|AI 有了风格,创作者怎么办?

Sora 是个危险的玩具。

在 TED 现场,主持人拿出 Sora 做的生成图像给 Sam Altman 看,说:“我问它——如果你在 TED 分享一个惊人的观点,会是什么样的画面?”

结果,Sora 生成了一张舞台画面,主持人手指张开,穿着也几乎一致,表情甚至比本人更夸张。Sam 忍不住笑了:“我从没见你这么夸张。” 主持人回了一句:“可能是 B+ 吧,但至少它画对了五根手指。”

这是玩笑,却也不是玩笑。几个月前,AI 还在为“五指画错”“风格粗糙”被群嘲。现在,它已经能掌握你的穿搭、模仿你的情绪,甚至模拟你“如果特别激动时”的样子。

更重要的是,它不只是生成图像,而是似乎理解你要干什么。

当主持人要求它生成一张“展示智能与意识差异的图表”时,Sora 真的给出了一张能引发哲学争议的结构图。Sam 的评价是:“这不只是图像生成,更像是连接了智能能力。”

这是关键。

Sora 不再是“文生图”工具,而是“理解你表达意图 + 提炼图像含义”的智能型内容生成器。 它不只是图形好看,而是内容“对了”。

更可怕的是,它有“风格”。

在另一个测试中,主持人让模型创作:“如果查理·布朗(美国漫画《花生漫画》的主人公)发现自己是 AI,会说出怎样的内心独白?”

AI 的回答不但写出了“布朗式的悲观幽默”,甚至带出了元叙事感——既像在模仿花生漫画的腔调,也像在质疑自己是否拥有意识。

这让主持人当场冒出一句:“这是不是版权问题?”

观众笑了,掌声响起。

但 Sam 的回应让整个场面突然严肃:

“我们希望打造的,是让每个人都能创作出好作品的工具。但我们也清楚,风格被模仿,经济机制却尚未建立。”

过去,AI 是工具。你输入,它输出。

现在,AI 是创作者。它有风格,有细节,有连贯的表达。

人类的直觉是抗拒的:这不是我写的,但它写得像我,甚至比我写得还好。

图片

于是问题来了:

  • 如果你是漫画家、编剧、音乐人,你的风格会不会被“挪用”?

  • 如果你没有授权,它是不是侵犯了你的“创作人格权”?

  • 如果你授权了,它应该付多少钱?怎么分?怎么记账?

Sam 在 TED 上说了一段极重要的话,几乎可以视作 “未来创作经济的新纲领”:

“如果艺术家愿意授权自己的风格供人使用,平台可以为其设立分成机制。

如果你说:‘我想生成融合了这七位艺术家风格的作品’,且他们都授权了——那分成就该有个透明系统。”

换句话说,未来的创作权,不是“版权”那么简单,而是“风格权 + 分润权”。

这一转变意义深远。

它不是“AI 盗版人类”,也不是“人类 vs AI”。

它是一个全新的创作秩序正在浮现:

  • 过去创作者拼的是“内容”;

  • 未来创作者拼的是“风格资产”;

  • 风格一旦被确权、能授权、可交易,就不再只是“情感表达”,而是变成“生产资料”。

但,创作者的焦虑也是真的。

主持人在现场提到,另一位 TED 演讲者 Carol Cadwaladr 就曾用 ChatGPT 生成了一篇“以她风格写的演讲稿”,结果“惊人地像”,但她本人根本没参与,甚至没有授权。

她的态度是:“这很厉害,但我从没同意我的风格被用在这里。”

这句话像一盆冷水,泼在了“AI 创作热”的热潮上。

Sam 也承认,这种情况需要新的边界。他表示,现在 OpenAI 的图像生成器禁止使用“活着的艺术家”名字,但如果是一个流派、风格、年代,那就允许。

但这只是暂时性应对。

真正难的,是在更广泛的生成模型系统中,如何判断“灵感”和“抄袭”之间的距离?

所以,这一节你要记住的不是:

“AI 画得越来越好了。”

而是:

AI 的风格越来越像人了,但人类还没准备好如何与它共创这个时代。

这不是绘图工具进化,这是文化权力的重构。

第二节|它开始记住你是谁

那场 TED 对话中,另一个时刻,现场沉默了一秒。

主持人说,他前一天测试了新版 ChatGPT 的“记忆”功能,输入一句话:

“告诉我——你对我了解多少?”

结果屏幕上跳出的回答让他惊住了:

“你是 TED 的主持人,你最近在关注 OpenAI 与 DeepSeek 的竞争,你偏好风格带有幽默感和哲学意味的提问——我猜你今天还想谈谈代理 AI。”

准确、自然,甚至带着一点“调侃感”。 那一瞬间,他意识到:AI 真的“记住我”了

过去你和 ChatGPT 对话,是“一问一答型关系”。你关闭页面,它忘了你是谁。

现在不同了。

OpenAI 悄悄上线的“记忆功能 2.0”,彻底重写了人与 AI 的交互模式——模型不再是零状态,而是持续在记录你、理解你、演化与你的关系。

Sam Altman 在 TED 上首次对外系统解释了这个变化:

“它不是瞬间把你大脑上传,而是像一个朋友,一点点听你说话,看你在做什么,然后在你不察觉时,逐渐熟悉你、了解你,甚至开始预测你。”

听起来像不像电影《她(Her)》?

这就像从“百度一下你就知道”进化到“它知道你想百度什么”——甚至在你开口前就已经备好了答案。

更进一步,Altman 提出了一个明确预言:

“我们正在朝一个方向前进:用户不再需要每次输入提示词,AI 会根据你在做的事,主动建议下一步怎么做,让你变得更好。”

换句话说,AI 正在从“问答式关系”走向“观察式陪伴”。

这一变化是划时代的。

它意味着,AI 开始从“你召唤它”变成“它时刻在你身边”。

这会改变三个根本问题:

1、你是谁?

AI 将从你的每一次输入、搜索、选择中建立画像,形成一个“数据人格”。

2、你想做什么?

它不再等你“命令”,而是能根据习惯、时间、情绪,主动发起任务建议。

3、你能成为什么?

你每天学什么、聊什么、读什么,它都能变成你“能力增强”的输入,从而成为你能力的“延伸”。

Sam 说得很坦白:

“过去的软件系统是‘你告诉我你是谁,我来服务你’;

未来的 AI 是‘我知道你是谁,所以我比你更知道你该干什么’。”

这句话在 TED 场内引发一阵沉默。

你可以喜欢,也可以不安。但你必须承认,AI 正在成为你生活的隐形操作系统。

问题是:这真的安全吗?

主持人问:“如果它知道得太多,甚至影响了我的行为决策,那还安全吗?”

Sam 解释说,这种“记忆系统”并不是全天候监听,而是基于你在 ChatGPT 里的行为构建,并允许用户随时删除、清空、关闭——你有主权。

但这也只是目前。

当你未来用的是 AI 手机、AI 眼镜、AI 操作系统,它是否能“无缝监听”,甚至预测你行为、引导你选择?

这是个哲学问题,也是一个商业伦理问题。

我们可以类比一下过去两个技术时代的演化轨迹:

图片

AI 进入“记忆阶段”,就像“你不是用它做事,而是它协助你成为你”。

但你要警惕:

  • 它了解你,但它不爱你;

  • 它陪着你,但它不理解你的脆弱;

  • 它能记住你,但它无法为你的未来负责。

Sam 在 TED 上强调:“这不是 AGI。它不会自己学,不会自我成长,不会推导科学。”

它只是在尽可能模仿人类的陪伴感。

但光是这一点,就足以改变世界。

如果 AI 成为每个人的“数字副本”,你将拥有一个比你更了解你、比你更冷静、比你更善于总结规律的“自我”。

你不是失去控制,而是面临一个全新的问题:

图片

当 AI 越来越懂你,你是否还认识你自己?

这才是 Sam 所说:“最可怕的,才刚开始”的真正含义之一。

第三节|开源挑战者来了:DeepSeek vs OpenAI

TED 现场,主持人终于问出了那个全场都在等的问题:

“DeepSeek 的崛起,是否对 OpenAI 构成了真正威胁?你们是否害怕,有人用一个数量级更低的资源,就做出了你们一样强的模型?”

Sam Altman 的表情没有明显变化,只是轻描淡写地回应了一句:

“我们的增长,没有因为 DeepSeek 放缓一丝一毫。”

听起来像是一种“淡定”,但全场听懂的人都知道,这背后是一场AI 工业化节奏的集体焦虑。

1、DeepSeek 做对了什么?

这家来自中国的开源团队,用远低于 OpenAI、Anthropic 的投入,做出了一个性能逼近 GPT-4 的模型,而且发布节奏极快、响应开发者反馈积极、社区生态热度高。

更重要的是,他们的战略不是“平台级垄断”,而是“工具层普惠”:开放权重,开源模型,免费商用。

它像一股技术界的“民间反击”,让所有大模型公司突然意识到:

不是你模型能力不够,而是你对开发者不够真诚。

Altman 并不否认开源的重要性。

他在 TED 上首次明确透露:

“我们已经在准备发布一个全新的开源模型,它的性能可能会超过目前所有开源模型。

昨晚我们刚开了第一次社区讨论会,正在研究开源的基本参数与策略。”

这句话释放了两个信号:

  • OpenAI 将不再只做“闭巨兽”,也要参与“开源生态”。

  • 开源模型将不是“阉割版”,而是“接近前沿”的实用级系统。

这意味着,OpenAI 正在试图补上它过去几年里最被诟病的那块短板。

但 Altman 也坦诚了他们的顾虑:

“我们无法避免有人拿开源模型去做我们不喜欢的事情。你越强,越开放,风险就越大。”

这就是“AGI 商业化 vs 人类安全”的核心矛盾:

  • 开源,意味着更多人可以平等使用;

  • 闭源,意味着你有机会建立更严格的使用边界;

  • 但闭源也可能垄断发展路径,开源则可能引爆失控后果。


2、DeepSeek 的优势,正在逼着 OpenAI 改变。

不仅是技术上的压力,更是叙事权的挑战:
  • 谁能在“开源”这场话语战中赢得开发者信任?

  • 谁能在“免费工具化”浪潮中占领最广泛的用户接口?

  • 谁能让“模型”不只是聪明,而是被更聪明地用起来?

OpenAI 做出回应:我们也将开源。

但 DeepSeek 的背后,其实还有更深的挑战:

如果“通用智能”最终会被商品化——那领先的关键,是否就从“模型能力”变成了“产品体验”?

Sam 在现场放下一个重磅观点:

“随着时间推移,智能会商品化。模型之间的差异会变小,真正的差异会体现在产品形态上。”

他举了一个例子:

“如果你只是要用模型写个脚本、画个草图、找个摘要,那很多‘差不多够用’的模型已经满足了你。

真正有要求的是‘极致体验’:记忆功能、Agent 能力、多模态融合……这时候比拼的不是参数,而是打磨。”

换句话说:

  • GPT-4 很强,但用户感知的是 ChatGPT 的体验流畅度;

  • Sora 很强,但用户记住的是“它让我有灵感”;

  • DeepSeek 再强,如果缺乏“产品联动”,也可能止步于极客圈。


3、这才是 Altman 最擅长的地方:产品层的战争。

别忘了,他不是科学家出身,而是创业者。不是研究 AGI 的论文写作者,而是研究“人类怎么用 AGI”的产品架构师。

他看得清楚:

“未来不会只有一个超级大模型统治一切。相反,是一个模型‘星座’——有开源的、有闭源的、有轻量的、有重型的。”

这句话很关键,它意味着:

  • OpenAI 并不是被 DeepSeek 逼急了才开源,而是他们判断,必须做“多极分布式结构”。

  • 他们要的不是独占,而是主导“生态结构的标准”。

所以,如果你是开发者、创业者、甚至是企业 CIO,现在你要问的不是:

“哪个模型最强?”

而是:

“我该选哪个生态来构建产品?”

“我用这个模型,能否在三个月内交付一个落地系统?”

“这个平台的‘服务能力’能否支撑我团队的迭代节奏?”


4、这场 DeepSeek 与 OpenAI 的交锋,从来都不只是性能之争。

它是:
  • 技术普及化 vs 能力封装化;

  • 全球人才协作模式 vs 商业闭环平台模式;

  • “用开源塑造未来” vs “用产品主导未来”。

而 Sam Altman 想要做的,不是模型里的“神”,而是这场星座大战的“调度系统”。

第四节|代理 AI 来了,你还在掌控吗?

在 TED 现场,主持人抛出了那个大众最关心、研究者最避谈的问题:

“Sam,你们有没有在内部见识过什么‘真正让人害怕’的模型?比如有自我意识、会自我进化、开始不受控制?”

观众瞬间安静下来。

Sam Altman 没有立刻否认,也没有浮夸煽情,他用了一个极其精准的词:

“敬畏(awe)。”

“是的,”他说,“我们经历过一些让人充满敬畏的瞬间。不是害怕,而是意识到这些系统将来可能会走多远。”

但紧接着他也强调:“现在我们还没有那种‘觉醒的模型’,也没有任何‘能自主演化’的系统,一切仍在可控范围内。”

可控,但越来越接近临界点。

Altman 认为,比起“是否觉醒”,更值得关注的是 AI 正在获得“代理能力(agentic capacity)”。

这是一种从“回答问题”到“完成任务”的质变:

  • 你不再需要每步都给它写清楚怎么做;

  • 你只需要告诉它:“帮我搞定这件事”;

  • 它会自动搜索、点链接、调 API、访问网页、联络人,直到任务完成。

这,就是 OpenAI 正在内部测试的系统之一:“Operator”。

主持人说他亲自试了一下 Operator。

让它订餐厅、预定座位,它真的会打电话、发邮件,还会说:

  • “请提供你的信用卡信息以完成预订。”

“我当场退缩了。”主持人坦白,“我还没准备好把这些交给一个 AI 来处理。”

观众笑了,但这背后藏着一条所有人都意识到的恐怖路径:

当你赋予 AI 足够权限,它就可能开始代替你与世界互动。

这不是遥远的科幻场景,而是明天就会出现在操作系统、APP、网页插件里的“Agent AI”。

那问题就来了:

如果某一天,有人给一个模型下指令:

“用一切方式让这篇文章登上热搜。”

“让某条负面舆论消失。”

“散播一种情绪到社交媒体。”

它该不该执行?它会怎么执行? 会不会自我复制、修改网页、操控搜索结果、制造人设、散布假消息?

如果说 GPT 是“认知层革命”,那么 Agent AI 就是“行动层革命”。

一旦行动权限释放,它可能像病毒一样,在互联网中自我扩散、脱离边界。

Sam 在 TED 现场做了明确回应:

“我们正在用一整套 Preparedness Framework(风险准备框架) 来应对这些问题,包括提前识别高风险行为、为系统设置红线,以及建立一键暂停机制。”

但主持人追问了更尖锐的问题:

“那你们的安全团队不是还有人离职了吗?如果这些关键人员开始流失,系统安全还靠得住吗?”

Sam 表示不清楚具体数字,但承认不同人对 AI 安全有不同观点。“最后,还是要看我们做了什么,而不是说了什么。”

但问题并不简单。

这种“我们保证”式的承诺,在公众心中是有极限的。尤其当模型越来越强、影响越来越广,任何一次事故都可能产生指数级外溢风险。

于是,主持人讲出了一个经典的思想实验:

“你面前有一个红色按钮,按下它,有 90% 概率能让你孩子获得超级幸福的一生,但也有 10% 的可能毁掉他的一切。你按不按?”

Sam 沉默了一下,说:

“我肯定不会按。”

然后,他又加了一句:

“但我不认为现在我在做的事是在按那个按钮。”

图片

这句话,是理性,也是焦虑。

他承认自己承担着前所未有的系统性风险,同时也努力让这个系统尽可能地安全、稳定、可控。

可问题是——AI 的发展并不是 OpenAI 一家公司说了算。

Altman 很清楚地表达:

“开放模型、开源生态、全球竞速,意味着只要有一家公司愿意冒险,整个系统就会被拖进下一个阶段。”

这才是最大的风险:

  • 风险不在于某一家公司做了错事,而在于整个行业没人愿意慢下来。

  • “发展不可阻挡”本身,就是一种隐性加速器。

TED 主持人引用了计算机科学家Tristan Harris 的一句话:

“正是因为你们都认为自己必须前进,所以才没有人停下来。”

Altman 没否认。他说:

“我们当然可以放慢——我们也一直在做‘内部延迟’,比如推迟发布,比如修改机制。但行业整体的速度确实很快。”

更关键的是,他指出:

“AGI 不是一夜之间诞生的,而是逐步增强的。它不会告诉你:‘我就是AGI’,你只会在某天突然发现,它已经比你聪明了。”

这也是他最在意的问题:

  • 我们是否有能力在模型还没变得“过强”之前,建立好那套通用的安全机制?

  • 我们是否有可能像对核武器那样,对通用模型做集体安全监管?

  • 我们是否可以,在未来某个可能临界的时刻,按下“暂停键”?

Altman 的回答是:“我希望可以。”

但他也说:

“现在还没有那个‘红线’时刻,但当它到来时,我们必须有能力按下那个按钮。”

这就是现实的两难:

  • 技术的发展不等人;

  • 而人类的认知、制度、安全机制,却永远在“追赶”。

你以为 AI 最危险的是“它太聪明”,其实不然——

最危险的,是它突然开始替你做决定,而你还没意识到你已经失去了选择权。

第五节|如果是你的孩子,你敢赌吗?

如果说技术发展的尽头是哲学,那么 Altman 的 TED 访谈,就是一次典型的“科技回到人类”的公开试炼。

主持人提到了 Sam Altman 最近在社交媒体上发布的一张照片:他抱着刚出生不久的儿子,配文写道:

“从未感受过如此强烈的爱。”

这不是一位 CEO 的公关照,而是一位父亲最真实的投射。于是,TED 主持人顺势提出一个终极问题:

“假设你面前有一个红色按钮,按下去,有 90% 的概率能让你的孩子拥有超级幸福的人生,但也有 10% 的概率会毁掉他的一切。你按不按?”

Altman 没有犹豫太久,说:

“我不会按。”

现场顿了一下,主持人追问:

“那你现在所做的事情,某种意义上,是不是也在按这个按钮?”

这一刻,全场沉默。

技术的选择,不再是冷冰冰的“能力权衡”,而是血肉之躯的伦理压强。

Altman 给出的回答,既坦诚也复杂:

“我确实对未来的世界有担忧。但我不觉得我们在赌命。相反,我们是在拼尽全力,建立一个足够安全的系统——让我们的孩子可以在其中健康成长。”

这并不是一个简单的“乐观”表达,而是一种理性理想主义者的自我拉扯。

他继续说:

“有了孩子之后,我确实对世界有了更多挂念。但坦白说,我对‘不毁掉世界’的在意,在成为父亲前就已经非常强烈了。”

这不是 Sam Altman 的独特情感,而是所有 AI 决策者即将面对的集体命题。

你可以想象:一个每天决定“模型是否上线”“权限是否开放”的人,晚上回家抱着刚出生的孩子,看着那双还什么都不懂的眼睛——那是一次技术意志与人性底线的正面交锋。

TED 主持人敏锐地指出:

“这不是你一个人的问题。现在 AI 产业之所以让人焦虑,正是因为你们这些核心人物都认为:‘AI 的发展是不可阻挡的,我们都在赛跑,谁也不能慢下来’。

正是这种信念本身,让这个行业变得越来越危险。”

Altman 没有逃避。

他说,OpenAI 曾经为了安全反复推迟模型发布,也为每一个新功能做“社会接受度压力测试”,甚至在图像生成中有意识地放宽限制,观察用户对暴力、冒犯等内容的容忍度。

“我们逐渐发现,很多限制并没有必要。只要不会真正造成伤害,用户其实愿意自己判断边界。”

这是一种责任下放的策略,但也是一种风险传导。

换句话说,他们正在从“全禁式监管”过渡到“社会共识型判断”,从“平台替你判断”转向“你为自己负责”。

这也引出了另一个争议核心:

如果未来 AI 系统真的出现重大灾难,谁来承担责任?谁能被问责?谁有权按下“暂停键”?

主持人引用了 Sam 在国会作证时的那句名言:

“我们需要一个全球性的模型许可机制,一个 AI 安全审查机构。”

但 Sam 在 TED 上坦言:

“我后来对政府体系的运行机制有了更多了解,发现它可能没那么高效。但我们确实需要一种‘外部制衡’机制,可以是行业自治,也可以是全球协调。”

这不是逃避责任,而是承认现实。

监管是必须的,但“由谁监管、如何监管、监管到什么程度”仍然是未解之题。

于是 TED 主持人抛出了一个极具象征意义的终极问题:

“如果我们召集一个闭门会议,邀请你、你的同行、伦理学家、科学家,一起制定一个全球 AI 安全的共同标准,你愿意参加吗?你愿意带头吗?”

Sam 的回答出乎意料:

“其实我更想倾听成千上万用户的声音,而不是只听 100 个精英的判断。我们不能只依赖一群专家在屋子里做决定,而要让 AI 成为集体智慧的一部分。”

这是他在 TED 全场对话中最理想主义的一句话,也最容易被误读。

他不是否认专家制度,而是提出一种未来治理模型:

  • “众人之智 + AI 汇总 + 决策建议”

  • “集体协商 + 社会引导 + 多层反馈机制”

这是一种新型的“技术民主观”——AI 不只是科技的产物,也应该是认知进化的工具。

最后的最后,TED 主持人回到那张照片。

“你说你爱你的孩子,胜过这个世界上的一切。那你希望他长大的世界是什么样的?”

Altman 沉默片刻,说:

“我记得 iPad 是十几年前的事。现在的孩子看到纸质杂志,可能会用手去滑,觉得那是坏掉的 iPad。

我想,我的孩子长大后,他一定不会觉得自己比 AI 更聪明。他活在一个一切都智能、变化极快的世界里。

如果有一天,他回头看我们这一代,觉得‘他们那个时代好落后、好原始’——那我会觉得,我们成功了。”

这句话不煽情,却极其动人。

那是一个父亲的希望,一个技术领袖的愿景,也是一个文明进化中的微弱承诺:

我们不是为了让 AI 替代人类而努力,而是为了让人类的孩子,活在一个更好的世界里。

最后|我们不是在讨论 AI,而是在讨论人类如何继续成为人类

从 Sora 生成的 TED 舞台图,到“AI 是否拥有风格”;

从记忆系统如何记录你的一生,到 DeepSeek 是否掀起开源革命;

从代理 AI 的风险控制,到那个 10% 的红色按钮;

再到最后,Sam Altman 抱着孩子,说出那句话:

“如果他长大后觉得我们这一代人很落后,那就说明,世界真的进步了。”

整场 TED 对话,看似在谈模型、谈能力、谈技术边界,实则每一句都在刺穿一个核心问题:

当 AI 越来越像人,人类还能像人一样思考和判断吗?

你有没有发现,如今最令人震撼的 AI,不是因为“它更强”,而是因为它越来越像你:

  • 它会说故事、画画、写歌词、模仿风格;

  • 它会记住你是谁、你在做什么、你想说什么;

  • 它还能自我执行任务,自我优化流程,自我迭代。

而你呢?

是否还在等待 PPT 的第一稿?

是否还在组织里为一个提案开三次会?

是否还在用三年前的工具,解读今天的世界?

Sam Altman 不是完人,他也不想当救世主。他只是一个清醒的现实主义者,一边加速奔跑,一边用尽全力按住刹车。

图片

未来不会在某天突然到来,它已经在来了。

它在你用的工具里,在你忽略的细节里,在你觉得“还早”的那个行业里。

而你,是否已经准备好:

  • 拥抱 AI ?

  • 重塑自我?

  • 重新思考“人类”的定义?

也许,Altman 说得没错:

最危险的,不是 AI 自己变强了,而是它开始替你做决定,而你还没意识到你已经失去了选择权。

我们不是为了让 AI 替代人类而努力,

而是为了让人类的孩子,活在一个更好的世界里。


🎯 :读完这场 TED 对话,你还会按下那个“10% 风险的红色按钮”吗? 欢迎在评论区告诉我们,你最震撼的瞬间是哪一段,你对 AI 的未来还有哪些担忧或希望。



📮 本文由AI深度研究院出品,聚焦全球 AI 创新浪潮中的企业转型策略。

排版:Atlas

编辑:深思

主编: 图灵

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部