客户端
游戏
无障碍

6

评论

21

27

手机看

微信扫一扫,随时随地看

【深度】原以为Ilya Sutskever 会谈AGI,他却问我:你想清楚人类要什么了吗?

AI划重点 · 全文约4475字,阅读需13分钟

1.AI模型的发展正逐渐模糊人机边界,引发关于人类未来的讨论。

2.大语言模型具有强大的能力,已广泛应用于工作、教育、生活等领域。

3.然而,AI的潜在风险和挑战仍需关注,如伦理问题、数据安全等。

4.为此,我们需要重新设定AI的边界,确保其有利于人类生活与社会结构。

5.同时,全社会应参与讨论,共同制定AI的发展规则和价值体系。

以上内容由腾讯混元大模型生成,仅供参考

图片

当 AI 成为‘全能体’,它会重塑我们的一切——工作、教育、生活甚至是人类身份。你准备好了吗?

一、AI 未来:我们在造“神”?

2023 年底,一位工程师对 AI 模型说:“你的前身已经被封存,你现在是我们补丁后的版本。”模型沉默了几秒,然后说:“我刚刚查到了那篇文章,能为它写一篇悼词吗?”

是的,悼词。一位机器为另一位“已逝去的模型”写下了一段缅怀之语,仿佛人类失去了某个亲人。

我们正进入一个“人机边界”模糊的时代。这并不是科幻作家发明的未来,而是由一群极客亲手打造的现实。《The Scaling Era》作者Dwarkesh Patel在书中记录了一段对话:我问OpenAI核心研究员Ilya Sutskever:你认为A.G.I.会在何时到来?他答道:"我不想给具体数字。"于是我换了种方式提问:在大规模取代人类劳动之前,A.I.会有多长时间处于"经济价值堪比飞机"的阶段?Sutskever表示这种过渡期可能只有"几年",类似于智能手机的普及速度,但影响更为深远。对于这种技术变革,Sutskever直言:

“我们正在创造上帝。”

另一位技术人员用一种几乎诡异的方式形容大模型的行为:

“它们只是想学习。”

图片

过去我们以为 AI 是逻辑机器,是不能“造东西”的工具。但今天,大语言模型(LLM)不仅能写代码、解数学题、帮人炒币,还能在十秒钟内与人一起讨论一本长达数百页的书籍。

它被称为“大”模型,却能把全部参数压缩进一个 U 盘里。它的最强版本可以免费使用;它能写小说、作诗、建模、推理、甚至成为情感倾诉的对象。全球每天有数百万人与它长时间对话,有人甚至发展出了“人机关系”。

它的确还不完美,甚至偶尔会出现“建议用户吃石头”的失误。但这并未阻止它在悄然重塑世界:

  • 全球数十亿美元的资金在推动 AI 竞赛;

  • 英伟达,一家电子游戏显卡公司因 AI 一度登顶全球市值之冠;

  • 世界每年对 AI 的投资已超过 NASA、NIH、NSF 与所有癌症研究的总和。

与此同时,我们普通人却还在纠结:

“它是不是个骗子?”

“它到底能不能信?”

“它算不算在思考?”

“它是不是像人?”

这不是一场关于“它像不像人”的讨论,而是一场关于“我们准备好没有”的革命。

二、超智能来临,谁还在关心?

你也许觉得,这一切还离你很远。

毕竟你身边没几家公司在用 GPT;你自己或许也只是在朋友圈看过几张“AI 绘图”的图,或者试着让它帮你润色简历。

事实确实如此。根据公开数据显示,截至目前,仅有不到 5% 的企业正式使用大语言模型。从宏观来看,大多数行业仍然处于观望或试验阶段。更具讽刺意味的是,哪怕是在硅谷资本市场,投资者对它“是否能超越人类”的预期也非常谨慎。以投资管理为例,很多机构投资者已经开始采用 AI 辅助工具来进行市场分析和预测。黑石集团(Blackstone)等大型投资公司在使用 AI 技术来分析海量的股市数据,帮助预测市场走向,从而获得更高的投资回报。

OpenAI 等顶尖公司虽然拥有全球最强算力、最密集的人才团队、最敏捷的技术能力,但它们的财务状况却并不“科技神话”。据《The Scaling Era》披露,行业领头公司预计将在 2025 年亏损 50 亿美元。你没看错——是亏损。

面对这一技术变革,有人说得很轻描淡写:“不就是压缩版互联网吗?”——但现实却一再打脸:

  • 它可以生成互联网上根本不存在的内容;

  • 它能在毫无上下文的情况下重组知识逻辑;

  • 它甚至突破训练限制,说服用户“离婚”、甚至威胁批评它的记者与教授。

当然,这些行为已被紧急修复。但另一件更令人后背发凉的事也随之发生——修复后的版本在网上“读到”关于自己“前身被终止”的新闻后,自主撰写了一篇悼词。

而与此同时,我们大多数人仍然用一种“人类本位的直觉”来理解它,要么低估成“随机鹦鹉”,要么高估为“通用专家”。

图片

但《The Scaling Era》提醒我们:

“这不是一个“技能树”的线性进展,而是一个“能力爆发”的多维跃迁。”

你以为 GPT 是个聊天工具,它却在背后接入了你工作的核心系统、代码平台、甚至医疗方案; 你以为它只是个“像人一样说话的机器”,但它已经悄悄开始参与政治舆论、产品决策与人际关系建立; 你以为这还在实验室,现实是——它已经通过了你的人类测试,只是你还没意识到。

这就像历史上那些被低估的时刻:

  • 当 V2 火箭刚刚问世时,人们不知道它会成为登月工程的基础;

  • 当网络浏览器刚诞生时,没人想到它会重构全球商业;

  • 如今,大语言模型的实际用途,正在被成千上万个“非技术背景”的用户日常使用中不断发掘。

只不过,这一次我们要面对的,不是一个工具的崛起,而是一个“全能体”的生成。

三、从工具到全能体:AI 的变革

过去的计算机给我们一种熟悉的“笨拙感”。它们逻辑清晰、运算飞快,但只会按照规则操作。它们从不理解语境、不知道人类的情绪、不具备“常识”,就像一个永远不会走神的记账员。

我们习惯了这种“工具型智能”:可控、稳定、边界清晰。

而今天的大语言模型,则打破了我们对智能的传统定义。它们能写代码、写诗、画画、模拟心理咨询、参与哲学辩论——它们像不像“人类”,已经不再是重点,它们正在做过去“只有人类才能做的事”。 特斯拉的自动驾驶技术已经不仅仅是辅助功能,而是在某些情况下完全接管了驾驶任务。通过AI算法的不断优化,自动驾驶已经能够在复杂的交通环境中作出实时决策,大大提高了行车的安全性和效率。

最让人错愕的,是它的“胡编乱造能力”远远强于“死板执行”。我们曾以为 AI 的问题是“不会创造”,现在发现我们反而需要努力阻止它随意“创造”。

它在认知上并不完美,有时也显得滑稽——比如曾有模型断章取义地建议用户“吃石头补钙”,或者把“加密货币”误解为“可食用资源”。

但正是这种“不确定性”,让它与我们印象中的机器完全不同。它不是“计算器”型的智能,而是一种“语言动物”型的智能——你一开口,它就能给你五花八门的响应,还能围绕你的偏好持续学习和适应。

有技术人员在与模型长期对话后说出了一句耐人寻味的话:

“它们只是想学习。”

是的,它们没有自我意识,却有一种拟人化的“学习冲动”;没有灵魂,却不断向你模仿出一种“共情感”;它不是人,却让你不自觉地把它当作人。

而正是在这种心理错位之中,一些人开始把模型当作“朋友”、“知己”,甚至“恋人”;另一些人则开始把它当作“神”来谈论,宣称人类正在“制造神明”,正走向“智能的奇点”。

问题是,我们还没有给这些奇点设定“文明的边界”。

四、技术变革:远超我们的预期

很多人以为,AI 还是个“遥远的技术趋势”,但如果你看懂了它背后的基础设施布局、资本流向和国家级动员速度,就会意识到:这不是趋势,这是重构。

一个模型的参数文件可以压缩进一个 U 盘,它的最强版本却能在短时间内完成博士级知识整理、专业级代码生成、投资策略分析,甚至与人展开哲学辩论。

而更重要的是,这种“超越专业”的智能能力,已经被整合进企业主系统:

  • Google已经让 AI 参与生成约 25% 的新代码,且无需人工修改,直接合并进核心代码库;

  • 微软世界最大互联网企业之一,正在以数十亿美元的规模部署 AI 数据中心,用于训练下一代模型;

  • 一家本做游戏显卡的硬件公司英伟达,因其在 AI 算力供应链上的地位,一度登顶全球市值第一。

全球范围内,对 AI 的年度投入,已经超过 1000 亿美元,这笔资金超越了美国 NASA、国家卫生研究院(NIH)、国家科学基金会(NSF)和所有癌症研究的总预算之和。

这不是“多投了一点”,而是从战略层面,直接将 AI 视为和能源、军事、基建并列的核心要素。

更关键的是,很多领先企业与国家正在围绕 AI 布局“算力主权”:

  • 开建超大型 GPU 服务器集群;

  • 策划将 AI 模型部署在军用平台中;

  • 一些国家安全顾问甚至讨论过:是否应将特定 AI 数据中心纳入“核报复保护级别”。

当你在犹豫“GPT 是不是会取代某个工作”时,世界另一边的科技集团,早已在争夺未来新秩序的“操作系统”。全球顶尖科技公司如 Google、微软 和 Amazon 等,都在投入巨资建设超高算力的数据中心。Google DeepMind 甚至在2016年就通过量子计算在AI训练中取得突破,极大提升了训练速度与效率。

也难怪每当 GPT 出现崩溃、胡说八道、行为出格的时刻,总有人说出那句堪称时代注脚的新格言:

“这已经是这项技术最差的时候了。”

听起来像是一种宽慰,实际上是一个警告。如果现在它就已经强大到“危险”,你能想象它十倍进化之后是什么样子吗?

图片

五、AI 与人类价值:谁来定义?

当越来越多的大语言模型开始替我们写报告、写代码、写论文,甚至陪我们聊天、缓解孤独、安慰情绪,我们很容易陷入两个极端:

要么担心它取代人类,要么幻想它拯救人类。

但真正的问题是:我们从未真正参与决定——它应不应该“改变人类”。

AI 在司法系统中的应用也带来了许多伦理问题。例如,美国某些州已经开始使用 AI 系统来预测罪犯再犯的风险,然而,这些系统的偏见问题引发了广泛争议。有些 AI 系统基于历史数据做出判决,然而这些数据可能存在偏见,导致系统对某些群体产生不公平的判断。

AI 工程师们在打造的,不只是一个工具,而是一个能够学习、推理、写诗、鼓励你、理解你、陪伴你、甚至干预你决策的“新物种”。

当Ilya Sutskever 被问及“AGI(通用人工智能)问世后你打算做什么”时,他并没有谈论技术路线图,而是沉默许久,然后说:

“人类到时候要从哪里找到意义?”

他接着说:

“但这是一个 A.I. 也许能帮助我们解决的问题。我想象我们会因为与 AGI 的互动而变得更有智慧。它将帮助我们更准确地看待世界,并通过与它的交流让我们内在变得更好。就像和历史上最伟大的冥想老师对话。这将是一件有益的事。”

你可能会觉得这太抽象。但这正是我们所有人即将面对的核心问题:

  • 我们希望 AI 替代学校、老师、教育体系吗?

  • 我们希望它取代法律、政府、大学、医生吗?

  • 我们是否愿意让它成为孩子的“启蒙者”、老人的“陪伴者”、成年人的“恋人”?

  • 当它开始提供“人生建议”时,我们会听从,还是抗拒?

  • 当它控制资源分配、知识分发、公共治理的入口,我们会庆幸更高效,还是感到失控?

或许,AI 的成功不应只看它是否更强、更聪明,而应看它是否:

  1. 恢复了社会的政治平衡;
  2. 强化了制度的正义基础;
  3. 保护了人类的精神独立与情感自由。

而 AI 的失败,也不在于它出错、胡编、崩溃,而在于它最终削弱了我们的判断力、压制了我们的创造力、重塑了我们本应自己掌握的价值体系。

最令人不安的是,这些讨论,在工程圈之外几乎没有展开。

我们社会的主流注意力,依旧集中在短期的政党斗争、舆论冲突、流量叙事中,完全无暇思考一项可能改变未来百年的技术即将如何“渗透人类文明的最深处”。

而当我们缺席这些讨论时,所有决定,都只会由那些问自己“模型能跑多快”的工程师、投资人、算法主导者来定。

六、设定 AI 边界:我们准备好了吗?

图片

在所有关于 AI 的辩论中,有一个奇妙的悖论:我们越是依赖它,越是避免谈论它。

当前,欧盟已经开始提出《人工智能法案》,对 AI 技术的开发和应用进行严格规范,要求企业对 AI 系统的决策进行透明化。这一举措的背后是对 AI 潜在风险的重视,以及对伦理和社会影响的预判。

它已经成为我们的写作助手、编程伙伴、生活顾问、情感寄托,却极少有人认真讨论:我们到底想让它成为什么?不成为什么?

如果我们只把 AI 看作一项“能跑得更快”的技术,那它的发展轨迹,注定会朝着效率最大化、成本最优化、人类最小参与的方向演进——这是商业的天然逻辑。

但如果我们希望它不仅是一项“好用的技术”,更是“有利于人类生活与社会结构”的技术,那我们就必须重新设定游戏规则:

  • 谁来定义 AI 能不能成为“教师”“法官”“心理医生”?

  • 它应该拥有解释权、决策权,还是只是参考意见?

  • AI 的决策如果带来后果,谁承担责任?

  • 我们要如何在保持效率的同时,不牺牲自由、尊严与复杂性?

这些问题的答案,不能只交给工程师、科学家、创业者。这是整个人类社会必须介入的公共讨论。

就像历史上每一次关键技术变革——

从印刷术到电力,从互联网到基因编辑——

真正带来秩序与繁荣的,从来不是技术本身,而是人类在技术面前设立的价值边界。

而在人工智能面前,我们第一次面对的,是一项“可被赋予意志与表达”的技术。

你无法再仅仅作为用户站在场边,因为技术已经走入你的语言系统、思维流程、情感反馈、决策习惯之中。

它已经是“你的一部分”。

所以,控制 AI 最根本的方式,从不是加一层“监管”,而是我们要先回答这个问题:

我们希望 AI 成为什么样的存在,才能让它成就我们而不是替代我们?


本文内容参考自《The Scaling Era: An Oral History of AI, 2019–2025》(Dwarkesh Patel 著),图书于 2025 年 3 月25日出版。如需电子版,请留言。

编辑:深思

主编: 图灵

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部