时间回到2016年3月,拥有18个世界冠军头衔、被誉为“史上最伟大的棋手之一”的李世石对阵谷歌旗下DeepMind开发的人工智能AlphaGo。尽管在第四局比赛中,李世石凭借“神之一手”让当时的AlphaGo出现“类似人类的慌乱”,赢下五局中的唯一一局,但仅仅三年后,这位曾庆祝“人类尚未被征服”的棋手便黯然退役,称“输给AI在某种意义上意味着整个世界的崩塌”,自己“再也无法从对局中获得快乐”。
在规则明确的博弈中,拥有足够算力的先进算法几乎无往不利。十年过去,人类在正式比赛中战胜 AlphaGo 的记录依然定格在“1”。更多人越发深刻地体会到类似的“崩塌”,并逐渐习以为常。
当这种对崩塌的适应成为一种长期的集体习惯,作为一滴水,该如何理解河道的改变,以及前方未知的汪洋?
美国科技史学家、金融史学家塞巴斯蒂安·马拉比的新书《哈萨比斯:谷歌AI之脑》(以下简称《哈萨比斯》)为这个问题提供了一扇窗。德米斯·哈萨比斯是DeepMind的创始人、AlphaGo的核心推动者之一。在AlphaFold项目中,他与同事约翰·江珀领导团队取得了蛋白质结构预测的重大突破,两人因此共同获得2024年诺贝尔化学奖。
“如果能理解这些技术是什么、为何被创造、又由谁创造,就能为人们在未来十年面对复杂局面提供必要的背景和参照。”马拉比告诉《南方人物周刊》。
《哈萨比斯:谷歌AI之脑》
在书中,马拉比展开了一个多维的AI“创世记”:通往 AGI(注:即通用人工智能,在绝大多数认知任务上达到或超过人类水平的人工智能)的技术路线之争、企业在资本和舆论场中的角力,研究机构与科技巨头出资方之间的分歧和摩擦,企业家与科学家身份交融后在挑战来临时的立场选择……“当一项具有无限潜力的技术即将出现时,关于谁应该控制它,永远不会有平静的共识。”
马拉比认为,哈萨比斯早年参与构思的一款名为《黑与白》的游戏,为解释当下提供了一种意味深长的隐喻。这款游戏的核心机制在于“玩家所扮演的上帝的道德准则决定了世界的颜色”。玩家也会在选择的过程中发现自己的真实性格。考虑到现实世界中发明者的自主决定权往往受限,那么,“上帝”究竟是谁?
在紧张的地缘政治格局下,丛林法则再度浮现。零和竞争和安全叙事常常迫使技术发展理应秉持的敬畏和谨慎让位;从国家到企业再到个人,深层的不信任和对受制于人的焦虑,使得AI推进的过程显得“如此疯狂,如此仓皇”。
2026年3月上旬,马拉比从英国来华宣传新书,这距离他上次访华已经过去六年。一周里,他辗转上海、东莞、北京、杭州,参观了AI深度嵌入的制造业工厂,与清华教授交流中美在AI安全认知上是否存在文化差异,感受中国AI创业和使用的火热氛围,与科技巨头的技术专家对话……
与此同时,他向《南方人物周刊》提及几天前他的妻子、《经济学人》总编辑赞妮·明顿·贝多斯在旧金山对人工智能公司Anthropic创始人达里奥·阿莫代伊的专访。
不久前,Anthropic因在国防供应链合作过程中拒绝放宽AI模型Claude的使用限制,被美国政府认定为“供应链风险”,合同面临被取消的风险。据《华盛顿邮报》3月4日报道,Claude已作为辅助工具深度嵌入作战行动,在美以对伊朗发动的军事打击中发挥了重要作用。
在这个颇为动荡的3月,我们与马拉比的对话显得恰逢其时。
塞巴斯蒂安·马拉比:科技史学家、金融史学家,现任美国外交关系委员会高级研究员,历任《经济学人》社长、《华盛顿邮报》专栏作家。两度入围新闻领域的“奥斯卡”普利策奖,著有《风险投资史》《富可敌国》《格林斯潘传》等,多部作品多次登顶畅销书榜。他的新书《哈萨比斯:谷歌AI之脑》(The Infinity Machine)中文版于2026年3月出版 图/Jeremy Sherlick
科学与权力
南方人物周刊:《哈萨比斯》是在哈萨比斯声名鼎盛之际为他写的传记,这对传记作者意味着什么?
马拉比:我写过一部关于艾伦·格林斯潘(注:1987—2006年任美国联邦储备委员会主席)的传记。采写时,格林斯潘已卸任多年,我向他提问的多半是很久以前的事。哈萨比斯更年轻,正处在一切事件的中心,不仅非常擅长讲故事,还对各类话题充满洞见和热情。对后者的访谈更令人兴奋。
代价就是故事的结局是未知的。不过,我还是在这本书中完成了一条相对完整的叙事弧:从哈萨比斯17岁左右萌生了创造通用人工智能的想法——那是在人工智能几乎什么都做不了的年代——一直写到Gemini 3的诞生。这段历程构成了一段有意义的历史切片。
南方人物周刊:现阶段你最想与哈萨比斯交流的问题是什么?
马拉比:我很想听他对Anthropic及其CEO达里奥近期与五角大楼之间的冲突的看法。哈萨比斯故事的核心在于他心怀善意,并为此做了很多尝试,比如花三年与谷歌谈判,试图独立出来,或建立安全机制,但这些努力最终并未完全成功,做正确的事是很难的。他确实付出过代价,但相比Anthropic和达里奥,他没有公开与美国总统发生冲突,也没有失去客户,更没有损失数百万美元收入。
南方人物周刊:如果哈萨比斯处在达里奥的位置,你觉得他会如何应对?
马拉比:从哈萨比斯以往的决策记录来看,他通常会避免正面冲突。即便内心并不情愿,他可能还是会设法找到一种方式,让五角大楼去做它想做的事情。就像他与谷歌的秘密谈判,他曾尝试推动DeepMind从谷歌拆分出来,但最终选择了和解。他的解释是,这样他能以谷歌高级员工的身份,在谷歌内外继续发挥影响力。
显然,要实现自己的技术愿景,他需要资源,不想挑起一场可能会阻碍自己获取资源的政治冲突。但我也很好奇,既然达里奥采取了如此强硬的行动,哈萨比斯会不会因此反思自己当初的选择是否正确?
哈萨比斯经常对我说,“好吧,塞巴斯蒂安,总有一天我必须作出一个决定。”我问他,“你是什么意思?”他说,“你知道的,人工智能在不断进步。总有一天——什么时候我也不知道——会发生一些事情,那时我必须挺身而出。”我继续追问,但他始终没有给出更明确的回答。
2025年12月9日,美国旧金山,Anthropic联合创始人达里奥·阿莫代伊 图/视觉中国
南方人物周刊:《哈萨比斯》中将哈萨比斯、穆斯塔法·苏菜曼(注:DeepMind联合创始人,现为微软Al首席执行官)、山姆·奥尔特曼(注:OpenAI首席执行官)和杰弗里·辛顿(注:图灵奖和诺贝尔物理学奖得主)放在同一个叙事框架里,你是否认为他们代表了AI领袖们不同的发展路径和行为模式?
马拉比:这是个很好的问题。正如我在书中写到的,戴维·西尔弗(注:DeepMind研究副总裁)和杰弗里·辛顿都是杰出的科学家。辛顿是深度学习的主要奠基者,西尔弗和他的导师理查德·萨顿则是强化学习的代表人物,深度学习和强化学习构成了人工智能两条并行的技术路径。
另一组对比体现在奥尔特曼与哈萨比斯之间。正如哈萨比斯对我说的,“我追求的是科学知识,而奥尔特曼追求的是权力。我们不同。”在我看来,这在某种程度上是成立的。奥尔特曼甚至一度考虑过竞选加州州长,而且他是在人工智能技术已经开始显示出可行性后才投身这一领域。他参与创办OpenAI的时间,比哈萨比斯创建DeepMind晚了约五年。
奥尔特曼是一位出色的企业家,但并不是科学家;辛顿是卓越的科学家,却不是公司领导者。哈萨比斯两者兼具,这是我觉得他最有趣的原因。
2025年2月11日,法国巴黎,OpenAI首席执行官萨姆·奥特曼(中)在人工智能行动峰会期间出席活动 图/视觉中国
南方人物周刊:辛顿也很有意思。
马拉比:确实,他离开美国(注:1987年搬到了加拿大),是因为不想接受美国军方的研究资助。
南方人物周刊:不过,他把自己的初创公司卖给了谷歌(注:2012年),相关技术成果最终还是经由后者服务于五角大楼。
马拉比:我想当时谷歌也许还没有向五角大楼出售技术,但这在今天已经是事实了。你说得对,这是个好观点。
这些人各有不同,但他们几乎多少都带有一点“奥本海默综合征”,都参与了这项技术的构建,都对此既兴奋又恐惧。
我最初想去理解的是,作为科学家,去创造真正改变甚至可能毁灭世界的东西,是一种怎样的体验?最终我意识到,他们的经历,其实只是我们每个人面对技术时感受的放大版。
任何阻碍AI加速发展的动机都被削弱了
南方人物周刊:当哈萨比斯设立外部AI伦理与安全委员会的努力受挫后,他认为只有掌握足够权力、进入核心决策圈,才有可能充当“守门人”,引导技术向善。类似地,一些关键人物在入行或后期分道扬镳时,也会强调个人使命感和道德判断,并伴随着对他人愿景和路径的不信任。似乎高风险技术的未来越来越依赖少数人的个人判断和道德框架。
马拉比:是的,这确实让人感到有些可怕。人工智能的构建已相当成熟,而将人工智能真正落地、变得有用的阶段才刚刚开始。
南方人物周刊:有评论将哈梅内伊之死视作人工智能算法对战场的影响力的表现。在 Anthropic与美国国防部就AI军事应用发生冲突后,奥尔特曼迅速在X上宣布,OpenAI 已与国防部达成协议,会将其模型部署到国防部机密网络中。这是否意味着,科技领袖在试图为前沿技术设定伦理界限方面的努力是脆弱的?
马拉比:首先,我觉得不应该说哈梅内伊之死是因为Claude或人工智能。更可能的情况是,以色列掌握了关于哈梅内伊下落的情报。当然,回到你的问题,这件事说明特朗普政府可以要求对AI的使用拥有完全控制权,如果达里奥拒绝,他们就会打压排挤他,然后从其他竞争者那里获得技术。在竞争压力下,企业很难掌握制定政策的权力。
南方人物周刊:你认为企业仍有能力对政府说“不”吗?
马拉比:没有了。Anthropic已经为它的选择付出了一定的商业代价。然而,这些代价并没有改变什么,因为OpenAI代替了它继续提供技术。在这样的竞争环境下,企业很难成为安全规则的执行者,这一角色必须由政府来承担。
(2022年年底)ChatGPT迅速走红后的头几年,围绕人工智能安全的讨论取得了很大的进展。2023年年底,在英国举行了首届人工智能安全峰会(注:包括中美在内的28个国家与欧盟共同签署《布莱切利宣言》)。之后,各国又在首尔和巴黎分别召开了后续会议。与此同时,英国、美国、新加坡、日本等国开始设立人工智能安全研究机构。尽管那时对人工智能的监管才刚刚起步,但至少迈出了第一步。
然而,进入2025年,这一进程在美国基本停滞了。这在很大程度上是因为特朗普,他将一批硅谷的技术加速主义者引入了核心权力圈。特朗普不喜欢监管,也不喜欢国际合作。
其次,这也与人工智能已经成为极其重要的经济驱动力有关。2025年,至少一半的美国GDP的增长都来自人工智能数据中心的建设。股市也完全由人工智能驱动。任何阻碍人工智能加速发展的动机都被削弱了。此外,国际层面的AI竞争使不少人认为,如果一方强调安全,而他国竞争者并未给予同等重视,还不如自己尽可能快地发展。
这些因素叠加在一起,使得美国在人工智能安全监管方面不进反退。这次中国之行,我了解到中国内部也存在一些支持在AI安全问题上采取积极行动的声音。我一直认为,美国不应重蹈在半导体出口管制上犯的错误,与中国合作会更好。
中美即将举行最高领导人会晤,我希望中美在前沿人工智能的治理和控制上展开合作。如果中美能达成一致,其他国家都会跟随。
在出现一个把AI安全置于优先位置的政府之前,我们很难摆脱当前的竞争态势。
个人影响力的边界
南方人物周刊:这让我想到,哈萨比斯创立DeepMind初期还反对任何形式的AI武器,但后来他也意识到,限制机制不可取,单方面“裁军”无异于自毁。
马拉比:是的。科技公司很清楚,技术总会被提供——如果他们不做,其他竞争者会补上空缺。所以,无论哈萨比斯之前对AI的军事应用观点如何,他如今已经放弃在这个问题上正面抗争。
一位曾在DeepMind负责安全工作的人告诉我,哈萨比斯非常懂得选择正确的时机去战斗。达里奥这次可能选错了时机,而且他对整件事的反应非常情绪化。我见过他,他本身是一个情绪非常外露的人。哈萨比斯则完全不同——他非常克制、理性,能始终保持冷静。当然,达里奥敢于抗争本身体现了一种勇气。也许在未来的某个时刻,哈萨比斯也需要展现这样的勇气。
南方人物周刊:但无论如何,哈萨比斯在特定问题上的态度变化,还是反映了某种结构性困局——那些希望掌握安全护栏设定权力的人,必须先进入权力核心,但通往权力核心的代价,是不得不融入那个追求速度、规模和领先地位的体系,这可能迫使他们违背自己原先设定的安全原则。
马拉比:你说得非常好,对哈萨比斯来说,这确实是一种结构性困境。他的“北极星”始终是做AI研究。为了达到这个目标,他不得不在一些事情上作出妥协。要在 AI安全领域有影响力,你需要权力,但获取权力的过程意味着必须把安全置于次要位置。
2024年3月14日,美国华盛顿州雷德蒙德,微软公司人工智能首席执行官穆斯塔法·苏莱曼(右)在主席兼首席执行官萨提亚·纳德拉的欢迎下登台,展示公司的AI助手Copilot 图/视觉中国
南方人物周刊:2007年苏莱曼向哈萨比斯推荐了《拥抱阴影》(Owning Your Own Shadow),当时哈萨比斯没有接受推荐。你是否观察到他性格或行为中的“阴影”,或者会以某种方式“拥抱阴影”?
马拉比:总体来说,哈萨比斯是一个聪明的好人,他始终希望世界变得更好,我认真核实过这些情况,并且确信如此。如果一定要寻找他的“阴影”,我会说他可能带有一点“救世主情结”。
比如他提到,当取得像雅达利(Atari)那样的突破(注:指DeepMind在2013到2015年间展示的深度强化学习成果。AI通过观察游戏画面的像素信息,借助试错和反馈机制自主学习玩多款Atari 2600游戏,并达到接近或超过人类的水平)时,他觉得自己有道德责任去最大化地宣传,从而获得推进研究所需的资源。这是他为自己行为找到的心理的正当性。
穆斯塔法可能会说,这完全是出于哈萨比斯个人的欲望。他认为哈萨比斯把DeepMind扭曲成了一个帮助自己赢得诺贝尔奖的工具。这可能也有一定道理。不过,获得诺贝尔奖的背后,是带来重大医学突破的科研成果,而且所有人的行为或多或少都是受自我驱动,如果没有后者,人类今天可能还住在洞穴里。
2024年10月9日,英国伦敦,DeepMind创始人德米斯·哈萨比斯(左)与高级研究科学家约翰·江珀(右)合影。他们与美国华盛顿大学的戴维·贝克共同获得2024年诺贝尔化学奖 图/视觉中国
南方人物周刊:你在另一本传记《格林斯潘传》中提出,格林斯潘面临真正的政治和制度约束,而他对某些结果的责任,也受限于他权力的局限性。当我们思考今天技术创造者的责任时,类似的框架还适用么?
马拉比:这是所有关于《哈萨比斯》这本书的采访中,我被问到的最棒的问题。格林斯潘传的书名是“The Man Who Knew”,它讲述的是一个人虽然明白金融泡沫可能带来的危险,却无法阻止其发生。哈萨比斯也是“那个知道的人”,他知道人工智能可能是危险的,他无法阻止。
这两个故事确实有很强的相似之处,它们都反映了处于大机构中的个体如何面对复杂的权力交织:个人的影响力能走多远?它的边界在哪里?你不得不去关注那些更宏大的力量。
普通人需要怎样的“地堡”?
南方人物周刊:哈萨比斯和奥尔特曼对未来世界的长远看法在某些方面相似,比如他们都认为未来会是后稀缺社会,每个人都能轻松获得丰富的物质财富。这与你对未来理想世界的预期有何不同?
马拉比:AI确实可能降低资源的稀缺性,但也会带来更多不平等,并非所有人都能受益。AI乐观派会说,只要确保把经济增长带来的额外财富分配给那些相对贫困的人就好。但这种分配相当难,也不总是有效。
此外,这还涉及心理和人性的复杂问题——如果把大量财富直接发放给失业的人,对他们来说是好事还是坏事?没有工作,他们能找到生活的意义吗?我个人喜欢努力工作,我的妻子甚至比我更勤奋。这就是我们生活和获得意义的方式,也许我们的孩子需要用不同的方式去寻找意义。
这是一个有趣的实验,但我对“稀缺资源可以被公平分配”以及“这种分配有益心理健康”的看法持怀疑态度。现实要复杂得多。我的一些朋友在商界非常成功,身价数亿美元,但他们始终担心财富对后代成长的影响。
南方人物周刊:在公开发言中,哈萨比斯会提出问题,但总会得出乐观的结论。哈萨比斯式的乐观会感染到你么?还是你会更倾向于辛顿式的“绞索收紧”?
马拉比:这是个很好的问题。我们每个人的内心都会有挣扎,随着AI越来越强大,这种挣扎愈发寻常。从某种意义上说,这本书的核心目的就是提出这些问题,让读者去思考并得出自己的结论。就我个人而言,理智的一面会从逻辑角度去推演未来,充满担忧。但感性的一面,我不是那种会一直焦虑的人,我只是每天起床,享受每一天。
南方人物周刊:这背后有一种知道无力改变的潜意识么?
马拉比:不,我觉得这更多是一种我的理智与感性的错位。有意思的是,哈萨比斯也是一个非常快乐的人,而达里奥则更容易紧张和焦虑。辛顿同样是个常怀忧虑的人。我认识一些在AI技术尚未成熟前就师从于他的博士生,据说那时让辛顿忧虑重重的,是生物恐怖主义。
南方人物周刊:说到忧虑,你在采访中有一长串追问,关于哈萨比斯是否用自己的巨额财富购买过度假屋、滑雪别墅或游艇,答案都是否定的。我想继续追问,他是否有过打造(字面意义或象征意义的)地堡的计划?辛顿有自己的私人岛屿,奥尔特曼、彼得·蒂尔(注:投资人、PayPal联合创始人)、拉里·佩奇(注:谷歌联合创始人)等都有为“失控的未来”而准备的“避难所”。
马拉比:我不认为他会建造自己的地堡。在我看来,他大概只是觉得事情最终会没问题。对包括科技领袖在内的富人来说,一旦谈到建地堡,通常意味着在新西兰之类的地方买一大片土地,配备枪支和大量食物储备。富人不会愿意躲进一个什么都没有的地下小屋,他们希望电视、沙发、健身房一应俱全。这样的地堡往往占地很大,据我所知,哈萨比斯没有这样的地方。
南方人物周刊:作为既没有财富也难以左右技术走向的普通人,该如何找到自己的“地堡”?
马拉比:或许,我们能做的只有建造一座内心的“地堡”。在那里,通过理解 AI,逐渐适应AI,做好与它共存的准备。