“如果你为富有创造力的研究人员提供充足的基础研究经费,他们实际上会更愿意从事基础科研,而不是去银行赚大钱。”
作者 | Eric Harrington
前段时间,韩国公共广播电视台 KBS 专访了人工智能领域的泰斗级人物杰弗里·辛顿(Geoffrey Hinton)教授。作为 2024 年诺贝尔物理学奖得主,这位被誉为“深度学习之父”“AI 三教父”的科学家,深入探讨了 AI 技术的演进历程和未来发展方向。
顺带一提,韩媒给辛顿教授的绰号是“AI 四大天王”,应该是在 Geoffery Hinton、Yoshua Bengio、Yann LeCun 三位图灵奖得主的基础上,又算上了“强化学习之父” Rich Sutton。
在这场长达 17 分钟的对话中,辛顿教授分享了多个引人深思的观点:
“长期以来,我们的主要局限是体力。工业革命消除了这个局限。而现在,我们的主要局限是智力,而 AI 将消除这个局限。”
“在北美,每年约有 20 万人死于误诊。而如果医生与 AI 系统合作,正确诊断率可从 40% 提升至 60%。”
“自主致命武器可能在两到三年内出现。所有的 AI 监管法规都有一条:这些规定不适用于 AI 的军事用途。”
“如果你为富有创造力的研究人员提供充足的基础研究经费,他们实际上会更愿意从事基础科研,而不是去银行赚大钱。”
在专访最后,老教授强调了基础研究投入的重要性,并用一句格外犀利的话结尾:“每隔几年,就会有人说「神经网络被高估了,这一切马上就会崩溃和停止。」但他们每次都错了,我认为他们还会继续犯这样的错误。”
以下是采访全文翻译(皆为 Hinton 的第一人称发言)和中英双语字幕视频:
深度学习之路:从神经元到 ChatGPT
人类的发展史上存在两个重要的局限:体力和智力。工业革命突破了人类的体力局限,而如今,人工智能正在突破人类的智力局限。
深度学习(Deep Learning)的设计灵感来自人脑的工作机制。尽管我们还没有完全破解大脑的运作原理,但已经掌握了相当多的知识。人脑中有大量的神经元细胞(Neurons),这些神经元之间形成了复杂的连接网络。学习的过程,本质上就是改变这些连接的强度。
神经元通过发出“ping”的信号与其他神经元通信。每个神经元的任务很简单:决定何时发出“ping”信号。它通过接收来自其他神经元的输入来做出这个决定,这些输入可能来自感知神经元,比如视网膜中的神经元。当输入达到一定阈值时,神经元就会发出信号,而达到阈值的难易程度取决于神经元之间连接的权重(Weight)。如果连接的权重较小,一个神经元向另一个神经元发送的信号影响就小;如果权重较大,这个信号就更可能触发接收神经元发出“ping”。
学习的核心就在于改变这些连接的强度。而关键问题是:大脑用什么原理来调整这些连接的强度?
20 世纪 80 年代,科学家们提出了反向传播(Backpropagation)算法,这是一种决定如何调整连接强度的方法。当时这种方法效果一般,我们没有预见到,只要提供足够的数据和计算力,它就能发挥出惊人的效果。如今的大型聊天机器人正是使用反向传播来调整其模拟神经网络中的连接强度。
这就是深度学习的基本原理。以识别鸟类的神经网络为例:第一层的神经元可能负责识别边缘特征,第二层的神经元则可能识别特定的边缘组合,比如以特定角度相交的两条边可能代表鸟喙。再往上一层的神经元可能会识别鸟喙和眼睛的组合特征,如果这些特征的空间关系正确,网络就会将其判断为鸟头。这种层层递进的特征检测方式最终让网络能够判断:如果同时看到疑似鸟头、鸟脚和翅膀尖等特征,那么这个物体很可能就是一只鸟。而所有这些特征检测所需的权重,都是神经网络通过学习获得的。
从 20 世纪 50 年代人工智能诞生之初,就存在两种不同的研究路线:一种基于逻辑(Logic-based),另一种基于生物学(Biology-based)。基于生物学的方法试图模拟大脑中的神经网络,而基于逻辑的方法则尝试通过模拟逻辑来实现推理。直到最近,基于生物学的神经网络方法才真正超越了逻辑方法。
在人工智能发展的前 50 年,几乎所有人都相信逻辑方法才是正确的道路,但这条路并没有取得实质性突破。直到本世纪,大约在 2009 年左右,模拟生物学的神经网络方法突然开始展现出惊人的效果。这个转变具有划时代的意义。2012 年,神经网络在物体识别领域取得重大突破,这标志着生物学方法的胜利。
神经网络能够取得如此显著的成功,主要得益于三个关键因素:
第一是算力的突破。比如英伟达(NVIDIA)为游戏开发的芯片提供了巨大的计算能力。
第二是数据量的爆发。互联网为我们提供了海量的训练数据。
第三是技术的进步。例如,2017 年谷歌推出的 Transformer 架构大幅提升了语言模型的性能。
AI 改变世界的三大领域
我认为人工智能将在所有行业领域得到应用。在某些领域,比如医疗保健,AI的影响显然会带来巨大的积极改变。
以就医为例,目前如果我出现某些症状,我会去看家庭医生。但如果我患有某种罕见疾病,我的家庭医生可能从未见过类似病例。相比之下,我更愿意去找一位“见过”上亿病人的医生,这位医生不仅了解我的全部基因组信息,还掌握了我完整的病史和所有医疗检查结果。这样的 AI 医生即将成为现实,它们的诊疗水平将远超普通医生。AI 在医学影像读取方面也将表现出色。
AI 能够利用更全面的信息来辅助诊断。现有的数据显示,对于疑难病例,人类医生的正确诊断率约为 40%,AI 系统能达到 50%,而医生与 AI 系统合作则能达到 60% 的正确率。在北美,每年约有 20 万人死于误诊。因此,AI 的应用将挽救大量生命。
在教育领域,研究表明,一对一私教的学习效率是课堂教学的两倍。有了 AI,每个孩子都能拥有自己的私教,这将使学习效率提高一倍。这必将对教育产生巨大影响,尽管这对大学教育可能不是个好消息。
实际上,只要有数据的地方,AI 就能发挥作用。让我举个例子:我有一个邻居为一家矿业公司开发了 AI 系统。这家公司拥有约 100 亿个数据点,记录了在不同情况下完成特定操作(如挖掘特定长度的矿井)所需的时间。现在这些数据被输入到 AI 系统中,可以快速回答各种问题。
比如,如果承包商声称能在指定时间内完成某项工作,公司想知道他实现这一承诺的概率有多大。在过去,要得到这个答案,公司需要聘请大型咨询公司撰写报告,三周后才能得到结果。而现在,他的系统只需 4 秒就能给出答案。这只是一个例子,但在所有拥有大量数据的行业都会出现类似的情况。企业将能够更快速、更有效地利用自己掌握的数据。
如今当我遇到新问题时,我会寻求 GPT-4 的帮助。比如有一次,我的度假小屋遭到某种蚂蚁的侵扰。我向 GPT-4 咨询,它告诉了我可能是哪些种类的蚂蚁,以及相应的处理方法。这种体验就像有一个知识渊博且极其耐心的朋友。
当然,我们也注意到了 AI 的“幻觉”(Hallucination)现象,有时它会产生错误的信息。但人类不也是如此吗?当人类出现类似现象时,我们称之为“虚构”(Confabulation)。人们总是在虚构。比如当人们回忆很久以前发生的事情时,他们往往无法准确记住细节。他们可能很自信,但细节却是错误的。从这个角度看,人类和这些大型聊天机器人很相似,都会产生虚构的内容。
在技术快速发展的时期,预测未来是非常困难的。如果你想了解十年后的情况,最好的方法可能是回顾十年前的状况。十年前,没有人能预想到会出现像 GPT-4 或谷歌的 Gemini 这样的大型聊天机器人。因此,从现在起的十年后,我们将看到许多超出人们预期的发展。
短期内,变化可能不会太戏剧性。但在十年的跨度上,AI 的能力将发生巨大的变革。在人类文明史上,AI 革命与之前的技术革命相比有何意义?让我们看看工业革命:在工业革命中,人类的体力不再那么重要。工业革命之前,如果要挖一条沟,你需要人力来挖。虽然也有动物和风车、水车之类的工具,但基本上还是需要人力。工业革命后,人类体力的重要性大大降低。
如果你问,在历史上有多少例子表明智力较低的存在能够控制智力较高的存在?我只知道一个例子,那就是母亲和婴儿的关系。进化投入了大量工作来确保婴儿能够控制母亲,这对物种的生存至关重要。但即便如此,婴儿和母亲的智力水平其实也差不多。因此,当这些 AI 系统变得比我们更智能时,我们不确定能否保持对它们的控制。
我的朋友 Yann LeCun 等人认为这不会有问题,因为这些系统是我们创造的,它们会一直按照我们的指令行事。但我并不这么认为。我觉得我们不能对此太过自信。
我相信人类本质上是物质的存在,人类的任何特质都可以在计算机中实现。从长远来看,计算机可以拥有我们所有的感知能力。我认为人类并没有什么特别之处。我们只是非常非常复杂的存在,经过了漫长的进化。对其他人而言我们很特别,但我们身上没有什么是机器无法模拟的。
有些人担心 AI 会夺走人类的工作。事实上,AI 带来的风险有很多种,我们不应该把这些不同的风险混为一谈。不同的风险需要不同的解决方案。AI 确实会取代很多工作岗位,这是毋庸置疑的。比如法律研究助理(Paralegal),现在 AI 已经能更好地完成他们的大部分工作。很多普通的办公室工作都将需要更少的人力。
我有一位亲戚在医疗服务机构工作,负责回复投诉信。以前她要花 25 分钟写一封回复信,现在她只需要把投诉信输入 ChatGPT,它就能生成回复,她检查一下就可以发送出去,整个过程只需要 5 分钟。这意味着这类工作只需要原来五分之一的人力。这种情况在许多普通办公岗位中都很典型。
有人说 AI 会创造大量新的工作岗位。这确实是事实,但问题在于:新创造的工作岗位是否足以替代那些被 AI 取代的普通办公职位?这是一个严重的问题。政府需要认真考虑:当这些人的工作被 AI 取代后,他们该何去何从?
就短期而言,我最担心的是网络攻击和生物武器。比如去年,网络钓鱼(Phishing)攻击增长了 1200%,这在很大程度上是因为这些聊天机器人被用于钓鱼攻击。我也担心有人利用 AI 开发新的病原体,目前这方面几乎没有任何管控。这是短期的担忧。
在中期,我非常担心就业问题和自主致命武器(Autonomous Lethal Weapons)。从长远来看,我最担心这些 AI 系统变得比我们更聪明,最终取代我们。我认为在两到三年内,我们可能就会看到自主致命武器的出现。这将是一个糟糕的发展。所有大型国防部门都在试图开发这类武器。如果你看看目前的 AI 监管法规,它们都有一个条款,声明这些规定不适用于 AI 的军事用途。例如,欧盟的法规就明确规定不适用于 AI 的军事应用。
政府不愿意约束自己。他们正在竞相开发自主致命武器。只有在这些武器被使用并造成可怕后果之后,我们才可能像制定日内瓦公约那样达成某种协议,就像我们对化学武器所做的那样。这些公约是有效的,比如在乌克兰战争中就没有使用化学武器。但我们是在第一次世界大战看到了化学武器的可怕后果之后,才有了这些公约。
我们现在需要做的是,在技术发展过程中投入更多精力于安全研究。而唯一拥有这些资源的是大型科技公司。因此,我们需要政府强制要求这些大公司在安全方面做出更多努力。
显然,发展 AI 需要大量的算力,也需要大量的专业人才。要留住优秀的科学家,就要为他们提供能够开展研究的环境。以加拿大为例,按其经济规模来看,在 AI 领域表现相当出色。这要归功于其支持基础科研的政策。像我、Yoshua Bengio 和 Rich Sutton 这样的顶尖 AI 研究人员之所以来到加拿大,部分原因是这里的社会制度,但主要是因为这里愿意资助基础科学研究。因此,充分资助基础科学研究是关键。
我对韩国的建议是:如果你为富有创造力的研究人员提供充足的基础研究经费,他们实际上会更愿意从事基础科研,而不是去银行赚大钱。当然,总会有人选择去银行工作赚更多钱,这是无法避免的。但对基础科学研究的良好支持,包括对计算资源的支持,才是留住优秀研究人员的方式。
关于人形机器人(Humanoid Robot)的发展,现在确实有很多人在研究这个方向。这是可能实现的。开发人形机器人的一个原因是,工厂是为人类设计的。工厂里的所有机器都是按照人类操作的需求来设计的。因此,与其重新设计所有机器,不如重新设计一个“人”,这样就可以使用现有的机器。现在已经有人在尝试这么做了。我不知道这个方向会如何发展。
我认为我们正处在一个充满巨大不确定性的时期。在这样的时期,我们应该保持谨慎。人们问是否会出现调整期或衰退期。对此有两种不同的观点。我的观点是 AI 的发展会持续下去。有些人,特别是那些相信传统的、基于逻辑的 AI 方法,从来就不喜欢神经网络的人,一直在说这种发展即将结束。
但多年来,每当有人说神经网络被过分夸大时,神经网络都用实际成果证明了自己。现在它们确实能做出令人惊叹的事情。所以我不认为这是夸大其词。每隔几年,就会有人说:“嘿,神经网络被高估了,这一切马上就会崩溃和停止。”但他们每次都错了。我认为他们还会继续犯这样的错误。
参考链接:https://www.youtube.com/watch?v=SN-BISKo2lE