2024年的诺贝尔物理学奖发错了吗?

全文2122字,阅读约需7分钟,帮我划重点

划重点

012024年诺贝尔物理学奖授予约翰-霍普菲尔德和杰弗里-辛顿,以表彰他们利用人工神经网络进行机器学习的奠基性发现和发明。

02霍普菲尔德和辛顿的发明受到物理学思想的启发,如伊辛模型和玻尔兹曼机。

03由于AI对物理学的重要性,人工智能模型起源于物理,也服务于物理。

04AI在基础物理领域的应用越来越普遍,如粒子物理学、天文学和凝聚态物理学等。

05未来,AI for Science将成为科学研究的“第四板斧”,激发更多原始创新和技术发明。

以上内容由腾讯混元大模型生成,仅供参考

图片

2024年诺贝尔物理学奖得主John J. Hopfield(左)和 Geoffrey Hinton(右)

撰文丨罗会仟(中国科学院物理研究所)、高兴宇(中国科学院微电子研究所研究员)

2024 年10月8日,又到了每年一度的诺贝尔奖颁奖季。今年的诺贝尔物理学奖授予了约翰-霍普菲尔德(John J. Hopfield)和杰弗里-辛顿(Geoffrey E. Hinton),“以表彰他们利用人工神经网络进行机器学习的奠基性发现和发明”。 这个奖项一出来,就引起了物理圈一阵惊呼,难道AI算法领域也属于物理了么?特别是辛顿,是广为人知的 “AI教父”,早在2018年就获得了图灵奖,是妥妥的数学或计算机专家,他接到诺奖委员会电话时,连他自己都表示“完全意料之外”。

许多人纷纷怀疑,2024年的诺贝尔物理学奖,是不是发错了?这两位科学家发明的人工神经网络和深度学习,可以算是物理学吗?甚至有人说,是不是AI已经深入人类社会,也参与或干扰了这次物理诺奖的评选?

今天我们来聊聊2024年诺贝尔物理学奖和物理有什么关系。

毫无疑问,如今诺贝尔奖已经成为科学领域里的顶级奖项。按照诺贝尔物理学奖以往的惯例,基本上倾向于发给自然科学领域的重大发现或者某个技术的重大发明,比如各种基本粒子的发现和各种实验技术的进展。在AI、大数据、大模型等滚滚洪流迅速推进的今天,似乎连诺贝尔奖也不容错过这场热闹,颁给了这股洪流的起点——人工神经网络。

实际上,人工神经网络的建立,与物理是密不可分的。

其一,是两位科学家,其实都算是物理背景出身的。霍普菲尔德是1958年在康奈尔大学获得物理学博士学位,之后在贝尔实验室理论组工作了两年,随后在加利福尼亚大学伯克利分校和普林斯顿大学都是从事物理学的研究,只是在加州理工学院期间,开创了计算与神经系统的研究方向。但35 年来,他一直与贝尔实验室保持着密切联系,而贝尔实验室就是妥妥的“科技创意工厂”,多年来发明了晶体管、激光器、太阳能电池、发光二极管等等,40年里至少诞生了10位以上物理诺奖得主。辛顿更是非常厉害,他出身科学世家,家族里有多位著名的数学家、文学家、化学家和物理学家,他自己更是对物理学、生物学、心理学都感兴趣,于1972年在苏格兰爱丁堡大学攻读神经网络相关的博士学位。

其二,是人工神经网络和机器学习的最早算法雏形,都借鉴了物理学的思想。霍普菲尔德在思考神经网络的工作模式时候,想到了凝聚态物理学一个非常经典的模型,叫做伊辛模型(Ising model)。伊辛模型起初主要用于描述磁性相变的物理过程,这个模型把原子晶格的每一个格点赋予自旋朝上或朝下两种状态,只有最近邻的两个格点才相互影响。也就是说,旁边那个原子自旋是选择朝上还是朝下,取决于它“感觉”最近邻的那个原子是朝上还是朝下。而两个原子自旋是平行还是反平行,取决于它们之间的耦合模式,并且会决定系统的整体能量。在足够低温度一下,原子的自旋会自发选择倾向于最低能量组态的排列方式,即最终要么全部同向,也就是铁磁排列,要么是互相反向的反铁磁排列。

图片

图片

神经网络

霍普菲尔德在思考神经网络模型的时候,认识到大脑的学习和记忆,是通过改变众多神经元之间的连接强度来实现的。这种连接强度就类似伊辛模型两个原子自旋之间的关联强度,要么被加强,要么被减弱,最终决定了系统的整体能量大小。所以,如果先给一个二维网络每个格点(连接)赋值造成“记忆”,那么面对一组新输入的数据,判断是否提升或降低了系统能量,需要看格点之间的连接是否发生了变化。最终,系统会遍历所有格点,寻找到最合适的组合,也就是最优能量路径,尽可能还原之前的图像。这样就让神经网络形成了“记忆”和“自我学习”功能。霍普菲尔德的模型虽然看起来简单,却显得十分有效。他比喻就像先设定了一组大大小小山峰组成的“景观”,放入一个小球的话,会自动搜索最优路径而落到预想中的“坑”里面去。

辛顿对霍普菲尔德网络做了进一步发展,那就是借助了统计物理学的思想,建立了一套概率判断方法,这样系统会自动得知不同状态能量对应的概率,最终会选择概率最大的那个可能性来输出。这套方法被称之为“玻尔兹曼机”,玻尔兹曼就是鼎鼎大名的统计物理学家,他找到了微观粒子运动与热力学熵的关系,建立了理想气体分子的玻尔兹曼统计方程。简单来说,玻尔兹曼模型里忽略了气体分子之间复杂的相互作用,基于气体分子的速度,也对应着经典物理里的动能,来建立粒子数目分布的方程。也就是说,粒子的能量大小,决定了它出现的概率。毫无疑问,玻尔兹曼机还是一个纯经典物理模型,如果需要考虑真实的微观粒子,必须采用量子统计物理,也就是建立玻恩机模型等更加复杂的模型。但即便如此,辛顿发明的玻尔兹曼机极大推进了机器学习的发展,它能通过样本学习,创造出一个新的模式,这就是如今人工智能的基本雏形。虽然我们现在大模型采用的算法已经不再是辛顿等人当年的框架,但霍普菲尔德网络和玻尔兹曼机是人工神经网络迈出实用化的关键一步。

图片

霍普菲尔德的模型示意图

最后,第三点,是因为AI对物理学已经越来越重要了,可以说人工智能模型起源于物理,也服务于物理。的确,AI已经彻底改变了如今科学研究的基本范式,即便是基础物理领域,AI的利用也是非常普遍的。例如粒子物理学家用来分析对撞机的数据,天文学家用来解析黑洞的“照片”,凝聚态物理学家用来预测材料结构和物性等等。科学家们除了理论、实验、计算等科研“三板斧”之外,又有了AI的助力,即便是在科学理论尚不完备的情况下,AI也能根据实验数据结果和计算模拟结果来预测全新的物理。

我们相信,用不了多久,AI for Science将成为科学研究的“第四板斧”,由此激发出更多的原始创新和技术发明,为人类的美好明天加速前进!

图片