诺贝尔奖的AI警钟:庆祝与警示并存的“诺贝尔时刻”

全文2965字,阅读约需9分钟,帮我划重点

划重点

01诺贝尔奖颁发,既认可人工智能在科学领域的卓越表现,也对其发展潜在风险发出集体预警。

02人工智能在化学和物理学领域取得显著突破,但同时也带来深远的社会和政治问题。

03诺贝尔和平奖选择提醒人们,AI在战争、核武器等领域的潜在危险,可能带来不可逆转的灾难。

04与此同时,2024年诺贝尔经济学奖得主达龙·阿塞莫格鲁关注AI带来的社会不平等、经济失衡以及劳动力替代问题。

05专家呼吁在监管、法律框架、社会公平和教育等领域投资,以避免AI技术的发展失控,带来新的灾难。

以上内容由腾讯混元大模型生成,仅供参考


导读

诺贝尔奖作为全球科学与人类成就的至高荣誉,每年都引发对人类未来与科技发展的深刻思考。今年的诺贝尔奖颁布,不仅是对人工智能(AI)技术在科学领域卓越表现的认可,也是对其发展潜在风险的集体预警。当许多人沉浸于AI的成就和前景时,却忽视了技术迅速进步背后暗藏的巨大隐患。此文从不同诺贝尔奖得主的视角,揭示出AI不仅是科学进步的象征,更是对人类理性与未来命运的严峻考验。


文章指出,虽然人工智能在化学和物理学领域取得了显著突破,但同时也带来了深远的社会和政治问题。与会者中既有对AI持谨慎态度的“AI教父”杰弗里·辛顿(Geoffrey Hinton),也有推动AI在医学领域取得进展的科学家,如德米斯·哈萨比斯(Demis Hassabis),他们共同发出了对于AI发展失控的担忧。而诺贝尔和平奖的选择,更是在提醒人们,AI在战争、核武器等领域的潜在危险,可能会带来不可逆转的灾难。


与此同时,2024年诺贝尔经济学奖得主达龙·阿塞莫格鲁(Daron Acemoglu)则提出了另一种警示:相比于长远的灭绝威胁,当前AI带来的社会不平等、经济失衡以及劳动力替代问题更为紧迫。这种观点为AI的未来发展增添了更多社会伦理与公共政策维度的思考。


本文作者Bhaskar Chakravorti是塔夫茨大学弗莱彻法律与外交学院全球商业系主任。他是弗莱彻全球商业研究所的创始执行董事,并在该研究所创立并主持了“数字星球”研究项目。文章批判性地反思了人工智能的“诺贝尔时刻”,不仅聚焦于技术的巨大潜力,还对AI的社会效应和人类的共同未来表达了深切的忧虑。如何在推动AI发展的同时,不让其成为“社会分裂的倍增器”,而是真正造福全人类的“社会乘数”,这是诺贝尔奖赋予人类的新使命。在AI迅猛发展的今天,我们亟需思考并投资于监管、法律框架、社会公平和教育等领域,以避免AI技术的发展失控,带来新的灾难。这不仅是对AI技术的反思,也是对未来社会治理的呼唤。


图片



今年的诺贝尔奖是一个警告


没有多少奖项能像诺贝尔奖一样,既能聚焦人类的伟大成就,也能揭示人类面临的巨大挑战。随着今年斯德哥尔摩的诺贝尔奖揭晓,许多人工智能(AI)领域的人士都沉浸在庆祝的氛围中。在AI应用不均衡,甚至连一向推崇AI的高盛(Goldman Sachs)也开始从不受约束的乐观态度中回落的时刻,诺贝尔奖为这项技术注入了新的动力。有人称AI的“诺贝尔时刻”已经到来,物理学和化学奖项被视为它的“首次亮相”,这也让人们重新燃起了希望:AI终于有望塑造历史。


《经济学人》评论道:“诺贝尔科学奖项一直以来都在某种程度上表彰人类的智慧。今年,人工智能的变革潜力首次得到了认可。”


但先别急着下结论。AI可能赢得了科学界的认可,但更重要的是,人们认识到了AI不受控制的增长所带来的风险。


首先,不仅要关注那些明确提及AI成就的奖项,还要留意其他奖项所传达的信息。以诺贝尔和平奖为例,它授予了“日本原子弹爆炸受害者团体联合会”(Nihon Hidankyo),这是一个代表广岛和长崎原子弹爆炸幸存者的组织,旨在消除核武器的再次使用。和平研究所主任亨里克·乌尔达尔(Henrik Urdal)指出:“在自动化武器系统和AI驱动的战争逐渐兴起的时代,他们呼吁裁军不仅是历史性的,更是对未来的关键警示。”和平奖应被视作警告,提醒我们当技术(例如AI)失控时,可能会带来灾难性后果。


AI的应用真的会导致这样的结果吗?事实上,诺贝尔物理学奖的一位得主就是被称为“AI教父”的杰弗里·辛顿(Geoffrey Hinton),他是人工智能领域里对其超越人类智能并可能失控的风险持谨慎态度的主要声音之一。辛顿担忧的是,不受约束的发展可能会使技术绕过人类决策者和制度保障,甚至可能引发核战争。某种程度上,辛顿延续了弗雷德里克·约里奥(Frédéric Joliot)的传统。约里奥与其妻子伊雷娜·约里奥-居里(Irène Joliot-Curie)因发现首个人工制造的放射性原子而获得诺贝尔化学奖,但他也警告了原子能应用的灾难性后果——正是日本原子弹受害者团体所经历的那场灾难。


除了辛顿对自己工作的担忧,今年的诺贝尔化学奖还颁给了德米斯·哈萨比斯(Demis Hassabis)和约翰·朱珀(John Jumper),他们领导了利用AI预测生命分子结构的研究,这为药物、治疗和其他疗法的诸多医学发现打开了大门。尽管哈萨比斯无疑是一位AI先锋,但他也对狂热者发出了警示。他呼吁对AI的风险给予与气候变化同等重视,因为气候变化的灾难性影响已经显现出来。哈萨比斯有能力发出这些警示,因为他的公司DeepMind已经被谷歌收购。然而,行业内对生成式AI的痴迷可能会分散资源,影响对DeepMind工具的进一步发展。而这些工具如果继续发展,可能会带来救命的创新。DeepMind最重要的工具AlphaFold能够预测几乎所有已知蛋白质的结构,这可能彻底改变药物发现、疾病研究以及蛋白质与人体内各种分子的相互作用。希望诺贝尔奖的认可能够帮助加速这些发现的进展,充分发挥AlphaFold的潜力。话虽如此,哈萨比斯对AI的更广泛警示仍然存在。他在谈到气候变化时警告说:“国际社会在协调有效的全球应对措施方面用了太长时间,而我们现在正承受这一延误的后果。我们不能在AI问题上重蹈覆辙。”不同的诺贝尔声音,不同的忧虑。


未来的诺贝尔奖得主们已在2023年5月的公开信中表达了他们的担忧,呼吁将AI导致人类灭绝的风险视为与其他全球重大危机同等优先处理的问题。值得注意的是,辛顿是该信的首位签署者,哈萨比斯则是第三位,该信上还有超过350位学术界名人的签名。


然而,诺贝尔奖的讨论并未止步于此。实际上,经济学奖带来了一丝不和谐音。2024年诺贝尔经济学奖得主之一、麻省理工学院(MIT)的达龙·阿西莫格鲁(Daron Acemoglu)认为,对AI灭绝风险的关注是偏颇的。他主张我们应关注那些掌控AI开发的人的动机,探讨是否应该对他们进行监管;他担心,过度关注遥远的风险会掩盖当前更为紧迫的威胁。这些威胁来自多种因素:AI助推的国家监控,技术控制集中于少数公司,企业迅速无视人类劳动者的价值而将其替换为机器,随之而来的收入和社会不平等。阿西莫格鲁还对AI的生产力提升是否被夸大表示担忧。他的担忧以及获得诺贝尔奖的部分原因,源于他与2024年诺贝尔经济学奖的另一位得主、MIT的西蒙·约翰逊(Simon Johnson)共同分析了技术变革的历史。他们发现,从蒸汽机到纺纱机,再到装配线,技术革命带来的繁荣往往只惠及少数精英,而社会大多数人未能从中受益。


无论你选择听从阿西莫格鲁和约翰逊、辛顿和哈萨比斯,还是日本原子弹爆炸受害者团体的警告,今年的诺贝尔奖更像是一个AI风险的时刻,而非AI本身的荣耀。这一系列的奖项揭示了一个及时的警示:如果我们仅仅在AI上投入万亿资金,而忽视控制AI不受限制发展的诸多风险,我们或许不得不为那些受其不良影响的幸存者预留未来的诺贝尔和平奖,一个为AI时代的“日本原子弹爆炸受害者团体”准备的奖项。


那么,我们应该在哪些领域投资以缓解风险?以下几个领域应成为下一个诺贝尔奖候选人的重点:改进监督机制;在组织内部和多边论坛中建立问责和控制机制,以及法律框架和标准;培养与AI共存的“人类驾驶员”,并对受AI影响的劳动力进行再培训;减少公司和政府对少数AI瓶颈的依赖;扩大AI在教育、医疗和金融等领域的应用规模,确保更多人获得及时的关键信息;扩展AI行业的地理覆盖范围,并扩大用于训练算法的数据集,确保AI的收益分布更加包容,或许可以将其视为像互联网核心一样的全球公共产品。


AI真正的诺贝尔时刻或许将在我们对这些领域进行充分投资时到来。那时,我们将开发出一种真正有助于社会的技术,而不是今天这个只会加剧分歧的高效工具。


文章略有删改,仅代表作者观点,供读者参考,与本平台立场无关。如有侵权,请联系删除。