客户端
游戏
无障碍

2

评论

4

10

手机看

微信扫一扫,随时随地看

【官方视频】诺贝尔基金会采访2024获奖者Hinton:5年内,AI有50%几率比人类更聪明!

AI划重点 · 全文约4063字,阅读需12分钟

1.诺贝尔基金会首次公开对2024年物理学奖得主Geoffrey Hinton的官方采访视频,谈论了AI的未来发展。

2.Hinton教授预测,在未来5到20年内,AI有50%的几率变得比人类更聪明。

3.他指出,AI带来的短期风险包括滥用、假视频传播、网络攻击和可能的生物武器设计。

4.然而,长期风险是AI超越人类智慧后可能带来的问题,目前尚不清楚会发生什么。

5.Hinton教授表示,科学家们有责任在社会中发挥作用,特别是在AI可能带来的风险方面。

以上内容由腾讯混元大模型生成,仅供参考

(关注公众号设为🌟标,获取AI深度洞察)

Thumbplayer Poster Plugin Image
播放
下一个
打开循环播放
00:00
/
00:00
倍速
3.0X
2.0X
1.5X
1.25X
1.0X
0.75X
0.5X
语言
多音轨
AirPlay
0
静音播放中,点击 恢复音量
画中画
网页全屏
全屏
error-background
你可以 刷新 试试
视频信息
1.33.6
播放信息 上传日志
视频ID
VID
-
播放流水
Flowid
-
播放内核
Kernel
-
显示器信息
Res
-
帧数
-
缓冲健康度
-
网络活动
net
-
视频分辨率
-
编码
Codec
-
mystery
mystery
-

按住画面移动小窗

X

诺贝尔基金会昨日首次公开了对2024年物理学奖得主Geoffrey Hinton的官方采访视频。作为人工智能领域的传奇人物,Hinton教授在这段珍贵的访谈中不仅分享了他获奖的有趣经历,更对AI的未来发展做出了令人震惊的预测。

"我估计在未来5到20年内,AI有50%的几率变得比人类更聪明。" Hinton教授在采访中表示,这一判断来自他对当前AI发展速度的观察和专业评估。作为神经网络研究的先驱,辛顿的预测值得我们深思。当被问及我们还有多少时间来应对AI超越人类智慧的挑战时,他指出:"可能会更长,也可能更短,但20年内发生的可能性很大。"Hinton教授在采访中坦言,他曾经以为获得诺贝尔物理学奖是一场梦。"我不是物理学家,这可能是恶作剧,"他回忆道,"我甚至做了统计推理:一个试图理解大脑如何工作的心理学家获得诺贝尔物理学奖的几率有多大?我估计大概是两百万分之一。"

这位被誉为"AI教父"的科学家不仅分享了他如何从主流学界的质疑中坚持自己的研究方向,还深入讨论了AI带来的短期和长期风险。从就业替代到假视频传播,从网络攻击到可能的生物武器设计,Hinton的警告既有深度也不乏紧迫感。

文稿整理

主持人: 欢迎来到今天的采访。我们非常荣幸地邀请到2024年诺贝尔物理学奖得主Geoffrey Hinton教授。教授,恭喜您获奖!首先,我想问您,您是如何得知自己获得诺贝尔物理学奖的?

Geoffrey Hinton: 谢谢。那天我正在加利福尼亚的一家酒店房间里休息,手机放在床头柜上,屏幕朝下,而且是静音模式。我当时侧卧着,手机刚好在我的视线范围内。突然,手机屏幕亮起并开始震动,屏幕边缘露出一点光亮。我当时在加利福尼亚,而我认识的大多数人都在东海岸,所以我很好奇是谁会给我打电话。我拿起手机,看到一个我不认识的国际电话号码,区号和国家代码都不熟悉。接听后,一个带有瑞典口音的人问我是否是杰弗里·辛顿,然后告诉我获得了诺贝尔物理学奖。

我的第一反应是:“等等,我不是物理学家,这可能是恶作剧。”我怀疑这不太可能是真的。但他接下来所说的话听起来很可信,随后又有其他带着瑞典口音的人加入通话,我才逐渐确信这是真实的。不过,在接下来的两天里,我一直觉得这可能是个梦。我甚至做了一些统计推理:一个试图理解大脑如何工作的心理学家获得诺贝尔物理学奖的几率有多大?我估计大概是两百万分之一,这还是比较宽松的估计。而如果这是在梦中,我获得诺贝尔物理学奖的几率可能是二分之一。所以,梦中的可能性比现实高一百万倍。

我开始想,这可能就像小时候梦到自己会飞一样。梦里你觉得自己能飞,感觉很美妙,但醒来后发现只是个梦。一个月后,你再次梦到自己会飞,记得上次是个梦,但这次感觉像是真的。我以为这次获奖可能也是这样,所以有几天我一直在等待,看自己会不会“醒来”。但我至今还没“醒来”。

主持人:您在学术世家长大,这种环境对您产生了怎样的影响?

Geoffrey Hinton: 我在成长过程中,学术上的成功压力很大。我从小就知道,要么成为一个成功的学者,要么被视为失败者。


主持人:是什么让您对人工智能(AI)产生兴趣的? 

Geoffrey Hinton:我有一个高中同学,他比我聪明很多。大约在16或17岁时,有一天他来学校,谈论大脑中的记忆可能像全息图一样分布在整个大脑中。那时全息图刚刚被发明,时间大约是1965年左右。他对心理学家Lashley的理论很感兴趣,即记忆是分布在许多神经元中的。我对此也非常感兴趣,从那以后,我一直在思考大脑是如何工作的。

主持人:AI带来的最大风险是什么?

Geoffrey Hinton: AI的风险分为短期和长期两种。短期风险非常重要且紧迫,主要是人们滥用AI。例如,AI可能取代大量工作岗位,导致贫富差距加大,因为AI提高的生产力并没有公平分配,有些人失去工作,而另一些人变得更富有,这对社会不利。我们需要想办法应对,但目前还不清楚该怎么做。其他短期风险包括假视频,这已经开始发生;还有网络攻击,比如恶意分子利用大型AI模型设计更高效的攻击。最初可能是制作更有效的钓鱼攻击,去年钓鱼攻击增加了1200%,很大程度上是因为大型语言模型让这些攻击更具针对性。此外,AI还能更高效地设计类似新冠病毒的生物武器,未来这种设计将变得相对容易,这意味着一个疯狂的人就能造成巨大混乱。如果公开大型模型的权重,风险会更大,因为人们可以微调这些模型去做坏事。现在有些人已经开始公开模型权重,我认为这是疯狂的。

还有歧视和偏见的问题。例如,如果你用历史数据训练一个AI模型来决定囚犯是否应该获得假释,而历史数据表明白人囚犯能获假释,黑人囚犯不能,AI就会延续这种模式。我对此不像其他人那么担心,因为AI模型的权重可以被固定,我们可以测量其歧视程度,而人类不行。如果测量人的歧视,他们会意识到自己在被测试,行为会改变,就像大众汽车排放测试的作弊事件一样。所以,我认为AI的歧视和偏见更容易被测量和纠正。我们的目标不应该是完全消除歧视和偏见,而是让AI的歧视和偏见远低于人类,低于它们所替代的系统。这是短期风险中的一个重要问题,但我们在这方面有望取得进展。

长期风险是AI超越人类智慧后可能带来的问题。研究人员对AI何时会变得比人类更聪明存在分歧,但大多数领先的研究者认为,除非人类自我毁灭,这迟早会发生。我们不知道当AI比我们更聪明时会发生什么,因为我们从未经历过这种情况。有人说一切都会没事,有人说AI必然会接管,这两种说法都很疯狂。我们真的不知道会发生什么,正因为如此,我们现在需要做大量基础研究,确保我们能控制比我们更聪明的AI。控制更聪明事物的例子很少。我知道的唯一好例子是婴儿控制母亲,但两者的智力差距不大,而且进化为此付出了巨大努力。通常情况下,更聪明的事物不会被不那么聪明的事物控制。有些人认为我们可以设计AI,让它永远受控,但这些AI会像我们一样智能,它们的运作方式与我们非常相似。它们不是传统意义上的计算机代码——你写一段代码告诉神经网络如何学习,但一旦它开始学习,它会从数据中提取结构,最终的系统不是任何人直接编程的。我们无法完全预测它的行为,就像教育孩子一样,我们只能通过奖励好行为、惩罚坏行为来引导它们。所以,训练AI时,我们需要让它们学习良好的行为,而不是像现在这样,用所有能获取的数据训练它们,包括连环杀手的日记。如果你在养育孩子时,让孩子通过阅读连环杀手的日记学习阅读,你会觉得这是个坏主意,但我们现在对AI的训练方式却类似。


主持人:您认为我们还有多少时间来应对AI超越人类智慧的挑战?

Geoffrey Hinton: 我估计在未来5到20年内,AI有50%的几率变得比人类更聪明。可能会更长,也可能更短,但20年内发生的可能性很大。其他研究人员可能有不同看法,但这是我的猜测。实际上,这是一年前的猜测,所以现在可能是4到19年内。

主持人:作为一名科学家,成功需要哪些个人特质?

Geoffrey Hinton:这取决于你所在的领域,以及你是否在尝试与主流观点不同的研究。对于神经网络,长期以来它们被认为是荒谬的,许多人认为它们永远不会起作用。在这样的领域工作,你需要对自己有信心,即使所有人都说你错了。我小时候有两个经历对此很有帮助:

一是我的父母是无神论者,但他们把我送进了一所基督教私立学校,从7岁开始。那里的老师和同学都信神,但我觉得这明显是胡说。后来我发现,确实有很多人不信神。这个经历让我在面对神经网络被普遍质疑时,能够坚持自己的信念。

另一个经历是,我大约9岁时,和父亲一起听了一个关于大陆漂移的广播节目。当时,大多数地质学家认为大陆漂移是胡说八道。这个理论大约在1920年由气候学家韦格纳提出,他有很多证据表明大陆会移动,但他不是地质学家,地质学家们认为这是无稽之谈,拒绝将其写入教科书,觉得这会误导学生。但最终证明大陆漂移是正确的。这与神经网络的情况很相似:我们有证据表明神经网络应该能学习复杂任务,因为人类大脑就是这样工作的,但大多数AI研究人员认为知识必须是天生的,或通过符号规则学习,他们甚至拒绝在期刊上发表神经网络相关内容。现在,神经网络领域已经发生了范式转变。


主持人:您对年轻研究者有什么建议?

Geoffrey Hinton: 我通常的建议是,如果你有一个与众不同的想法,并且你认为它是正确的,不要轻易放弃,除非你能找出它为什么是错的。大多数时候,这样的想法是错误的,你可能漏掉了什么或没理解透彻。但偶尔,你会发现一个正确的想法。你需要坚持自己的信念,忽视他人的意见。我很擅长忽视他人的意见。

主持人:科学家在社会中有什么责任?

Geoffrey Hinton: 科学家对AI技术的理解比政客和公众更深入。科学家们仍然存在分歧,比如有些人认为大型语言模型并不真正理解语言,尽管有证据表明它们确实理解;一些科学家认为这只是统计技巧。科学家有责任在社会中发挥作用,特别是在AI可能带来的风险方面。

主持人:回顾您的职业生涯,您有什么遗憾?

Geoffrey Hinton: 我希望我能更早关注AI的生存威胁。我一直认为超级智能还很遥远,我们可以晚点再担心,当时的重点是让AI更智能。但现在问题已经迫在眉睫。图灵早在20世纪50年代就提到过这个问题,他说一旦AI变得比我们更聪明,我们就完了,但他没深入探讨。大多数人不到问题临近时不会思考这个,我希望我能更早开始思考。

主持人:您打算如何使用奖金?

Geoffrey Hinton: 我将一半的奖金捐赠给一个在加拿大培训原住民社区居民生产安全饮用水的组织。这些人会留在社区,确保社区有安全饮用水。在加拿大这样一个富裕国家,安大略省20%的原住民社区没有安全饮用水,这太离谱了。我对此感同身受,因为我在秘鲁领养了一个孩子,在那里待了两个月,当地自来水有毒,不能喝,日常生活都围绕如何获取安全水展开,这是个巨大的负担。所以,加拿大还有人面临这种问题让我觉得很疯狂。

另一半奖金,我和20世纪80年代的同事Terry Sejnowski合作研究波尔兹曼机时,曾约定如果其中一人获得诺贝尔奖,奖金要平分。我认为没有他就没有这个理论,他也一样。当时我们觉得这个学习算法太优雅了,确信大脑就是这样工作的,还以为可能会因此获得诺贝尔生理学或医学奖。这次我意外因波尔兹曼机等研究获得诺贝尔奖后,我联系他问要把他的那份送到哪里。他说这不仅仅是因为波尔兹曼机,还包括他没参与的后续工作,所以拒绝拿钱。最后我们妥协,用这部分奖金设立一个以他命名的奖项,奖励有创新性大脑工作理论的年轻研究者,颁奖将在我们领域的年度会议上进行。我觉得他本可以是诺贝尔奖的第三位得主,他对此贡献巨大,这是个很好的折中方式。

【往期回顾】

参考资料:https://www.youtube.com/watch?v=66WiF8fXL0k&t=300s

来源:官方媒体/网络新闻

编辑:深思

主编: 图灵

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部