AI之父辛顿诺贝尔思想者论坛发言实录:AI 将极大加剧贫富差距,及接管人类

全文3892字,阅读约需12分钟,帮我划重点

划重点

01AI之父杰弗里·辛顿在Nobel Minds 2024上讨论了AI与人类的关系,认为AI将极大加剧贫富差距。

02辛顿教授指出,尽管我们对人脑的理解有限,但通过构建大型系统,我们可以学习如何调整连接强度,创造出像GPT-4这样的强大系统。

03然而,戴密斯·哈萨比斯认为,AI在规划和创造力方面仍然不足,需要更多的研究来确保我们保持老板地位。

04辛顿警告,随着AI技术的不断发展,我们需要更多的科学伦理来辩论这些问题,以确保我们得到好处而非坏处。

以上内容由腾讯混元大模型生成,仅供参考

图片
来源创头条

12月18日,在Nobel Minds 2024 上,各位诺贝尔获奖者齐聚一堂,探讨了关于人类与AI的多个话题,其中“AI教父”杰弗里·辛顿针对每个问题都提出了自己的见解。


辛顿教授讨论了人类大脑的工作原理,特别是神经元之间连接强度的调整机制,这仍然是一个未解之谜。

他提到,尽管我们对人脑的理解有限,但通过构建大型系统,我们可以学习如何调整连接强度,从而创造出像GPT-4这样的强大系统。

在讨论AI是否已经或将会超越人类智慧的问题时,杰弗里·辛顿认为,我们现在需要进行更多研究,关于我们如何保持老板的地位。

戴密斯·哈萨比斯为,AI在规划和创造力方面仍然不足。




以下为关于辛顿部分的实录



主持人:我想你们现在已经习惯了掌声,是吗?那么告诉我,赢得诺贝尔奖如何改变了你的生活?


杰弗里·辛顿教授,你呢?

杰弗里·辛顿:是的,这是一个惊人的变化。我收到大量的电子邮件要求我做这做那。幸运的是,我有一个助手处理了大部分。我在街上被要求自拍,这很烦人,但如果它消失了,我会失望的。

主持人:但你在多伦多大学教书多年,你说你在获得诺贝尔奖之后,他们终于给了你一个办公室。

杰弗里·辛顿:是的,他们之前认为我不值得拥有一个办公室。

主持人:杰弗里·辛顿,你实际上想要了解人脑是如何工作的,那么它是如何工作的呢?

杰弗里·辛顿:我们仍然不知道。我们已经付出了很多努力来弄清楚大脑是如何计算出如何改变两个神经元之间连接的强度的。我们从我们构建的这些大型系统中学到了很多,如果你能找到任何方法来知道你是应该增加还是减少强度,然后你只需对所有100万亿个连接都这样做。你只需用很多例子,稍微增加或减少强度,然后你就会得到像GPT-4这样的惊人系统。这些大型聊天机器人学到的东西比任何人都多,所以它们可以将所有人类知识压缩到一万万亿个连接中,而我们有100万亿个连接,我们没有人知道很多。

主持人:但那很有趣。他说,代表你自己。但无论如何,他实际上知道很多,所以听起来好像你认为这是最好的电脑,而且它从未这么好过。我们不太了解它的工作原理,但你也说人工智能,人工神经网络可能比人类更聪明。

杰弗里·辛顿:哦,我认为我们已经做得更好了。如果你看看GPT-4,它比任何人都知道得多。它就像一个不太好的万事通专家,所以它有更多的知识和更少的联系,而我们在这方面做得更好。

主持人:你同意吗?

戴密斯·哈萨比斯:嗯,看,我认为是这样。我的意思是,回到你最初的问题,最初在人工智能领域,很多灵感来自大脑的结构,包括神经网络和一个叫做强化学习的算法。然后我们现在进入了一种工程阶段,我们在将这些系统扩展到巨大的规模。所有这些大型基础模型或语言模型。现在有很多领先的模型,我认为我们将进入下一个阶段,我们将开始使用这些AI模型来分析我们自己的大脑,并帮助神经科学作为AI帮助的科学之一。所以实际上,我认为它将会形成一个完整的循环。神经科学启发了现代AI,然后AI将回来帮助我们,我认为理解大脑有什么特别之处。

主持人:机器智能会超越人类吗?我的意思是,你在谈论的时间框架是什么?你是说它已经发生了吗?

杰弗里·辛顿:就一个系统中可以拥有的知识量而言,显然已经发生了,对吧?GPT-4比任何人都多。是的,它会编造东西,但它仍然知道很多。是的,就时间而言,我认为所有领先的专家,我认识的人像Deis,他们相信这将会发生,他们相信这些机器会变得比人更聪明,具有一般智能,他们只是在多长时间内会发生这个问题上有所不同。

主持人:好吧,我们开始被机器和机器人包围,这就是你的建议吗?好吧。

杰弗里·辛顿:这就是问题,你可以拥有比你更聪明的东西,你仍然能保持控制吗?一旦它们比我们更聪明,它们会成为老板,还是我们仍然是老板?

主持人:你觉得呢?

杰弗里·辛顿:我认为我们现在需要进行很多研究,关于我们如何保持老板的地位。

主持人:你实际上没有回答那个问题,戴密斯·哈萨比斯你认为机器智能会超越人类,以至于它们开始统治吗?

戴密斯·哈萨比斯:不,嗯,我认为就目前而言,我不同意杰夫的观点,今天的系统仍然没有那么好。它们可以和我们交谈,做其他事情。它们有很多知识。但它们在很多事情上还很薄弱,它们不擅长规划或推理,或者想象和创造力,但它们会迅速变得更好。所以这取决于我们现在如何设计这些系统,以及我们作为社会如何决定部署和构建这些系统。

主持人:对。所以我们将看看我们如何应对。但先生们,这是一个非常大的基本问题,加里。

加里·鲁夫昆:我认为你高估了人类。我们也编造了很多不实之词。有很多错误观念被传播的例子,当然,随着社交网络的发展,情况变得更糟,AI要做得好的标准其实很低。人类被高估了。

杰弗里·辛顿:好的。

大卫·贝克:我在这里采取相反的观点。你知道,人类从文明开始以来,就创造了在几乎所有领域都比他们更擅长的事物。你知道,汽车可以无限快,人类不行,飞机可以飞行,人类不能。你知道,很长一段时间,我们有了计算机可以做人类做不到的计算。Demis开发了解决围棋和国际象棋的程序。所以我们非常习惯于机器能够做我们做不到的事情。你知道GPT-4,比人类拥有更多的知识。我认为我们只是对此泰然处之。我不认为我们担心失去控制。

主持人:所以关键问题是我们知道计算机可以做很多我们做不到的事情,但问题是控制,因为,计划飞行,但是是人类飞行员在驾驶舱里,显然,由技术辅助,我们仍然驾驶汽车。你觉得呢,经济学家?你站在哪一边?

达龙·阿西莫格鲁:我采取与加里相反的立场。我认为人类目前被严重低估了。人类的适应性、流动性、创造力,还有社区。我认为人类是令人难以置信的。社会动物会集体学习,作为集体,我们能够在非常短的时间内做很多事情,所以我更担心那些控制AI的人,而不是AI本身对我们构成威胁,人类是最大的敌人。

主持人:就像我们看到的特定的邪恶博士那样。

达龙·阿西莫格鲁:是的。认为他们做的是好事。我不会把那些过去的人排除在外,他们会造成巨大的损害。

大卫·贝克:我同意。我的意思是,随着工具变得越来越强大,我认为我们不需要担心机器本身,而是担心使用这些工具的人,错误信息,自主军事武器,各种各样的事情。

詹姆斯·A·罗宾逊:但人类有一个很好的记录,你知道,发明了危及人类种族的事物,比如核武器。我的意思是,想想我们有多接近用古巴导弹危机摧毁这个星球。你知道,我们已经做到了。我们可以再次以不同的形式做到这一点,或者,你知道,用不同的方式,所以我会问他们,你知道,我认为每个人都说,是的,我们需要监管,我们需要,但是谁有动机去做呢?我不,你知道,说这个很容易,但是,我怀疑政治家和政府只是在追赶,你知道,事情发展得比他们能掌握的要快,而且谁在私营部门,他们只是想赚钱,把这些东西放出去。所以,实际上有动机去做一些事情的地方在哪里?

戴密斯·哈萨比斯:是的,我的意思是,显然,我们中的许多人之所以致力于AI,是因为我们希望利用AI带来的难以置信的好处,无论是在医学上,还是在生产力等方面。但我同意你的观点,存在一种协调问题,我认为必须在这些问题上形成某种国际合作。我认为我们有几年的时间来解决这些问题。我认为领先的研究人员和领先的实验室在工业界和学术界需要团结起来,要求这种合作,随着我们接近人工智能通用智能,并且对它可能是什么样子有更多的了解,但我坚信人类的聪明才智,就像大卫说的那样,作为一个物种,我们非常适应,看看我们今天已经使用的现代技术,年轻一代只是无缝地适应并将其视为理所当然,我认为这也发生在这些聊天机器人上,你知道,20-25年前,如果我们将今天的技术带回那个时代,我们都会惊讶,那些在这个AI领域的人们,但我们所有人都已经,社会似乎已经无缝地适应了这一点。

主持人:杰弗里·辛顿,你认为这种情况会发生吗?你已经对人类在某种程度上变得服从机器提出了警告,你认为在国际层面上有足够的辩论吗?我们需要更多的科学伦理来辩论这些问题吗?你认为这种情况正在发生吗?

杰弗里·辛顿:所以我想区分两种来自AI的风险,一种是相对短期的,这与坏人有关,这更加紧迫。这将随着致命自主武器的发展变得明显,所有大的国防部都在开发这些武器,他们没有不这样做的意图。欧洲对AI的法规说,这些法规都不适用于军事用途的AI,所以他们显然打算继续这样做,还有很多其他短期风险,比如网络犯罪和产生不良病原体,假视频,监控。所有这些短期风险都非常严重,我们认真对待它们,而且很难在这些问题上进行合作,然后长期风险是这些东西会变得比我们更聪明,它们将成为代理人,它们将在世界上采取行动,它们将决定它们可以实现我们给它们的目标更好,如果它们只是决定并继续前进。那个特定的风险。生存威胁是一个人们将合作的地方,因为我们都在同一条船上,没有人希望这些AI接管人类。

主持人:你知道,作为一个被称为AI教父的人,你在很多方面听起来相当悲观。

杰弗里·辛顿:它可能非常危险,它可能非常好,也可能非常危险,我,你知道,我认为我们应该现在就做出巨大努力,确保我们能够得到它的好处,而不是坏的可能性。它不会自动发生。

主持人:好的,我们这里有一些学生,我知道他们中的一些人想要向你提出问题。

达龙·阿西莫格鲁:我们非常快,我们将需要质疑我们自己的存在,以及什么使它更有意义。

杰弗里·辛顿:当然,我们需要伦理,我们不需要的,我认为,是哲学家谈论意识和感知以及主观体验。我认为理解这些是一个科学问题,没有会更好。

主持人:还有人有这个问题吗?不,好的,非常感谢你。杰弗里·辛顿,你认为随着自动化等带来的生产力提高,对社会来说是好事吗?

杰弗里·辛顿:嗯,它应该是,对吧?我的意思是,我们在谈论,将有巨大的生产力提高。所以每个人都应该过得更好,但实际上会是另一种方式。这是因为我们生活在一个资本主义社会。所以将要发生的是,这种巨大的生产力提高将为大公司和富人赚取更多的钱,它将增加失业者和富人之间的差距。一旦你增加了那个差距,你就会为法西斯主义提供肥沃的土壤。

所以这非常可怕,我们可能正处于一个我们让事情变得越来越糟的点。这很疯狂,因为我们正在做的事情本应该帮助每个人。显然,它将在医疗保健中提供帮助,在教育中提供帮助。但如果利润只流向富人,那将使社会变得更糟,对吧?
主持人:约翰·霍普菲尔德教授,他90岁,是这个技术领域的真正先驱,我的意思是,你刚才听到的与你的工作共鸣吗?在某个阶段,你的工作被视为疯子的边缘,然后在这里,多年后,你被证是正确的?

杰弗里·辛顿:是的,学生们会申请我的部门与我合作,我的部门的其他教授会说,哦,如果你和他合作,你的职业生涯就结束了,这些东西是垃圾。

主持人:那让你感觉如何?我的意思是,你仍然,你知道。

杰弗里·辛顿:幸运的是,当时我并不知道。

.END.
图片来源|网络