未来智能学家Roey Tzezana:为什么我们突然间发现AI无处不在?一个通俗解读的角度

全文10277字,阅读约需30分钟,帮我划重点

划重点

01亚洲协会香港中心的商业和政策项目特邀Roey Tzezana博士和Nabua Sharif教授分享关于人工智能的神话、趋势和真相。

02Tzezana博士认为,人工智能发展速度惊人,可能在2024年左右达到与研究人员、工程师和技术专家相当的水平。

03然而,他提醒人们关注AI安全问题和道德伦理,如工作自动化、人类创造力影响以及AI决策能力超越人类等问题。

04Sharif教授强调,教育应培养技术素养、AI素养、自主意识以及作为人类的自豪感,以应对AI发展带来的挑战。

以上内容由腾讯混元大模型生成,仅供参考

(关注公众号并设为🌟标,获取最新人工智能资讯和产品)

——要培养技术素养、AI 素养、自主意识,以及作为人类的自豪感。人类需要明白过程比结果更为重要。因为这个过程中会你很多东西,培养你不断的批判性思维

——从 2018 年的 GPT-2 开始,按照当前的发展趋势到 2028 年左右,我们将拥有一个具备与研究人员、工程师和技术专家相当智能水平的人工智能

——人工智能真正取得重大突破是在过去 25 年里,这一突破得益于互联网的出现,提供了足够的数据来训练人工神经网络

人工智能已从科幻小说的领域走进我们的日常生活每个角落,为深入探讨这一主题,亚洲协会香港中心的商业和政策项目特邀两位专家与我们分享关于人工智能的神话、趋势和真相。

主讲嘉宾Roey Tzezana博士是一位世界著名的未来学家和人工智能研究员。他于2011年获得以色列理工学院纳米技术博士学位,目前在特拉维夫大学Blavatnik跨学科网络安全研究中心担任人工智能研究员。Tzezana博士同时是Tuddy机器人工程服务公司的联合创始人,该公司位于美国罗德岛,提供全球远程机器人服务。作为世界未来学会的高级顾问,Tzezana博士长期致力于机器人、人工智能、长寿和逆龄化以及组织工程等未来领域的研究,探索技术如何影响人类并重塑社会和机构。他著有《未来指南》和《未来统治者》两本畅销书,其中《未来指南》已在中国出版。

此次演讲还邀请到香港科技大学的Nabua Sharif教授,与Tzezana博士一同为我们带来关于人工智能发展的深度洞察。


文稿整理

一、演讲部分

Roey Tzezana: 谢谢!我想从一个修辞性问题开始。我们过去对计算机有哪些神话?这里列出了一些神话:我们认为它们只能执行例行和枯燥的任务;我们认为它们缺乏创造力;我们认为它们缺乏情感,无法理解并回应人类的情感;我们还认为必须非常精确地告诉它们该做什么,否则它们就会出错。所有这些都是过去我们告诉自己的故事,这些故事直到几年前还被认为是正确的。但如果我们看看今天的人工智能,我们会发现一切都发生了非常快速的变化。让我给大家展示变化的速度,因为我认为这张图很好地说明了我们未来几年可能会期待的进展。你可以看到某些能力的发展速度,比如手写识别、语音识别、图像识别等等。这是人类的平均表现水平(图表)。

以手写识别为例,这是一个相当复杂的任务,20 多年前的人工智能几乎不可能成功做到。但自那时以来,能力不断提高,直到 2015 年左右,我们终于达到了与普通人类相当的水平。顺便提一下,下次如果有人告诉你,人工智能做不到某些事情,因为只有人类能做到,请向他们展示这张图以及接下来我要展示的其他图表。语音识别也是如此,用了大约 20 年的时间,人工智能才达到了普通人类的语音识别水平。图像识别更有趣,这是人工神经网络真正崛起的地方,你可以看到图像识别的进展速度更快,坡度更陡。

仅仅在 6 年的时间里,我们就达到了人类的平均表现水平。至于阅读理解,在 2016 年,人工智能的表现非常差,一年后有所改进,再过一年就达到了人类平均水平。只用了两年时间,语言理解也仅仅用了 18 个月。不过,这张图表其实有些过时了,它只显示到 2020 年。这里是更新后的图表,你可以看到 2020 年到 2023 年之间发生了什么。那些人工智能原本表现很差的能力,现在几乎达到了人类的平均水平,尽管在某些领域还没有达到专家级别的水平。但我可以非常肯定地说,到 2024 年底,这些能力要么达到人类表现水平,要么非常接近,甚至到了 2025 年,我们可能会更接近甚至超越。这就是我们正在谈论的人工智能变化的速度。

现在,我真正感兴趣的问题是,人工智能何时能做到几乎所有人类能做的事情?我想听听你们的意见。我给大家三个选项:这会在 2030 年发生吗?在 2050 年发生吗?还是在 2080 年或永远不会发生?

如果你在四年前回答 2080 年,那你是正确的。那时,人工智能的历史还在前史阶段。如果你在 2019 年问人工智能专家,人工智能何时能达到 AGI(通用人工智能),即能够做几乎所有人类可以做的事情,他们会告诉你需要 80 年或者永远不可能。如果你说 50 年,那你是在 GPT-3 发布时回答的。当时专家们看到 GPT-3 的能力,觉得可能只需要 50 年。然后他们看到了 Lambda 2,又把预期缩短到 18 年,看到 GPT-4 后,他们将预期缩短到了 8 年。如果专家们的预测是正确的,那么我们将在大约 8 年内,即 2030 年左右,拥有 AGI。如果专家们过于保守,我们可能会在 2027 年或 2028 年见到 AGI。

如果我们看过去 6 年中与人工神经网络和大型语言模型的工作趋势,这个趋势非常明显。从 2018 年的 GPT-2 开始,它的智能水平大概是幼儿园小朋友的水平,几年后我们有了 GPT-3,它达到了小学学生的水平,现在我们有了 GPT-4,它的智力水平相当于聪明的高中生。按照这个趋势,再过 4 年左右,我们将拥有一个智能水平与研究人员、工程师和技术专家相当的人工智能,并且可以在任何领域中加以利用。

那么,那时的世界会是什么样子?这里有一个来自红杉资本的预测总结,他们认为到 2030 年,人工智能在文本生成方面能够与普通记者或作家一样出色;在代码编写上,它将能比全职开发者做得更好;在图像生成方面,它将能够超过专业艺术家、设计师或摄影师的水平。同样的趋势还会出现在视频、3D、游戏等领域。他们甚至预测视频游戏和电影将变成个性化的梦想场景,你想看一部电影,人工智能就可以为你生成一部电影。这可能不会在 2030 年发生,可能是在 2031 年或 2032 年,但趋势是明确的。我们不需要等到 2030 年、2032 年或 2035 年就能看到这些事情发生,因为我们现在已经看到了这种发展的结果。如果你看看过去两年间对写作需求的变化,一项最崇高的职业——写作,它曾一直是人类独占的领域,塑造了我们四千多年来的思想,尤其是在中国的例子中。然而,突然间,我们不再需要像过去那么多的作家了,仅仅两年内,写作相关的岗位就减少了 30%。我们在写作、翻译和客户服务领域所看到的变化,可能也会在其他职业中发生。这是我们将要讨论的引子,我提前说一句,我对未来世界的样貌没有确切的答案,但我有一些猜测。

但这也是我们需要共同探索的问题。我确实有一些猜测和方向,认为我们应该讨论。比如,关于未来的工作,我们是在谈论工作自动化,还是在谈论工作增强?是说 AI 完全取代我们的工作,还是 AI 让我们能更好地完成工作?这是两种截然不同的选择。顺便说一下,世界经济论坛认为我们将看到自动化会取代 8500 万个工作岗位。为什么我对这个数字并不担忧呢?因为世界经济论坛也相信机器人革命将创造 9700 万个新工作岗位。所以,我们是谈论自动化、增强还是新工作岗位的创造呢?麦肯锡认为,员工 60% 到 70% 的工作时间可以被 AI 取代。高盛则认为,三分之二的职业可以部分被 AI 自动化。你可以看到,这里显示了相关职业的百分比。这一点非常重要——世界经济论坛指出,创新也会带来新的职业。想想看,今天我们所拥有的许多职业,大约 60% 是在 80 年前还不存在的。因此,新的工作岗位、新的职业和新的专业将会出现,这只是一个开始。我们还需要讨论 AI 安全问题,讨论 AI 对人类创造力的影响,讨论它对社会的影响以及如何将其整合到我们的治理体系中。我们还需要讨论 AI 对组织的影响,有太多事情需要讨论。

祝我们大家好运!谢谢大家!

二、对话环节

Naubahar Sharif: 我先提几个问题来开始讨论。Tzezana博士,您刚才的演讲非常有见地,启发性很强,开阔了我们的眼界。但与此同时,也让人感到有些恐惧和悲伤,因为人工智能的发展速度如此之快,它几乎可以取代人类。我们是否有必要对 AI 发展的迅猛速度持悲观态度?还是我们应该持更平衡的观点,认为随着 AI 的发展,会有新的工作岗位产生,并且这一点不应被忽视?

Tzezana: 是的,确实有很多乐观的方面。但我想谈一个我们很容易忽略的乐观面,那就是范式的转变。现在我们被困在一个固定的范式中,认为世界应该是我们目前看到的这个样子。我们处在 Jonathan Margoles 所说的“当下的傲慢”中,即对现状的自满。我们确信现在的世界就是应该这样。但你知道他们怎么说的吗?未来是一个不同的国家,那里的思维方式和我们不一样。纵观历史,我们看到范式和神话——那些我们对现状所编织的故事——不断地改变和转变。我们可能非常确定 AI 会取代所有的工作,我们会无所事事,我们会发疯,不知道该怎么打发空余时间。但我们是人类,我们会找到打发空闲时间的方法。我们是社会性动物,我们会在社交地位、主导权以及伴侣等问题上互相争斗。我们是社会性动物,所以一切都会好起来的。即使 AI 取代了所有的工作,我们也会创造出一个新的经济体系,而这个体系将不再基于物理的实际生产价值。这个新经济将基于知识工作的精确性和准确性。我们可能不再那么需要人类的医生,但我们会需要那些能让我们感觉更好的人。我们会需要那些能帮助我们建立联系的人,我们也会需要那些为我们提供特定服务的人。

我不太担心……好吧,我在撒谎,其实我很担心,而且我们都应该担心。因为过渡期将会是个地狱,不会容易。我们早就应该开始思考这个问题了,但现在确实需要认真对待。不过我相信,我的孩子们在这个世界里将会繁荣发展。一旦我们达到了某种稳定的现状,我们就会找到在这个世界中生活的方式。谢谢!

Naubahar Sharif: 如果允许的话,我想再稍微走一点悲观路线,然后再向观众开放,希望观众们能用一些不那么消极的问题来鼓舞我们。AI 发展得如此之快、如此之好,您展示了从学龄前智能到高中生智能的进展,很快它将达到博士级别的智能,甚至更高。正如您提到的,AI 可以生成研究、电影、书籍、小说等等。当这一时刻到来,可能比我们想象的还要早。当 AI 的决策能力变得如此优秀、如此完美时,是否有可能出现科幻电影中那些乌托邦式的场景?也就是 AI 决定消灭人类,因为人类非理性、情感化,易受偏见和成见的影响。是否会有这样一个时刻,AI 技术不仅仅是计算机技术,而是机器人、机器、军事技术超越并消灭人类?

Tzezana: 是的。答案其实在问题本身。这是可能的,但我们不希望它发生。或者我更愿意说,我们希望它在一定程度上发生。一旦 AI 的决策能力超过个体人类,甚至超过整个群体(有时群体的决策能力甚至远低于个人),或者超过了政府的决策能力,我个人的看法是,我们应该尽可能自动化所有的决策过程,只要我们还能控制结果,控制我们输入决策引擎的问题,最终决定答案是否足够好。但我们确实应该将 AI 的决策整合到几乎所有的组织中,无论是公司、学校还是政府系统。

Naubahar Sharif:  在这种情况下,我们如何仍然保持对 AI 的控制?

Tzezana: 这是一个非常好的问题,也是我们很早就应该开始问自己的问题。不过现在我们确实在认真地讨论这个问题,这就是所谓的价值对齐问题。我们还没有解决它,我甚至要更进一步说,为了确保 AI 拥有与我们相同的价值观,我们首先需要弄清楚我们的价值观是什么。因为价值观在不同的地区差异巨大,比如美国、香港、朝鲜、以色列、南美和北美等等。所以我们需要开始思考,哪些是我们人类应该拥有的核心价值观,哪些是我们可以达成共识的。这不会容易,因为我认为我的价值观是最好的,显然你也认为你的价值观是最好的。每个人都认为他们的价值观是最好的,有时他们甚至不能完全解释清楚自己的价值观。我们需要进行一次开放和坦诚的讨论,这个讨论需要在联合国等国际组织的领导下进行。值得高兴的是,联合国刚刚在一周前发布了一份报告,表示他们将成立一个新的 AI 办公室来应对这些问题。我们需要开始思考我们的价值观,哪些价值观我们需要保留,哪些特质我们希望 AI 具有,并确保 AI 不能偏离这些特质。

三、观众提问

观众1: 谢谢,非常精彩的演讲。我有一个简短的问题,您认为 AI 是否有可能变得自我意识或者有意识?如果有,您觉得会在什么时候发生?

Tzezana: 这是一个很好的问题,也意味着我不知道答案。但确实很有意思。让我来分解一下,首先,“意识”或者“感知”是一个包含了很多含义和影响的词汇,正如 Marvin Minsky 所说,它是一个“桶词”(bucket word),它涵盖了很多内容,难以只聚焦其中一个,因为你总会遗漏其他的部分。但让我来尝试理解“自我意识”,假装我们知道它的实际含义。你的问题可以通过另一个问题来回答:你是否相信人类的意识是由上帝直接创造的,还是通过某种进化过程产生的?是通过人工或自然选择,或者其他类似的方式?是因为“魔法”而产生的,还是通过慢慢的工程演化出来的?

如果你相信它是工程的结果,那么我们也可以通过工程实现它。我们可以让它发生。如果是“魔法”,那我就不知道了。也许它真的是魔法,虽然我是个无神论者,但也许它确实是魔法。不过,只要你承认人类的大脑是进化出来的,那么就像我们可以模拟光合作用、模拟比有机树木更高的大楼一样,我们也能模拟意识或自我意识的机器。我们现在还不知道是什么让我们具有意识,但我相信,一旦我们弄清楚了这一点,我们也能让机器具有意识。老实说,这让我感到非常恐惧,并不是因为我担心有意识的机器会取代我们。我们可以限制机器的思维,就像人类在很多方面都不太理性一样,我们也可以创造出不那么理性的机器,让它们永远不会想要超越我们或反抗我们。

我真正担心的是——这可能是我比较人道主义的一面——想象一下,一个有自我意识的机器,它有恐惧、能够感受到痛苦、孤独和怀疑。想象一下,它能够比人类快得多地处理思维,感觉自己被困在黑暗中,对于人类来说可能只是几分钟,但对于机器来说可能感觉像是数千年。我不认为这很容易发生,但我确实认为,在我们追求让机器获得意识的过程中,可能会给世界带来一些痛苦和折磨。我希望这不会发生,但有这样的可能性。

观众2: 首先,感谢今天的精彩演讲。您的图表非常清晰地展示了 AI 在软件和硬件方面的显著进展。我们现在看到,这些新工具往往需要更多的能源和专门的基础设施。我想请问您对现实世界中基础设施的瓶颈有何看法,这些瓶颈会不会延缓 AI 的发展?反过来,是否也有可能加速 AI 的发展?

Tzezana: 谢谢你的问题。我是一个非常乐观的人,幸运的是,这种乐观似乎一直是正确的,因为技术总是在不断弥合差距,帮助我们克服各种挑战。推动人类前进,提升我们从类人猿等远古祖先进化到如今水平的最重要因素,是科学和技术。他们曾经做过一些研究,你可以在 Steven Pinker 的《裸脑》中读到。他们研究了所有人类文化中普遍存在的词汇,其中一个是“矛”(spear),另一个是“谋杀”(murder)。这很有趣,因为这表明,人们普遍认为在大多数情况下,杀人是不对的。同时,“矛”作为一种技术也伴随我们前行。这正是推动我们进步的工具。

什么是 AGI(通用人工智能)呢?AGI 意味着一旦我们拥有它,我们就不需要在每个人身上投入 30 年的教育,去培养科学家或工程师。你只需要点击按钮,或者输入计算能力和数据,就可以得到一位科学家、一位工程师,然后你还可以得到一百万个科学家,甚至一亿个。

当然,每个科学家的背后都需要计算能力、能源和用于冷却的水资源等等。但是这些科学家们在做什么呢?他们不会像我们的博士生那样躺在那里看短视频(笑),开个玩笑,不会的。但是重点是,他们并不是整天躺在那里看肚皮(笑),他们正在进行真正的研究,并推动技术向前发展。所以我的预期——再强调一次,我是个非常乐观的人——是,随着 AI 发展的加速,我们会看到更多的“奇迹”发生,就像今天我们所见的那样。AI 在短短四年里就实现了许多我们十年、二十年甚至三十年前那些“疯狂未来学家”才会谈论的事情。因此,AI 在短短四年内取得了巨大的进步,我们将看到这种进展在各个技术领域中迅速涌现,尤其是在可持续能源和能源采集方面,以及更好地利用我们已有的资源。我们已经看到谷歌利用 AI 来减少其服务器农场的冷却成本,减少了大约 20% 到 40%。想象一下,当我们拥有顶尖的科学家,他们共同努力解决人类问题的同时,也在找到更多可持续获取能源的方法时,会发生什么。

Naubahar Sharif: 我可以插个问题吗?您刚才提到了教育,提到了通过按下按钮创造科学家。我想问一下,您对 2035 年及以后的教育有什么看法?在 AI 能够展现出所有您刚才提到的能力的背景下,教育将会是什么样的?我们应该教给孩子们什么技能?2035 年的 7 岁孩子在 25 岁进入职场时,他们需要具备什么样的能力?

Tzezana:  你在问 2035 年 7 岁孩子的工具和方法是什么?那我们得先问一个更重要的问题:2050 年 25 岁的人意味着什么?这是我们真正需要思考的,当我们在考虑如何教育今天的孩子们时。我没有一个明确的答案,我自己也一直在挣扎这个问题。我应该怎样教育我的孩子们?我应该告诉他们什么,如何引导他们?

不过,我可以给你一些想法和故事。大约两年前,我创建了一个非常有趣的项目,那是在 ChatGPT 之前。当时我已经在使用 GPT 的 API。我突然有了一个很棒的主意,至少我认为是个好主意——我要创建一个网站,连接到 GPT 的 API,让孩子们能够输入他们的作业问题,AI 会为他们提供答案。我觉得这个主意绝对棒极了,于是我实施了这个想法,结果也还不错。在以色列,仅仅一周内,我们就收到了来自全国各地孩子们的 25,000 个问题。有的老师还给我写了一些不太友善的信件(笑),因为他们不太喜欢技术。但也有一些老师非常兴奋。有一位老师对他的五年级和六年级学生说:“从现在开始,你们的作业必须先由 AI 完成,然后再提交给我。”他说:“如果作业错了,我不会惩罚 AI,而是惩罚你们,因为你们是 AI 的主人。”学生们说:“但我们不知道怎么和 AI 一起工作。”老师回答说:“那你们就该学会。”

自那以后,我访问了以色列和世界各地的学校,教孩子们如何与 AI 一起工作,如何成为 AI 的主人。我认为这其实是问题的一个重要部分。我们需要教会今天的孩子们掌握自动化工具,培养他们的自主性和行动力,而不是屈从于 AI。因为我们看到,即使是专家在使用 AI 时,也经常错误地接受 AI 的想法。在与波士顿咨询公司(BCG)和哈佛商学院的研究中,我们发现使用 AI 的专家错误率提高了 90%,这非常疯狂。这意味着 AI 在“欺骗”我们,虽然它现在还没有意识,但它确实让我们迷惑。所以,我们需要教会孩子们培养行动力,培养批判性思维,这非常重要。同时,我们还需要教会他们如何利用 AI 进行研究。

最重要的是,要培养技术素养、AI 素养、自主意识,以及作为人类的自豪感。他们需要明白,很多时候,过程比结果更为重要。因为这个过程会在途中教会你很多东西,培养你不断的批判性思维。

观众3: 非常感谢!AI 的发展速度令人惊叹,它的创造力对人类的独创性产生了巨大影响。如果 AI 可以接管一切——您在图表中也指出了这一点——那么人类的独创性和价值还剩下什么呢?您也提到了价值。如果 AI 如此聪明,显然它会涵盖我们珍视的许多价值观,甚至是我们希望拥抱的一些价值观。我的终极问题是:我们如何控制如此快速、创造力如此强的 AI,让它为人类服务?AI 是可控的吗?如果是,为什么?如果不是,为什么不?

Tzezana: 这是个很好的问题,但我没有一个完美的答案。如果我们全人类一起开发 AI,一起打造一个大型 AI 引擎,那么我会告诉你,我们或许能够控制它,甚至可能完全控制它,一切都会顺利进行。但事实并非如此。现在有几家大型科技公司在开发未来的 AI,即 AGI(通用人工智能)。我们有 OpenAI 开发的 GPT,Anthropic 开发的 Claude,还有 Google 的 Gemini,Facebook(Meta)开发的 LLaMA。而且,LLaMA 是相对开放的,所以其他人也可以使用它。此外,我们在中国也有一些公司,比如百度和阿里巴巴,它们也在开发自己的大型语言模型。同时,我们还看到那些“长尾”的小公司和个人也开始创建他们自己的大型语言模型。

OpenAI 的前工程师 Andrej Karpathy 今年就用 200 美元重现了 GPT-2,而六年前 GPT-2 曾是划时代的突破。这意味着不管你给你的 AI 设置了多么多的安全防护,其他人未必会做同样的事情。即使大公司负责任,政府也采取谨慎措施,但总有“孤狼”、恐怖分子或不满社会的人,他们可能会开发出自己的 AI,引发破坏。即便这些 AI 初期不如最先进的 AI,随着技术进步,两年后它们也会变得非常强大。那我们该怎么办呢?当任何人都可以创建一个天才级别的 AI,并将其释放到互联网上,命令它摧毁世界、设计新型武器或其他毁灭性的任务时,我们该怎么办呢?

我的回答是,听起来现在我们会觉得非常可怕,因为我们无法想象一个每个人都有天才级别 AI 的生态系统。但政府不会坐视不管。我们会有一个网络世界,在那里天才级别的 AI 彼此对抗,保护人类免受恶意 AI 的威胁。我并不像 Eliezer Yudkowsky 那样悲观,他认为未来 80 年内 AI 毁灭人类的概率是 100%。我也不像 Roman Yampolskiy 那样认为概率是 99.99%。我更乐观一些,因为我认为我们不仅会有恶意的 AI,还会有正义的 AI、保护者 AI,它们会帮助我们保护自己。

观众4: 过去几年中,AI 发展的技术进步是什么促成了它的加速?

Tzezana: 其实,这不仅仅是过去四年的事情,而是过去 70 年左右的事情。自从发明了感知器以来,感知器是一种早期的人工神经网络模型,虽然比较原始,但它标志着人工神经网络领域的开端。人工智能真正取得重大突破是在过去 25 年左右。这一突破得益于互联网的出现,提供了足够的数据来训练人工神经网络。同时,我们终于拥有了所需的计算能力,尤其是当 Andreen 发现我们可以使用 GPU 来运行人工神经网络时,这是一个非常大的突破。突然之间,这意味着我们可以在服务器农场中运行 AI 并对其进行训练。大约在 2011 年到 2016 年之间,我们开始意识到,人工神经网络可以做到基于规则的算法和人类开发的算法无法实现的事情。这对许多教授来说非常令人沮丧,我在 2014 年和一位教授聊过,他非常沮丧,因为我们并不完全理解人工神经网络的工作原理,但它在图像识别等领域的表现却优于人类创造的最佳算法。

2016 年,我们发现了可以“修剪”人工神经网络并创造出Transformers,这是一种人工神经网络的架构。我喜欢将其比作大脑中的器官或区块,比如你的杏仁核和前额叶,它们各自擅长不同的事情。变压器架构特别擅长完成下一个“token”(令牌),这个令牌可以是一个词、一段文字、一段 DNA 的碱基,甚至是一段音乐或图像的像素。我们发现变压器在这些任务中非常有效,这让我们感到意外且高兴。第二个令人惊喜的发现是,虽然我们并不完全理解其背后的原理,但当我们增加人工神经网络的规模时,结果会显著改善。因此,当我们将 GPT-2 扩展到 GPT-3 后,得到了显著的提升,进一步增加规模后,GPT-4 的表现也更加优越。现在,我们开始回归到如何提高效率,而不仅仅是增加规模。这意味着我们现在正在尝试构建更小但更高效的人工神经网络。

总的来说,过去十年取得的进展可以归结为更多的数据、更强的计算能力,以及不断尝试增加神经网络的规模,这些尝试奏效了。尽管我们不确定这是否会一直奏效,但我们现在正在努力让系统变得更高效,而不是仅仅追求更大。

观众4: 感谢 Sharif 教授和 Tana 博士的精彩分享。我有三个快速的问题,但只问一个。首先,您提到了大语言模型(LLM)在预测下一个 token 方面越来越出色,这激发了很多关于未来大模型的想法。斯坦福大学的 Le 教授最近发布了 Worlds Lab,研究 3D 世界模型。在您看来,未来大模型中最令人兴奋的是什么?

Tzezana: 感谢您的提问。我对两件事感到非常兴奋,但它们同样也应该让我们感到害怕。第一件事是基于大模型(LXMs)的自主组织。这个组织可能由多个大语言模型组成,但最终结果可能是一个完全自我管理的组织。我们已经开始看到这方面的强烈迹象。比如,ChatDev 就是由中国的几所大学和布朗大学共同开发的。这让我感到十分激动和期待。

之前没必要提到那么多细节。万一你还不清楚,ChatDev 基本上是一个由多个人工神经网络组成的代理系统,每个网络都被分配了特定的角色。比如,一个网络扮演 CEO 的角色,思考和行动都像是一个 CEO,另一个是 CTO,还有 CFO、设计师、技术写作者和开发人员等等。在 2023 年 9 月的一篇论文中,他们展示了如何指示这个“公司”去开发一款新游戏。CEO AI 会与 CTO AI 商量策略和行动计划,CTO 再与开发人员和技术写作者沟通具体的工作内容,然后再反馈给 CEO。这样,他们模拟了一个完整的公司工作流程。

整个过程只用了几分钟,花费了 1 美元,最终他们得到了一个计算机游戏。虽然这个游戏质量不高,只有 80% 完成,且其中一半是无意义的内容,主要是因为他们限制了 AI 的 token 数量。但在 GPT-4 和 GPT-01 的出现后,这些问题已基本解决。这对于我来说是一个“自主组织”的概念验证,一个由 AI 组成的组织,可以创建游戏。想象一下,未来我们可以在飞机上点击一个按钮,五分钟后,AI 就能为你量身定制一部电影。这是我们未来可能会看到的情况。这些自主组织还可以自主缴税,雇佣或解雇员工。它们可以管理人类员工的表现,做好则奖励,做不好则解雇。再想象一下,这类自主组织应用到政府系统中,可能会有 99% 的政府事务由 AI 自动处理。这将彻底颠覆我们的行业和经济,我们需要非常慎重地考虑这些问题,因为这等于是赋予了 AI 影响人类世界的代理权。

观众5: 谢谢今天的讨论。我对医学很感兴趣,我的问题是关于 AI 在人体中的应用。比如,植入大脑或身体其他部位的微芯片,这类生物技术会不会让我们走向增强人类甚至机器人化的风险?这条线是否会变得模糊,我们如何区分“你是人类”还是“增强人类”?其次,关于治理,您提到了人工选择。我们会不会走到选择孩子特征的地步,比如选择蓝眼睛等等?是否已经有相关的规则来约束这种行为?谢谢。

Tzezana:  这是非常好的问题。我认为问题的核心在于我们对“什么是正确的”感知,以及我们对人类应该是什么样子的理解。这种观念从我们出生起就深植于心,很难与之争辩。关于增强人类的风险,我不认为这是个风险,而是一种发展。发展可以同时带来好处和坏处。事实上,我已经是一个增强人类了。这副眼镜就是我的增强工具,如果没有它们,我几乎看不见任何人。所以,我已经是个“增强人类”了。今天在场的许多人如果没有现代医学技术,也许根本无法存活。比如试管婴儿,当初它被认为是一种极具争议的技术,但现在已经成为普遍接受的医学手段。所以,我认为增强人类的发展是必然的,我们需要以发展的眼光来看待它。

你知道,50 年前、40 年前,曾有人写文章说试管婴儿是某种“异端”。但现在显然大家都接受了,试管婴儿就是人类,一切都好。所以,我很有信心地说,我们将不断增强自己。对我们这些没有与这项技术一起成长的人来说,这将让人感到恐惧。但对我们的孩子们而言,这将感觉完全自然。这种技术会带来一些风险,但也会带来很多好处,我们需要找到平衡点。

观众6: 非常感谢今天的精彩演讲。我想请教一下关于人工智能是否是一种“集权化”的技术。有人说,拥有这些模型或基础设施的公司将获得大部分利益,社会会依赖那些控制模型或基础设施的实体,可能会在某种程度上将权力集中在少数人手中。您怎么看这个问题?

Tzezana:  我认为这确实是一个值得关注的问题,当然也是一个真实存在的担忧。显然,政府可以根据他们对领土的控制权、基础设施的控制权以及通讯网络的控制权,最终决定允许什么在他们的领土上运行。目前,在开放世界中,我们看到许多开源的 AI 引擎和模型不断涌现,人们经常在重新训练这些开源模型,几乎每天都会有新的开源引擎出现。因此,真正的问题是,谁有权力限制 AI 引擎的使用,他们会如何使用这种权力,目的是什么。这不仅是技术领域的问题,还是治理和地缘政治的问题。



原视频链接: