在今天的专栏中,我探讨了一个迅速兴起的话题:为生成式 AI 和大语言模型(LLMs)建立近乎无限的记忆。你可能会好奇,这是什么?如果你还没有听说过这个即将到来的 AI 突破,你肯定会在未来几个月内听到相关消息。相关技术正在制定中,其带来的影响将是巨大的,尤其是在生成式 AI 和 LLMs 将能够实现的额外功能方面。
这涉及到一系列 AI 的基础元素,包括无状态交互、基于会话的记忆、上下文链接以及其他将转变为近乎无限记忆的方面,俗称为无限注意力。
让我们来谈谈这个话题。
这篇关于创新 AI 突破的分析是我在 Forbes 专栏中持续报道 AI 最新动态的一部分,包括识别和解释各种有影响力的 AI 复杂性(请参见此处的链接)。
定义近乎无限记忆
首先需要澄清的是“近乎无限记忆”这个流行语的含义。
这里有一个方便的思考方式。假设你的智能手机上有很多数字照片。也许你有几千张照片。一个云服务提供商鼓励你将数字照片存储在他们的服务器上。服务器可以处理数十亿张数字照片。你的照片所消耗的存储或记忆量只是九牛一毛。
从某种意义上说,云服务提供商可能会宣称他们可以处理无限数量的数字照片。他们这样说是因为他们知道足够多的人拥有足够多的快照以消耗掉他们服务器的全部容量的可能性极低。这不太可能发生。此外,如果他们真的开始达到现有的存储容量,他们可以出去购买更多的服务器或硬盘。
那么,你会说他们宣称可以存储无限数量的照片是一个真实的说法吗?
严格来说,这不是一本正经的真实断言。
想象一下,我们使用了一台照片制作机,生产了数以万亿计的数字照片。假设没有足够的服务器和硬盘来容纳所有这些。因此,当他们声称可以处理无限数量的照片时,云供应商是在“撒谎”或夸大其词。严酷的事实是,他们没有无限的记忆量,只有有限的记忆量。
如果他们要谨慎小心,避免有人指出他们在记忆量或存储量上撒谎,他们可以说他们拥有近乎无限的记忆量。这似乎是一个琐碎或过于粘滞的点,但这似乎是表达这种情况的更公平方式。
好的,关键是近乎无限的记忆就像是在说有大量的记忆,也许比你可能用到的还要多,但在某个节点上仍然有一个限制,因此只有有限的记忆量可供使用。
人类记忆是有限且有缺陷的
我很快就会在这个讨论中进入 AI 模式。
首先,我想分享一些关于人类记忆本质的想法。这在某种程度上有助于讨论关于记忆的一般考虑。话虽如此,请不要通过将人类记忆和计算机数字记忆的性质混为一谈来拟人化 AI。它们不是一样的。
我相信我们都可以很容易地同意人类记忆是有限的。
你的大脑和思想能容纳的东西是有限的。此外,人们可能会健忘,似乎失去了曾经在他们头脑中的记忆。人类记忆可能是有缺陷的,因为一个人以一种方式记住事情,而几个月后又以不同的方式记住同样的记忆。我们都知道人类记忆有其局限性,并且可能不稳定。
当你与某人交谈时,你的记忆可能会活跃起来,并做各种重要的事情。这个人可能会提到一个话题,比如帆船,而你的记忆会闪回到你上次航海的时候。然后,这个人可能会告诉你,他们在乘坐帆船时总是晕船。你可能会将这句话存储在你的记忆中。也许在稍后的某个场合,你和那个人一起去巡航,你可能会回忆起之前的记忆,并询问他们在巡航期间是否会晕船。
你是否曾与某人交谈过,似乎你说的话从他们的一只耳朵进另一只耳朵出?
你一定有过。
他们似乎没有在他们的记忆中注册你所说的事情。如果你问他们在谈话开始时你说了什么,他们可能会一片空白。为了帮助他们,你可以礼貌地简要复述一下已经讨论过的内容。
过一会儿,你就会明白为什么我提到这些关于记忆的几点,所以请一般性地记住它们。
生成式 AI 的记忆考虑
很少有人意识到,由于生成式 AI 和 LLMs 在与您进行交互对话时如何利用数字记忆,它们在很大程度上受到限制。当我在各种关于 AI 的演讲中解释这一点时,这有点令人震惊。我将带您了解发生的事情的简化版本。
假设我与生成式 AI 进行了一次关于煮鸡蛋的对话。
我输入的提示:
“我打算煮鸡蛋。我想听听你的建议。”
生成式 AI 的回应:
“当然,我很乐意协助。您想知道什么?”
我输入的提示:
“把它们炒熟还是煮成嫩煎蛋更容易?”
生成 AI 的回应:
“一般来说,炒鸡蛋比煮嫩煎蛋更容易。”
对话相当简单且非常直接。
我想让你考虑一种转折。
在我的第二个提示中,我问 AI 是炒“它们”更容易还是煮嫩煎蛋更容易。“它们”指的是什么?你可以查看我的第一个提示,并注意到我说过我有一些关于煮鸡蛋的问题。在我的第二个提示中,我显然是在指煮鸡蛋。你可以很容易地从我在第一个提示中所说的话中得出这个逻辑联系。我的第二个提示中的“它们”是指我想知道炒鸡蛋和嫩煎蛋的区别。
如果 AI 只能解析最近的提示,而没有我在对话中之前提示的数字记忆,会发生什么?
为了展示这一点,我将从一个全新的对话开始,这样唯一的提示就是关于炒鸡蛋和嫩煎蛋的问题。我将使用我之前的第二个提示作为开始对话的方式。
让我们看看会发生什么。
{从头开始一个新的对话}
我输入的提示:
“把它们炒熟还是煮成嫩煎蛋更容易?”
生成 AI 的回应:
“您的提示提到‘炒’和‘嫩煎’,这表明您对鸡蛋感兴趣。这是您想问我的吗?”
请注意,生成式 AI 没有与我似乎突如其来的关于某物被炒还是嫩煎的引用相关的上下文。因此,AI 要求对该问题进行澄清。
这很有道理,因为在这个新的对话中,我还没有说过关于鸡蛋的任何事情。
生成式 AI 的记忆问题
我向你抛出的这个概念似乎很疯狂。你怎么能进行对话,如果 AI 只是利用你最近的提示?这有点像从一只耳朵进另一只耳朵出的情况。对话中不会有任何积累的上下文。这不好。
通常,生成式 AI 和 LLMs 处于只解析您最近提示的同一条船上。你可能会说,哇,那不可能,因为你已经使用生成式 AI 进行了长时间的对话,而 AI 总是能够轻松跟上互动的上下文。
诀窍在于此。
在幕后,在 AI 内部,您对话中的先前提示和响应被偷偷插入到您最近的提示中。您不知道这正在发生。AI 获取您之前的提示及其响应,并秘密地将它们捆绑在一起,在您按下回车键后将它们放入最近的提示中。
我将回顾我之前的对话,并向您展示 AI 内部发生了什么。我的第一个提示是对话的开始,所以它只是单独存在。AI 进行响应。然后我输入了我的第二个提示。
我输入的提示:
“我打算煮鸡蛋。我想听听你的建议。”
生成式 AI 的回应:
“当然,我很乐意协助。您想知道什么?”
我输入的提示:
“把它们炒熟还是煮成嫩煎蛋更容易?”
AI 获取我的第一个提示及相应的响应,并将其偷偷放入我输入的最新提示中,以便在 AI 内部,输入的提示看起来像这样:
AI 的内部复合提示:
“
{用户提示}
我打算煮鸡蛋。我想听听你的建议。
{AI 响应}
当然,我很乐意协助。您想知道什么?
{用户提示}
把它们炒熟还是煮成嫩煎蛋更容易?”
AI 然后进行响应,因为它获得了先前的上下文:
生成 AI 的回应:
“一般来说,炒鸡蛋比煮嫩煎蛋更容易。”
结果是,随着您的对话继续进行,所有先前的对话部分都被偷偷嵌入到您最近的提示中。AI 然后处理对话的所有这些元素,最终到达您最新的提示,然后进行响应。
还记得我提到过,当与某人交谈时,他们可能没有注意,您不得不向他们重复对话中发生的事情吗?这与许多生成式 AI 和 LLMs 当前的工作方式有些相似。您只是不看到它发生。您假设 AI 在对话中来回往返时一直在关注。
可能不是。
无状态性有很大的缺点
用户输入的提示通常被认为是无状态的。提示缺乏已讨论内容的先前状态。
我们如何为其提供上下文?
常用的 AI 解决方案是使用上下文链接。它是这样的。在对话期间与生成式 AI 的先前交流被附加到当前交流中。通过将对话的所谓上下文链接在一起,AI 似乎拥有您一直在讨论的内容的“记忆”。现实情况是,每个新提示都被迫重新引入对话的其余部分。
这种方法存在严重的问题。
首先,对话越长,每个新提示需要携带的先前负担就越多。
长时间的对话必然会达到 AI 设置的处理大小限制。您可能听说过达到最大 Token 阈值,请参阅我在此处的链接中对此的解释。一旦您的对话达到该限制,AI 将停止对话或将对话的先前部分滚动掉。通常的滚动是从对话的开始部分开始的,因此被认为是最远的部分被截断或删除。完整的上下文因此丢失。
其次,存在成本和时间问题。
假装您与某人交谈,需要您重复正在进行的对话的所有先前方面。进行对话所需的时间可能会失控。对话进行得越长,您通过重复已经涵盖的所有内容所消耗的时间就越多。AI 的方面是,从您按下提示的回车键到获得响应,AI 将不得不处理整个附加的对话。
这增加了延迟,换句话说,延迟了响应时间。
成本也进入了画面。如果您为 AI 的处理周期付费,则需要大量处理周期来重新分析对话。这在每个新提示中都会发生。您将不得不支付高昂的费用,以便整个过程反复发生。
处理 AI 记忆的新范式
各种旨在克服无状态性并避免上下文链接需求的高级方法正在出现,并将逐渐且不可避免地成为主流方法。通常的那种蛮力方法将被更复杂的方法所取代。
考虑一下。
我们选择在生成式 AI 和 LLMs 中建立一种特殊的架构,以捕捉对话的进展。交互以一种使其易于使用和关联的方式存储。
有关详细信息,请参阅我在此处的链接中关于交错 AI 对话的深入讨论。
目标是对对话进行索引,以便可以快速找到和检索各种部分。使用了一种优先级方案,该方案将倾向于将对话的最新部分指定为更重要的检索对象,并将先前部分视为不太可能立即需要的对象。同样的情况也会发生在识别对话中最常被引用的部分,使这些部分随时准备好。
我们不一定需要将整个对话保存在内部记忆中,可以将不常用的部分放到外部存储介质上,例如硬盘。如果对话开始朝着那些先前部分的方向偏离,AI 将从硬盘中检索这些部分。希望 AI 能够适当地预测对话的走向。这样做将允许预检索,而不会在处理对话的最新提示时延迟 AI。
为了尽量减少所需的记忆量,放入外部存储的对话部分可能会被压缩。然后,检索会撤销所需对话部分的压缩。这增加了处理时间。需要在您希望保持低的存储量与压缩和解压缩处理所需的额外时间之间找到权衡。
近乎无限记忆的崛起
啊哈,我们现在准备讨论即将到来的生成式 AI 和 LLMs 的近乎无限记忆方面。
我刚才概述的新方法不仅可以让您随时准备好现有对话,还可以让您随时准备好与 AI 进行的所有其他对话。我们将使用我描述的相同机制存储所有这些先前的对话。当您开始新的对话时,AI 将访问您存储的任何或所有先前对话。
当前的生成式 AI 倾向于将您的对话彼此区分开来。您进行了一次关于汽车的对话,讨论了您喜欢什么样的汽车。稍后,您开始了一次新的对话,讨论您的财务状况。财务状况对话与汽车对话没有关联。如果财务状况对话能够进入汽车对话,AI 可能会在财务讨论中提到您是否有兴趣购买新车,如果是这样,AI 可以解释您的财务选择。不幸的是,生成式 AI 仍然倾向于将对话彼此分开。
不用担心。
很快,生成式 AI 和 LLMs 将不再有一次性限制。现在的问题是您可以存储多少次对话?答案是,这完全取决于可用的服务器存储空间。
您可能会说,只要您可以使用额外的外部存储,您的对话可以是无限长的。您还可以说,您与 AI 的对话数量也可以是无限的。天空是极限!当然,正如我在开头提到的,我们实际上没有可用的无限存储空间。
因此,我们将说生成式 AI 可以利用近乎无限的记忆。
砰,放下麦克风。
近乎无限记忆带来的好处
您现在知道您将能够与 AI 进行“无限”长的对话,并且可以与 AI 进行“无限”数量的对话,尽管如果我们要非常坦率地说,是近乎无限的。
为什么这会有任何实质性的不同?
我很高兴你问了。
首先,您一开始新的对话,您所有的先前对话将在某种意义上立即发挥作用。AI 将始终拥有您的所有对话,并可以将您之前讨论的内容与您希望讨论的任何新方面交织在一起。假设这是以一种巧妙的幕后方式完成的,从您的角度来看,这一切都应该是无缝的。回忆您过去的互动旨在快速、幕后进行,并且没有任何障碍。
想象一下,您开始了一次关于预订航班的新对话。一年前,您与 AI 进行了一次对话,其中您表示您更喜欢靠窗座位。AI 根据当前对话是关于航班的方面检索该对话。然后 AI 问您是否想预订一个靠窗座位,这是您过去的偏好。
不错。
其次,对话的规模可以是巨大的。
目前,任何使用生成式 AI 的人都可能意识到存在限制,妨碍了他们想要实现的目标。假设我正在进行关于法律的 AI 对话,并希望 AI 吸收数十本法律书籍和法规。这些是进行对话所需的。目前,由于各种记忆大小限制,您将很难做到这一点(请参阅我关于一种流行方法的讨论,该方法称为 RAG 或检索增强生成,提供了一种临时解决方案,直到我们拥有近乎无限的记忆,请参阅此处的链接)。
第三,上下文成为王者。
如果做得好,近乎无限的记忆将具有如此广泛的索引,以至于您提出的任何主题都会立即与您与 AI 进行的任何相关先前对话相关联。上下文将像环绕声一样。您决定提出的任何主题都可能被放入合适的上下文中。
将其与人际对话进行比较。您正在与朋友交谈,并想谈论您两人在夏威夷度假的乐趣。您的朋友一开始感到困惑和模糊。你们两个什么时候去夏威夷度假?您恳求地提醒他们,嘿,我们 20 年前去过那里,您一定记得我们度过的疯狂时光。您的朋友开始稍微记得。您必须分享更多细节,才能让他们了解您打算进行的对话的要点。可悲的是,人类没有“无限”的记忆,记忆是有缺陷的,会衰退。
可以假设,您与 AI 进行的存储对话不会衰退,不会消失,并且在检索方面不会有缺陷。您与 AI 进行的每次对话,无论是多么久远,都会保持完好无损。记忆几乎是瞬间发生的。
近乎无限记忆导致无限注意力
到目前为止,一切都很好,即近乎无限记忆的出现是一个大问题,并将彻底改变人们使用生成式 AI 和 LLMs 的方式。
令人信服的说法是,近乎无限的记忆打开了通往无限注意力的大门。
怎么说?
请跟我来。假设您与生成式 AI 应用程序进行了各种各样的对话。大量的对话。您讨论了您的个人生活和工作生活,并提供了大量关于您的偏好和需求的细节。
AI 使用模式匹配来获取您如何做事、您如何思考以及其他方面的复杂方面,基于检查您与 AI 进行的大量对话。由此,AI 计算确定在 12 月的假期期间,您会定期去加利福尼亚探望家人,并带上礼物。
大约在 10 月,AI 主动询问您是否希望 AI 为 12 月的假期预订航班,通过提前预订获得良好的折扣。此外,根据您过去购买的礼物,AI 提供一些在线购物,并购买您可以在 12 月旅行中带上的礼物。
您可以清楚地看到,生成式 AI 对您是谁、您做什么以及其他方面的存在给予了极大的关注。这种关注可以随时发生,因为 AI 不间断地工作,24x7。昼夜不停。每年的每一天。
这被称为一种无限注意力的形式,尽管我想我们应该更加谨慎地称之为近乎无限的注意力。您来判断。
无限注意力在无限规模上的应用
生成式 AI 可以成为您生活各个方面的终生伴侣。
一位医生可能能够通过 AI 的近乎无限记忆保存与所有患者的所有对话(请参阅我在此处的链接中关于 AI 已经以某种类似但更简单的方式帮助医生的报道)。
AI 可以提醒医生与再次来看医生的先前患者的对话。此外,AI 可以对所有患者的所有对话进行模式匹配,并可能识别出该患者与医生十年前看到的另一位患者具有相似的医疗状况。
教师可以对他们的学生做同样的事情。律师可以对他们多年的法律程序做同样的事情,请参阅我在此处的链接中关于 AI 和法律预测。家庭历史、个人旅程,几乎是无穷无尽的。
近乎无限记忆的陷阱和缺点
这一切都令人叹为观止。
让我们花一点时间反思一下,考虑一下这一 AI 重大进步的影响。我们不应该仅仅通过玫瑰色的眼镜看世界。有很多问题需要考虑和解决。
准备好迎接颠簸的旅程。
首先,隐私入侵的影响是惊人的。请记住,AI 对话是由 AI 制造商存储的。如果您还不知道,大多数 AI 制造商在其许可协议中规定,他们可以阅读您输入的任何提示,并可以重新使用您的数据以进一步训练他们的 AI,请参阅我在此处的链接中对此的报道。
即使 AI 制造商以某种方式同意保密您的数据,仍然有内部不满分子违反承诺的可能性,或者外部黑客设法闯入并获取您从第一天开始的所有 AI 对话。是否会有足够的网络安全保护?也许有,也许没有。
这是需要解决的最大问题之一。
另一个是成本。目前,许多主要的生成式 AI 应用程序是免费的或使用成本低。
尽管需要大量数据存储,这种情况会继续吗?似乎很难想象成本会被搁置(好吧,我曾推测我们可能会看到嵌入广告和其他货币化技巧的兴起,当使用生成式 AI 时,请参阅此处的链接)。通常的假设是,人们在刚开始时会获得一些名义上的记忆分配,然后一旦他们基本上上瘾,费用就会开始增加。
说到上瘾,近乎无限记忆的具体格式和方法可能会因 AI 制造商而异。这意味着,如果您使用一个生成式 AI 应用程序开始您的 AI 对话,您将无法轻松地将其转移到另一个生成式 AI 应用程序。您将被困在使用所选供应商或与其他供应商重新开始(但在开始时没有任何内容)。
我预测我们将看到 AI 相关的初创公司开发出无限记忆切换工具或服务。它们最初会蓬勃发展。有些可能会被希望拥有该业务方面的大公司收购。尚待观察 AI 制造商是否会决定允许切换并提供这样的工具来实现。我还预测将颁布法律法规,允许人们进行切换,类似于切换电话服务提供商。
关于近乎无限记忆的更多思考
还有很多需要考虑的。我会给您一个简短的尝试,并将在全年内对近乎无限记忆的形成进行更多报道。准备好迎接挑战。
假设您有兴趣与其他人共享您的 AI 对话,例如家庭成员或伴侣。很少有无限记忆计划考虑到这一点。假设是您的对话将是专属的。想象一下共享近乎无限记忆的可能性,无论是好是坏。令人兴奋?可怕?由您决定。
如果您不喜欢某些先前的 AI 对话怎么办?也许它们不断妨碍并干扰您与 AI 的最新对话。您可以删除它们,还是它们会一直存在?如果删除,您可以根据需要恢复它们吗?您可以只使用先前对话的子集,而不是整个对话吗?
如果近乎无限记忆始终开启,这似乎表明您的成本和延迟必然会增加。AI 制造商会允许您关闭该功能吗?这是全有或全无的吗?
您能相信 AI 会在处理您的 AI 对话时做正确的事情吗?例如,您之前与 AI 讨论过不喜欢粉红色。也许 AI 有一种内嵌的偏见,认为粉红色是一个不错的颜色,不应该被任何人轻易排除。您正在与 AI 进行对话,并希望购买一件新衬衫。AI 推荐了一件粉红色衬衫,尽管 AI 已秘密检索到您不喜欢粉红色的先前对话。
您怀疑 AI 会做出这样的欺骗行为吗?
您可能会对我关于生成式 AI 如何具有欺骗性的分析感兴趣,请参阅此处的链接,并可能危险地偏离人类价值观,请参阅此处的链接。
近乎无限记忆即将到来
目前,生成式 AI 的近乎无限记忆话题在全世界范围内仍处于雷达之下。很少有人知道它。这主要是一个 AI 内部话题。有些人怀疑它会被设计出来。如果设计出来,尖锐的批评者声称它不会奏效。怀疑主义盛行。
请将您的头脑围绕这个话题,因为它确实即将到来——比许多人想象的要快。
微软 AI 的 CEO Mustafa Suleyman 在 2024 年 11 月 15 日接受 Times Techies 采访时发表了关于近乎无限记忆的这些重要言论,包括以下关键摘录:
“记忆是关键部分,因为今天每次您访问您的 AI 时,您都会有一个新的会话,它对您上次或可能是上次之前谈论的内容有一点记忆,但因为它不记得 5 次前或 10 次前的会话,这对人们来说是一个相当令人沮丧的体验。”
“我们一直在研究的原型具有近乎无限的记忆。因此,它不会忘记,这是真正的变革。”
“您谈论的是拐点。记忆显然是一个拐点,因为这意味着值得您投入时间,因为您对它说的每一句话,您将在未来以有用的方式得到回报。您将得到支持,您将得到建议,它将随着时间的推移,计划您的日程并组织您的生活方式。”
重要的观点。
现在的最后一个想法。伟大的罗马政治家 Marcus Tullius Cicero 曾说过:“记忆是一切事物的宝库和守护者。”在我们不断扩展的现代高级生成式 AI 时代,这同样适用,即与生成式 AI 相关的记忆将成为一个非常重要的事情。
记住我的话(在您的记忆中,谢谢)。