► 文 观察者网心智观察所
12月10日,谷歌重磅推出量子计算芯片“Willow”,在公关宣传攻势下,马斯克送上了“Wow”,奥特曼也发来了贺电。
Willow是一款拥有105个物理量子比特的量子芯片,亮点在于其惊人的计算速度和错误校正能力。据报道,Willow能在不到5分钟的时间内完成一个标准计算任务,而这个任务如果交给全球最快的超级计算机,可能需要超过10^25年,这个数字甚至超过了宇宙的年龄。
Willow的另一个成就是其指数级减少错误率的能力。随着量子比特数量的增加,错误率通常会指数增长,但Willow通过先进的量子纠错技术,实现了错误率的指数级降低。每当晶格从3x3增加到5x5,再到7x7时,编码错误率就会以2.14的倍率降低。这种对逻辑错误的潜在抑制为运行有纠错的大规模量子算法奠定了基础。
权威专家的反应
量子计算的教主和旗手,美国计算机科学家Scott Joel Aaronson在他的博客也做了一些点评,尽管整体上比较积极乐观,但话里话外还是有一些玄机。
比如,Aaronson要读者明确,进步大体上符合多数人的预期:
对于过去五年一直在关注实验量子计算的人来说(比如说,从2019年谷歌的原始量子霸权里程碑开始),这里没有什么特别的震惊。自2019年以来,谷歌在其芯片上的量子比特数量大约翻了一番,更重要的是,将量子比特的相干时间提高了5倍。与此同时,他们的2量子比特门保真度现在大约是99.7%(对于受控-Z门)或99.85%(对于“iswap”门),相比之下2019年是~99.5%。
他谈到最重要的是量子容错跨过了门槛,但离“真正的”容错量子比特还有距离:
从科学上讲,头条结果是,随着他们增加表面码的大小,从3×3到5×5到7×7,谷歌发现他们的编码逻辑量子比特存活时间变长而不是变短。所以,这是一个非常重要的门槛,现在已经被跨越了。正如Dave Bacon对我说的,“现在形成了漩涡”——或者,换个比喻,30年后,我们终于开始触及量子容错的龙尾,这条龙(一旦完全唤醒)将允许逻辑量子比特被保存和操作几乎任意长的时间,允许可扩展的量子计算。
话虽如此,Sergio Boixo告诉我,谷歌只有在能够以~10^-6的错误进行容错的两量子比特门(因此,在遭受一个错误之前,大约可以进行一百万次容错操作)时,才会认为自己创造了一个“真正的”容错量子比特。我们还离这个里程碑有一段距离:毕竟,在这个实验中,谷歌只创建了一个编码量子比特,甚至没有尝试在其上进行编码操作,更不用说在多个编码量子比特上了。
Aaronson也谈到了谷歌这次秒杀超算10^25年的“量子霸权实验”:
谷歌还宣布了在其105量子比特芯片上进行新的量子霸权实验,基于40层门的随机电路采样。值得注意的是,他们说,如果你使用目前已知的最佳模拟算法(基于Johnnie Gray的优化张量网络收缩),以及一台百亿亿次超级计算机,他们的新实验如果不考虑内存问题,需要大约3亿年才能在经典计算机上模拟,或者如果考虑内存问题,需要大约10^25年(注意,自大爆炸以来只过去了大约10^10年)。
他指出这里“10^25年”结果的最大问题,也就是谷歌量子芯片的计算结果没有直接的验证。他担心谷歌没有给予足够的关注:
由于同样的原因(据大家所知),经典计算机模拟这一量子计算将花费约10^25年,因此经典计算机直接验证量子计算结果也需要约10^25年!(例如,通过计算输出的“线性交叉熵”得分)。因此,谷歌的新量子霸权实验的所有验证都是间接的,基于较小电路的外推,而这些电路是经典计算机可以实际检查结果的。需要明确的是,我个人没有理由怀疑这些外推结果。但是,对于那些奇怪为什么我多年来一直痴迷于设计高效验证的近期量子霸权实验的原因:这就是原因!我们现在深陷于我之前警告过的不可验证的领域。
以色列数学家和计算机科学家,量子计算怀疑论者Gil Kalai则在博客上写道:
我们还没有研究Google Quantum AI的这些特定声明,但我的一般结论适用于它们:应谨慎对待 Google Quantum AI 的声明(包括已发布的声明),尤其是那些具有特殊性质的声明。这些说法可能源于重大的方法论错误,因此,可能更多地反映了研究人员的期望,而不是客观的科学现实。
Gil Kalai还在这篇博文中谈到了量子计算炒作和比特币的问题:
当2019年谷歌的量子霸权主张发布(或者更确切地说是泄露)时,有很多说法认为这意味着量子计算机就在附近,因此比特币所需的密码学将是可破解的,比特币将失去其价值。
我通常不介意“炒作”,因为它反映了科学家对他们工作的热情和公众对科学努力的兴奋。然而,就谷歌而言,需要谨慎行事。例如,在2019年宣布“霸权”之后,比特币的价值在短短几天内(2019年10月24日左右,经过一段时间的稳定)从大约9,500美元跌至约8,500美元,给投资者带来了超过100亿美元的损失。比特币今天的价值约为100,000美元。此外,谷歌的断言可能对其它量子计算工作提出了不切实际的挑战,并鼓励了不受欢迎的科学方法的文化。
跨越量子纠错的门槛
正如Aaronson所说,这次值得称道的,不是无法直接验证的“量子霸权”实验,而是量子容错跨过了门槛。
对于实用的量子计算机的主要困难,和对其中炒作的重新审视,心智观察所此前在《美国开始重新审视量子计算机,这对中国很重要》一文中已经做了详细介绍。
这次Google Quantum AI团队在《自然》杂志上发表的论文,其重要成果是跨过了量子纠错的阈值,这又是怎么回事呢?
构建量子计算机的研究人员面临的中心挑战,是如何用不完美的部件构建出完美的机器。他们的基本构建块,也就是量子比特,对外界干扰极其敏感。今天的原型量子计算机过于容易出错,无法做任何有用的事情。
上世纪90年代,研究人员为克服这些错误奠定了理论基础,称为量子纠错。关键思想是诱使一组物理量子比特协同工作,作为一个单一的高质量“逻辑量子比特”。然后计算机将使用许多这样的逻辑量子比特进行计算。他们通过将许多有缺陷的组件转化为较少的可靠组件来制造那台完美的机器。
这种计算的炼金术也有局限,如果物理量子比特太容易失败,纠错反而会适得其反。也就是增加更多的物理量子比特会使逻辑量子比特变得更糟,而不是更好。但如果错误率低于特定阈值,平衡就会倾斜:你增加的物理量子比特越多,每个逻辑量子比特就变得越有弹性。
这次谷歌团队终于跨越了这个阈值。他们将一组物理量子比特转化为一个逻辑量子比特,随着他们向该组添加更多的物理量子比特,逻辑量子比特的错误率急剧下降。
考虑一台经典计算机,信息表示为一串比特,0或1。任何随机的故障,如果翻转了比特的值,都会导致错误。为了防范错误,可以将信息分散到多个比特上,每个0重写为000,每个1重写为111。如果一组中的三个比特不是全部具有相同的值,你就会知道发生了错误,多数投票将修复错误的比特。但如果三元组中的两个比特同时出错,多数投票将返回错误的答案。
如果增加每个组中的比特数量,比如五比特,虽然这种更大的代码可以处理更多的错误,你也引入了更多可能出错的方式。只有当每个单独比特的错误率低于特定阈值时,净效应才是有益的,比如五比特版本可以容忍每个组中的两个错误。
在量子世界中,情况更加棘手。量子计算中的每一步都是另一个错误源,纠错过程本身也是如此。更重要的是,没有办法在不不可逆地干扰它的情况下测量量子比特的状态。所以,起初许多研究人员认为量子纠错是不可能的。
1995年,俄罗斯物理学家阿列克谢·基塔耶夫听到了量子计算的重大理论突破的报告。前一年,美国应用数学家彼得·肖尔设计了一个量子算法,可以将大数分解成它们的质因数。基塔耶夫无法获得肖尔论文的副本,所以他从头开始自己设计了一个版本——结果比肖尔的更通用。普雷斯基尔对这个结果感到兴奋,并邀请基塔耶夫访问他在加州理工学院的团队。
俄罗斯物理学家阿列克谢·基塔耶夫
基塔耶夫首次提出了一个有希望的理论方法,称为量子纠错的表面码。
1997年春天的短暂访问成果非凡。基塔耶夫告诉普雷斯基尔他一直在追求的两个新想法:一种“拓扑”量子计算方法,根本不需要主动纠错,以及基于类似数学的量子纠错码。起初,他不认为那个代码对量子计算有用。普雷斯基尔更加乐观,并说服基塔耶夫,他最初想法的轻微变化值得追求。
这个变化就是表面码,基于两个重叠的物理量子比特网格。第一个网格中的是“数据”量子比特,这些共同编码一个单一的逻辑量子比特。第二个网格中的是“测量”量子比特,这些允许研究人员间接地寻找错误,而不会干扰计算。
表面码有很多优势。其错误检查方案比竞争的量子码简单得多。它还只涉及相邻量子比特之间的相互作用。2006年,两位研究人员展示了优化版本的代码错误阈值约为1%,是早期量子码阈值的100倍,也就是对错误率宽容了100倍。
虽然通过足够巧妙的工程手段,科学家预计最终能够将物理量子比特的错误率降低到0.1%,远低于表面码的阈值,但建造一台全尺寸量子计算机并不容易。粗略估计表明,实际应用肖尔的因数分解算法需要数万亿次操作。任何一个未校正的错误都会破坏整个计算。因此,需要将每个逻辑量子比特的错误率降低到远低于一万亿分之一。每个逻辑量子比特可能需要数千个物理量子比特。如此巨大的物理量子比特需求就太吓人了。
谷歌团队花费了多年时间改进他们的量子比特设计和制造过程,他们采用超导量子比特,这是由超导金属在硅芯片上制成的微小电路,一个单独的芯片可以容纳许多排列成网格的量子比特,这正是表面码所要求的布局。
构建单个物理量子比特,其错误率低于表面码阈值,这并不难,关键是看看这些量子比特是否能够协同工作,制造出一个比部分之和更好的逻辑量子比特。也就是扩展代码时,通过使用更大的物理量子比特网格区域来编码逻辑量子比特,错误率会降低。
从可能的最小表面码开始,这叫“距离3”码,使用3乘3的物理量子比特网格来编码一个逻辑量子比特(另外还有八个量子比特用于测量,总共17个)。向上升级是距离5的表面码,总共有49个量子比特。(只有奇数的码距离才有用。)
在2023年的一篇论文中,团队报告说,距离5码的错误率比距离3码略低。在2024年初,他们有了一块全新的72量子比特芯片,代号为Willow,进行测试。进一步的实验表明,距离5码的错误率不是比距离3码略低,而是降低了50%,代码距离的一步提升将逻辑量子比特的错误率减半。
但是距离7码需要97个量子比特,超过了他们芯片上的总数。直到今年八月,一批新的105量子比特Willow芯片问世。团队进一步发现,从距离5码到距离7码再次将逻辑量子比特的错误率减半。
前路漫漫,“紧迫性非常强”
这个结果当然令量子计算研究人员兴奋不已。与此同时,研究人员认识到他们还有很长的路要走。谷歌团队目前只展示了使用单个逻辑量子比特的错误校正。在多个逻辑量子比特之间添加交互将带来新的实验挑战。
还有扩展的问题。为了使错误率足够低以进行有用的量子计算,研究人员需要进一步提高他们的物理量子比特。他们还需要制造出比距离7码更大的逻辑量子比特。最后,他们需要将这些逻辑量子比特组合起来——超过100万个物理量子比特。
当然,量子计算仍处于起步阶段,也许还会有替代的技术出现。
Aaronson在博客里的一条留言回复中说得好(此君精力旺盛,带好几个博士生,还带着他的几个孩子,每天下笔千行,这篇最新的博文还和读者聊起了叙利亚局势):
如果有人认为我们即将获得个人QC(注:量子计算机),这将加快我们所做的一切,则需要告诉他们“QC 时代”还没有到来(事实上,可能永远不会到来)。另一方面,如果有人认为QC完全是骗局或误解,并且量子纠错在现实世界中永远行不通,那么他们需要被告知“QC 时代”已经到来。
谷歌的成果也激励了中国国内的同行。
中关村量子科技孵化器总经理、量子产业平台“光子盒”创始人顾成建告诉心智观察所:
过去一两年国内外都在“卷”量子比特数,如果不解决纠错平衡点问题,比特数越多理论上运算结果错误越多。谷歌这次首次突破量子纠错阈值,Willow能够以指数级减少错误!这解决了量子纠错领域近30年来一直追求的一个关键挑战。这层窗户纸的捅破,为大家对量子计算的研发进程大大提升了信心,未来的想象空间很大很乐观,虽然其展示的随机电路采样(RCS)基准计算问题仍然不是一个有实际意义的问题,但未来在密码破解和物理世界模拟表征上,如医药、新材料研发,乐观估计可能三五年内就会有实际应用出来,已经不远了。
国内产业界对谷歌的反应是普遍感到“紧迫性非常强”,也觉得谷歌带来了方向感和信心,证明这条路是走得下去的。具体到国内,此前百度、阿里撤出量子计算研究,一度引发关注,不过国内的主要研究力量还是在体制内,以国家实验室牵头,北京量子院、深圳量子院在人力和投入上都在稳定提升,势头良好,听说海外也有好几个团队打算回国来做。如果和经典计算机产业史比较,谷歌这次突破,可以类比1947年人类晶体管的发明,取代真空管的历史性时刻,未来的3-5年内,我们将不断见证量子计算的爆炸性时刻。
来源|心智观察所