Google “Willow” 量子芯片的真正突破,不在量子比特的数量,而在逻辑误码率首次低于阈值的量子纠错能力。这意味着量子比特规模从3x3到7x7的表面码架构,成功验证了量子纠错的指数抑制理论,这是从“量子优越性”迈向“容错计算”的关键一步。通过超导量子比特与实时解码算法(Sparse Blossom)的结合,Google展现了硬件性能接近理论极限的可能性,同时体现了其在低温制造、控制电路和系统架构深度整合上的强大能力。
“Willow”的105量子比特规模依然局限于实验验证,距离大规模实际应用(如优化问题、药物研发等)还有较远的路要走。扩展过程中,制造良率、冷却成本、错误率降低等问题仍是关键瓶颈。量子计算生态目前还处于工具链初级建设和应用场景探索的阶段,距离商业化需要时间,但从科学进展的角度看,这些技术积累无疑是“登月”前的核心引擎。真正的问题不是能否扩展,而是如何在物理限制内最大化效率和可用性。
靠谱的地方:
1. 表面码逻辑比特和量子纠错实验验证:首次将理论转化为实践,证明了量子计算在逻辑比特扩展上的可行性。
2. 高质量超导量子比特与实时纠错能力:量子硬件和软件优化结合,体现了技术的高成熟度。
3. 随机电路采样的量子优越性:展示了量子计算在特定任务中的独特性和潜力。
4. 工业化潜力与生态兼容性:硬件设计与现有半导体工艺深度结合,为未来规模化生产和部署奠定了坚实基础。
生态的演变路径:
短期(3-5年):量子计算以学术研究和初步行业合作为主要驱动力。Google需要不断验证“Willow”在实际问题中的潜力,同时扩大其Cirq平台的用户群体。
中期(5-10年):更多应用领域(如金融建模、量子化学)开始试验量子计算。工具链和API接口逐渐标准化,教育资源和开发者生态加速发展,可能推出基于量子芯片的云服务,吸引早期商业用户。
长期(10年以上):如果技术实现大规模容错量子计算,生态系统可能迎来爆发式增长,量子计算将与传统计算协同,成为解决复杂问题的核心模式。
与NV对比
相比之下,NV的CUDA Tensor Core在经典计算中通过硬件专用化提高了短期效率,但也增加了开发复杂性。虽然NV在高性能计算生态中的地位使其有潜力在量子控制和经典协同领域占据重要位置。Google “Willow” 的“纯量子架构”则展示了一种不同的范式,以优化底层硬件为目标,减少系统复杂性。但是:量子计算的开发工具链与生态系统建设仍处于初级阶段,其“纯粹性”能否转化为实际优势,取决于未来硬件与软件的深度整合。
对半导体影响
对半导体行业来说,大家看到了新的范式,难免怀疑旧的范式。这次的确看到了真正可行的、完成度高的新范式,在设计、架构、材料科学上都是里程碑的。但长期建立生态、走向产品、商业化,可能是以10年甚至几十年为计的。CUDA是2006年推出的,已经过去了将近20年。但巨头们愈演愈烈的技术军备竞赛、巨额投资下,可能会缩短这一时间。但整体依然是个长期的事情,持续观察。
总结
Google “Willow” 打通了从理论验证到硬件实现的关键一环,其量子纠错能力标志着容错量子计算迈出了历史性一步。但其局限性也显而易见——从冷却系统的高成本,到物理比特需求的扩展性,再到应用生态的不足。生态与规模化的难题无法一蹴而就。未来,是时间的朋友,也是挑战的对手。真心建议先从混合模式先走起。落地更快,对生态依赖更少。
最后,转下朋友圈一位朋友评论:太平洋对面正在crypto、AGI、量子计算,哪一个我们可能会接近一点?
原文首发于星球,欢迎加入探讨