量子计算机第一次在真实硬件上成功运行可验证算法

Google宣布一项研究成果,历史上第一次实现量子计算机在真实硬件上成功运行可验证的算法,其速度甚至超过最快的经典超算(快 13,000 倍)。此成果可以计算分子的结构,并为走向现实世界的应用铺平道路。这一进展建立在数十年的研究基础之上,也是过去六年一系列重大突破的结晶。早在 2019 年,Google就展示过量子计算机可以处理解决最快经典超算需要上千年才能完成的问题。随后在2024年年底,Google的新款 Willow 量子芯片展示了如何大幅抑制误差,解决了困扰科学家近 30 年的一项重大难题。最新的研究突破进一步提升了量子计算机在医学与材料科学等领域推动重大发现的可能性。

此研究成果相关论文Observation of constructive interference at the edge of quantum ergodicity的要点如下:

论文在可编程超导量子处理器上测量二阶“反时间序相关函数” OTOC(2),发现其在强纠缠、近似遍历的长时间动力学中仍对底层微观细节保持灵敏度,突破了常规可观测量因“信息搅乱(scrambling)”而快速失敏的限制。

作者提出把含时间反演的序列视作“多臂干涉仪”:在海森堡绘景中,算符演化对应大量 Pauli 串路径的相干叠加。通过在演化中插入随机 Pauli 相位,实验证明 OTOC(2) 中存在由“大回路”(多条不同 Pauli 串闭合为恒等)导致的建设性干涉,而这在低阶可观测量中不可见。

相比普通时间有序关联(TOC)呈指数衰减,OTOC(2) 的波动-灵敏度随时间呈幂律衰减,且在信息“光锥”前沿处对电路细节变化尤为敏感。

这一“大回路干涉”的存在使 OTOC(2) 的经典可模拟性很差:实验测得的 OTOC(2) 尤其是“非对角”部分难以被蒙特卡洛或张量网络启发式准确逼近;在 65 量子比特、23 循环的电路上,张量网络收缩在顶级超算上的估算耗时达多年量级,而实验每个电路仅需数小时即可获得信噪比(SNR)>2 的数据,显示出“超越经典”的测量区间。

应用上,作者用 OTOC(2) 做哈密顿量学习的原型实验:让量子处理器扫描未知门参数,使测得的 OTOC(2) 与目标系统/仿真的 OTOC(2) 最匹配,从而反推出相互作用参数,展示了迈向实用量子优势的一条可行路径。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注