谷歌量子计算再次重大突破!首次模拟化学反应,可用于开发新物质

Google 继去年宣布实现量子优越性后,终于迎来了又一重大进展——首次实现使用量子计算机对化学反应进行模拟。

8 月 27 日,Google 量子研究团队宣布其在量子计算机上模拟了迄今最大规模的化学反应。相关成果登上了《科学》杂志的封面,题为《超导量子比特量子计算机的 Hartree-Fock 近似模拟》(Hartree-Fock on a Superconducting Qubit Quantum Computer)。

  7cc57bd02baec5e12f90d7093c296b2a - 谷歌量子计算再次重大突破!首次模拟化学反应,可用于开发新物质

  为了完成这项最新成果,研究人员使用 Sycamore 处理器,模拟了一个由两个氮原子和两个氢原子组成的二氮烯分子的异构化反应。最终,量子模拟与研究人员在经典计算机上进行的模拟一致,验证了他们的工作。

值得一提的是,这项新研究所用的 Sycamore 处理器曾在 2019 年轰动世界,并在去年 10 月,助力 Google 量子团队的研究登上《自然》杂志 150 周年版的封面。

在关于 Sycamore 的论文中,它在 200 秒之内所完成目标计算量需要当时世界最快的超级计算机上持续计算 1 万年。由此,Google 宣布实现量子优越性,即证明量子计算在某些问题上的处理能力超过经典计算机。论文的 76 名作者表示,距离量子计算机有价值的短期应用只有一步之遥。

该论文发表后,Google CEO 皮查伊在接受《麻省理工科技评论》专访时曾表示,“此次事件就像莱特兄弟发明飞机一样。虽然飞机第一次试飞只飞了 12 秒钟,看起来没有实际用处,但它证明了飞机飞行的可能性。”

皮查伊认为,其实量子计算真正令人兴奋的地方在于,根据已有的物理理论,我们所处的宇宙在最根本的层面上遵循量子法则,因此早期的量子计算应用能帮助我们更好地了解宇宙的工作方式,并在后来逐渐实现能按量子物理对分子和分子间作用进行精确模拟,在医学和碳排放治理等涉及化学的重要研究领域发挥作用。

10 个月后,Google 用量子计算机首次模拟了化学反应,也算对皮查伊当初那番展望的初步落地。

对于此次成果,Google 研究人员瑞恩 · 巴布希(Ryan Babbush)表示,虽然这种化学反应可能相对简单,也不是非量子计算机而不可为,但是这项工作对于量子计算来说仍然是一大步。他说:“我们现在在一个完全不同的尺度上进行化学反应的量子计算。之前的计算工作基本上可以用铅笔和纸手工完成,但我们现在看到的演示,肯定需要电脑来完成。”

巴布希认为,将这个算法扩展到模拟更复杂的反应应该是很容易的,模拟大分子中的反应只需要更多的量子比特,然后对计算进行微调。他说,未来我们甚至可以利用量子模拟开发新的化学物质。

解锁量子计算机新技能

根据化学反应过程的量子力学定律对化学反应过程进行精确的计算预测,可以解锁新的化学领域,改善现有工业。可惜的是,由于量子变量的数量和统计量呈指数级扩大,除了最小的系统之外,所有其他量子化学方程的精确解仍然无法用现代经典计算机得到。

与此同时,原子和分子之间受量子力学控制,因此量子计算机有望成为精确模拟它们的最佳方法。也就是说,通过使用量子计算机,利用其独特的量子力学特性来处理经典计算机难以处理的计算,可以实现对复杂化学反应过程的模拟。

如今的量子计算机已经足够强大,可以在某些任务中获得明显的计算优势,不过此前,量子计算机很难达到模拟大原子或化学反应所需的精度。换句话说,量子计算机是否能用于加速目前的化学反应量子模拟技术,仍是一个悬而未决的问题。

在这项最新的实验中,Google 团队解锁了这一应用。他们使用一个噪声鲁棒性的变分量子特征值求解算法(VQE) ,通过量子算法直接模拟化学反应机制。

虽然计算集中在一个真实化学系统的 Hartree-Fock 近似模拟上,但它是之前用量子计算机进行化学计算的两倍大,并且包含了十倍多的量子门操作。值得一提的是,研究验证了目前的量子算法可以达到实验预测所需的精度,并打开了通向真实模拟量子化学系统之路。此外,Google 团队已经发布了实验的代码,它使用了化学量子计算的开源库 OpenFermion。

  40e4c89770f635172cbef49990514e2b - 谷歌量子计算再次重大突破!首次模拟化学反应,可用于开发新物质

  图 | 用于演示量子优越性和量子化学模拟的量子计算机(来源:Rocco Ceselin)

使用Sycamore 处理器实现高精度

这个实验是基于 Sycamore 处理器进行的,正是它去年展示了 Google 实现量子优越性。

尽管这个最新实验使用更少的量子比特,但要解决化学键的问题需要更高的量子门保真度。这也推动了新的、有针对性的校准技术的发展,这种技术可以最佳地放大误差,以便诊断和纠正误差。

  6d876b91290a8db696853645a5399372 - 谷歌量子计算再次重大突破!首次模拟化学反应,可用于开发新物质

  图 | 在 Sycamore 处理器的 10 个量子比特上模拟的 Hartree-Fock 模型对分子几何形状进行能量预测(来源:Google)

量子计算中的错误可能来自量子硬件堆栈中的各种来源。Sycamore 处理器有 54 个量子比特,由 140 多个独立可调谐元件组成,每个元件由高速模拟电脉冲控制。要实现对整个装置的精确控制,需要对超过 2000 个控制参数进行微调,这些参数中即使发生微小误差,也会迅速叠加到最终计算中,积累成大误差。

为了精确地控制设备,Google 团队使用一个自动化的框架,将控制问题映射到一个有数千个节点的图形上,每个节点代表一个确定单个未知参数的物理实验。通过这张图,团队可以从设备的先验知识转移到高保真量子处理器,并且可以在一天之内完成。

最终,这些技术和算法误差纠正技术一起,使误差降低了几个数量级。

  b7b931eabaa519109d11cc7bc601a1c4 - 谷歌量子计算再次重大突破!首次模拟化学反应,可用于开发新物质

  左:氢原子线性链的能量随着每个原子之间的键距增加而增加。实线是用经典计算机进行的 Hartree-Fock 模拟,而点是用 Sycamore 处理器进行的。

右:用 Sycamore 处理器计算的每个点有两个精度度量(错误率和平均绝对误差)。“Raw”是来自 Sycamore 处理器的非错误缓解数据。“+PS”是来自校正电子数量的一种误差减轻类型的数据。“+Purification”是一种针对正确状态的错误缓解措施。“+VQE”是所有误差消除与电路参数的变化弛豫的组合。在 H8,H10 和 H12 上进行的实验显示,缓解错误后性能得到了类似的提高。

“量子纠错”才是关键

2015 年 10 月,澳大利亚新南威尔士大学首度使用硅制作出量子逻辑门,距今已经将近 5 年时间。

这个时间并不算短,量子计算机理应有更外显的发展才对,尤其是在电子计算器已经为量子计算机的发展指明方向的情况之下。

核心的算术逻辑单元设计、控制单元设计、芯片的指令系统、编译器、编程语言、乃至于软件生态都是现成的,量子计算机只需要沿着之前的车辙,按部就班地抄作业,5 年时间,或许每人一台量子计算机不太现实,但出现小规模的商用应该不成问题。

而之所以量子计算机进度缓慢,“纠错”就是阻碍其发展的关键问题之一。

真实的量子比特则远没有常规的硅基电路般稳定,Google、IBM 和 Rigetti 采用的量子比特都由超导金属刻蚀而成的微纳谐振电路构成,虽然这种硬件方案已经较其他类型的量子比特更易于操控和电路集成。

每个量子线路有两个确定的能态,我们可以分别记为 0 和 1。通过在这个线路上施加微波,研究者就能使它处于其中一个状态,或者两个状态的任意组合——比如说 30% 的 0 和 70% 的 1。

但是,这些 “中间态” 会在极短的时间内弥散,或者说 “退相干”。甚至在退相干发生之前,噪声就可能会“冲撞” 并改变这些量子态,让计算结果“出轨”,朝不想要的方向演化。

对于这件事,去年 Google 发表论文声称实现量子优越性的时候,就有一位加利福尼亚大学戴维斯分校的数学家格雷格 · 库珀伯格(Greg Kuperberg)对此“不以为然”,他同时也是一位量子计算领域的专家,他认为 Google 设定的目标并非问题的核心。

以往,我们大都将目光聚焦到了所谓量子优越性的身上,而忽略了不那么 “劲爆” 却关键的领域。

Rigetti 的创始人兼 CEO,物理学家 Chad Rigetti 对此打了一个生动的比方,假如你花一亿美元造了一台 10000 个量子比特的计算机,当纠错问题被解决的时候,它的威力巨大,而反之则是一台随机噪声发生器。

Google 显然已经意识到了其中的问题并着手解决。

理论上,有多种方法可使用量子计算机来模拟分子系统的基态能量。在这项研究中,谷歌团队专注于量子算法的 “构建块” 或原初线路(circuit primitive),并通过 VQE 完善其性能。在经典设置中,原初线路等效于 Hartree-Fock 模型,并且是此前该团队为优化化学模拟而开发的算法中重要线路的组成部分。

这使得 Google 团队可以专注于扩大规模,而不会花费大量的模拟代价来验证设备。因此,在扩展到 “超越传统” 范围时,在该组件上的稳健误差缓解对于精确模拟至关重要。

量子计算中的错误源于量子线路与环境的相互作用,从而导致错误的逻辑运算:即使很小的温度波动,也可能导致量子比特误差。

量子计算机上模拟化学反应的算法必须以较低的代价解决这些错误,包括量子比特的数量和额外的量子资源,例如实现量子纠错码等。

目前,解决错误最流行的方法就是使用 VQE。Google 团队选择了几年前开发的 VQE,它将量子处理器视为神经网络,并试图通过最小化成本函数来优化量子电路的参数,解决噪声的量子逻辑。就像传统的神经网络可以通过优化来解决数据中的缺陷一样,VQE 可以动态调整量子电路参数解决量子计算过程中发生的错误。

来自物理学家的挑战

在量子纠错的问题,有一些来自物理学家的最新进展。

在一篇 6 月 8 日发表在《自然 · 物理》的研究结果中,苏黎世联邦理工学院的 Andreas Wallraff 教授及其合作者演示了,他们可以通过 3 个辅助比特来探测,但不纠正,一个 4 比特正方网格编码的逻辑量子比特中的错误。

论文一出便引发质疑,“操控各个独立的量子比特都会引入一定的错误,除非这个错误能够低于某个特定的阈值,否则将初始比特与更多的比特纠缠只会增加更多的噪声”,一位来自 IBM 的物理学家 Maika Takita 说,“在演示任何事情之前你必须先设法做到那个阈值以下。”

辅助比特以及其他纠错装置会引入更多的噪声,一旦计入这些效应,要求的错误阈值将进一步大幅下降。想要让上述的纠错方案可行,物理学家必须将他们的错误率降到 1% 以下。

Takita 说:“当我听到我们达到了 3% 的错误率时,我觉得那太棒了。现在,我知道它(错误率)还需要大幅降低。”

值得注意的是,一旦该方案取得成功,那么专注于量子计算机的研究者将“一夜回到解放前”,所有的量子逻辑门都需要重做,所有的硬件设计都需要随之更改。

当然,这只是科学家们针对这一问题提出的一种可能解法,我们不苛求能够立竿见影,但重要的是他们正在朝着相同的目标进发。

发表评论

电子邮件地址不会被公开。 必填项已用*标注