谷歌量子计算,曾声称能在 200 秒内搞定普通超算 10000 年完成的任务。
没想到,这个“量子优越性”现在被中科院理论物理所的研究人员打破了:他们用普通 CPU,在几小时内完成了原本被认为要花 1 万年的计算,并认为目前的量子计算机完全是可以被超越的。
ACM 计算奖得主 Scott Aaronson 也认同这个结论:
我认为他们是对的,如果有一台足够强大的超级计算机,他们可以在几秒钟内模拟这个任务。
最近 Science 上刊登了关于这事儿的文章,一起来看看究竟发生了什么。
无法超越?优化给你看
中国科学院理论物理研究所的张潘团队,发表了一篇名为《Sycamore 量子优势电路采样问题的求解》的论文,展示了击败谷歌量子计算机 Sycamore 的全过程。
针对谷歌“量子优越性”的任务,文中提出一种新的模拟方法,即经典算法张量网络方法。要说它怎么个好法,就是可以使用许多的 GPU 并行计算。利用 512 个 GPU 的计算集群,团队计算了 9 万亿个数字字符串中的 100 万个输出模式(即 53 量子比特、20 循环的量子线路采样),这一计算过程耗费 15 个小时。
如果把这算法用在量子计算机上,几十秒就可以完成相同任务。这个任务如果给 Sycamore 做,用时约在 200 秒内;超级计算机则需要 10000 年才能完成(谷歌是这么说的)。
△ 谷歌量子计算芯片,就一张邮票大小
团队还秉承着一个观点,那就是和 Sycamore 一样,不需要过分追求精确。团队用张量来表示量子比特属性之间的关系,把 Sycamore 量子比特的相互作用描述为 3D 张量网络。
所以,他们在 3D 张量网络上“钻孔挖洞”,削减一些连接来简化关系,减小计算复杂度,以准确性换速度。这种收缩张量网络的方法,让模拟量子芯片成为可能。
数据证明,完成任务过程中,仅丢失 8 行代码,计算速度就提高了 256 倍。且保真度保持在 0.37%,高于 Sycamore 的 0.2%。种种数据摆在眼前,“量子优越性”突然就没那么香了。
“量子优越性”擂台,搭起来
面对这个结果,谷歌量子 AI 首席研究员 Sergio Boixo 回应认为,这只是在赛道上短暂超车,优势不会持续太久的。从量子计算时代刚开启时,谷歌就没否定过经典算法会持续改进完善这一点。
不过,谷歌也表示:
我们认为这种经典算法无法在 2022 年以后跟上量子电路的步伐。
毕竟 Sycamore 诞生时,超级计算机只能对它所执行的任务望而却步。创造量子计算机出来,就是执行那些计算量会“淹没”普通计算机的任务。
对于量子计算机来说,所有任务的潜在解决方案都可以被看做是同时在量子比特之间晃动的量子波。这些量子波互相干扰,错误答案会相互抵消,正确的输出就会“弹”出来。
换句说话,这种干扰让量子计算机能够拆分需要计算的大量数据。
拿 Sycamore 来说,它把量子比特设置为 0、1 或者 0 和 1 的任意组合,这让它能够同时处理大量输入。
Sycamore 是一台 53 量子比特的量子计算机,它的量子电路是由超导金属制成的微型谐振电路,能编码从 0 到 253(约 9 万亿)间的任何数字,甚至可以一次编码所有数字。
谷歌表示,Sycamore 可以打败 IBM 开发的超级计算机 Summit。Summit 拥有 9216 个 CPU 和 27648 个 GPU。
IBM 当即给予反驳,说谷歌所谓相同任务超级计算机需要用时的“10000 年”,只是在特定算法上。一旦算法优化,只需约 2.5 天,Summit 就搞得定相同任务。
关于“量子优越性”,业界、学界的争论从未停止。张潘团队的这篇论文,就是用实例证明了“量子优越性”现阶段还是可以被普通计算机打败的。
One More Thing
张潘团队的研究成果凸显了量子计算机与传统计算机相比存在的缺陷,这对更领先的“量子优越性”实验提出了更高要求。张潘提出,应该找到一些可以落地的实际应用来展现量子电路的优势。
当然,普通计算机打败“量子优越性”并不意味着量子电路的式微。哪怕是与超级计算机相比,Sycamore 的操作步骤和所需功率都要少得多。就连张潘自己都说,如果 Sycamore 保真度再高一点,团队的模拟就比不过了~
参考文章:
[1]https://www.science.org/content/article/ordinary-computers-can-beat-google-s-quantum-computer-after-all?s=31
[2]https://www.science.org/doi/10.1126/science.365.6460.1364
[3]https://arxiv.org/pdf/2111.03011.pdf
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。