2021年5月,中国研制出的62比特可编程超导量子计算原型机祖冲之号,并在此基础上实现了可编程的二维量子行走,为我国为在超导量子系统上实现量子优越性展示及可解决具有重大实用价值问题的量子计算研究奠定了技术基础。 作为研究团队的一员,河南省量子信息与量子密码重点实验室副教授、祖冲之号量子计算优越性实验理论工作负责人、戈登贝尔奖获得者黄合良主要负责量子算法理论和实现的工作。 10月20日下午,黄合良结合近期的工作进展,进行了主题为从量子计算优越性到近期应用的报告,这也是中国信息协会量子信息分会量子计算应用工作组量子计算机产业发展与行业应用研究的第三场报告会。 本文对报告内容进行了整理,同大家进行分享。 量子计算发展现状 目前,经典计算机的发展已经接近物理极限,我们非常需要一种全新的计算模式。在此背景下,量子计算机应运而生。 量子计算的指数加速能力 量子计算与经典计算有着截然不同的运算模式,原则上n个耦合的量子比特将张开一个2n维度的希尔伯特空间,对于这个空间的量子操作是天然的并行操作,因此量子计算可以在某些特定问题上具有指数加速能力。量子计算的发展阶段 根据能够操控的量子比特的数目和质量,学界将量子计算的发展分为3个阶段。 第一个阶段是能够对约50个量子比特进行相干操控,在特定问题(如玻色采样、随机线路采样)上超越当前的超级计算机。这些问题虽然没有实用价值,但能够展示量子计算的优势,即量子优越性,美国谷歌的悬铃木(Sycamore)、中国的九章和祖冲之号已先后实现。 第二个阶段是操控数百个量子比特的量子计算机。人们希望此阶段可以实现量子纠错的关键技术,从而为通用量子计算打下基础。此外,开始在有应用价值的问题上展示量子优越性。 在第三个阶段,我们所能操控的量子比特数和精度都已经达到很高的规格,可编程的通用量子计算机将在此时出现。 量子计算的发展阶段 目前量子计算发展还处于比较初期的阶段,当务之急是制造出可以有效工作的量子计算机,研发也以硬件为主。 量子比特的物理实现方式包括有超冷原子、离子阱、光子、超导、半导体等,不同物理体系各有其优缺点。 量子比特的物理实现方式 总体来说,构建量子计算机的主要有两个难点。 首先是可扩展性的问题,指能够增加量子比特数目至百万以上的数量级,以实现大规模量子计算。其次是错误率的问题,需要控制比特本身以及人为操控的错误率,即提高量子比特的质量。 只有同时将量子比特的数量和质量进行提升,才有可能构建出可商用的通用量子计算机。 量子计算机的难点超导量子计算发展现状 目前的技术路线中,超导量子计算是国际上发展相对迅速的一种量子计算的实现方法,已经在相干时间、两比特门精度、纠缠比特个数等关键技术上取得大量突破。 相干时间指量子比特可以维持量子态的时间,在计算时间一定的情况下,相干时间越长,量子计算机完成的计算就越多。 在20102019年间,相干时间逐年递增,现在最高已经可以达到毫秒级别。考虑到超导量子计算的操控速度为纳秒级别,目前的相干时间足以进行几千甚至上万次逻辑运算。 20102019年相干时间的研究进展来源:ScienceChinaInformationSciences 在两比特门操控精度方面,超导量子计算机已经可以达到非常高的精度。 一般认为,99。4是纠错码的纠错阈值,谷歌在2014年实现了99。44精度的CZ门,而中国科学技术大学的朱晓波领导的团队在2019年的时候实现了精度达99。54的CZ门。 20102020年超导量子计算系统两比特门精度的研究进展来源:ScienceChinaInformationSciences 与此同时,纠缠比特的个数也在持续增长。值得一提的是,我国的研究团队在16年以后开始崭露头角,并逐渐走向世界发展前列。 如朱晓波所带领的团队先后实现了10比特、12比特的量子纠缠;2019年由浙江大学、中科院物理所、中科院自动化所、北京计算科学研究中心等国内单位共同合作的一项研究中则生成了18比特全局纠缠的GHZ态。 20102019年纠缠量子比特数变化来源:ScienceChinaInformationSciences 量子计算优越性:量子计算和经典计算的PK 量子计算优越性的概念最初由加州理工大学的JohnPreskill提出,指量子计算机在特定问题上展示出超越经典计算机的能力。 这类问题需要满足:对经典计算而言足够困难,同时能够验证结果的正确性。现阶段,最可能用以演示量子计算优越性的问题包括随机线路采样、玻色采样、IQP线路等,其中随机线路采样任务非常适合在二维结构的超导量子计算芯片上完成。 简单地说,随机线路采样是随机从一个量子门的集合中挑选单比特量子门,作用到量子比特上,每作用一层单比特量子门,就会接着做一层两比特量子门,多次重复后测量最终的量子态,即完成一次采样。 随机线路采样任务示意图来源:Nature谷歌率先实现量子计算优越性 尽管随机线路采样任务几乎是为超导量子计算量身定制的,但要解决这一问题,需要满足一定的条件。 首先是足够的比特数目。目前经典计算机的存储容量是2PB左右,对应的量子计算机中是近50个量子比特,因此要证明量子计算优越性,则实验体系需要大于50比特。 其次是足够的线路深度。如果线路深度不够,不管有多少量子比特,经典计算都可以通过譬如张量网络等算法将计算进行复刻。 最后是足够的门保真度。假设操控精度达到了99。4,实验体系是50个量子比特、20层,则一共有上千个单比特门,0。9941000的值是非常低的。只有确保足够的保真度,最后得到的结果才具有一定的统计学意义。 2019年,谷歌的团队率先在超导量子计算机悬铃木上进行了53比特、20层的量子随机线路采样,200秒可进行100万次采样,最终结果的保真度有0。224。而当时最强的超算Summit要得到保真度为0。1的结果,预计需要消耗1万年。 谷歌悬铃木来源:Nature超算推翻谷歌量子优越性 谷歌的结果公布后,受到了很多质疑,陆续有多个团队发展了更高效的经典算法,如中科院理论物理研究所张潘提出了一种新型张量网络的方法,使用一个含有512块GPU的计算集群计算15小时完成了悬铃木的随机线路采样任务,并实现了高于谷歌的预测保真度。 而黄合良所在的中国超算应用团队使用新一代神威超级计算机,实现了随机量子电路的实时模拟,将谷歌量子线路模拟时间压缩至304秒,证实推翻了谷歌的量子优越性实验。 超大规模量子随机电路实时模拟获2021年度戈登贝尔奖,图为获奖现场量子计算优越性进一步被巩固 可以认为,量子计算优越性是量子和经典不断PK的一个过程,在将谷歌的量子优越性去量子化之后,由潘建伟院士、朱晓波所带领的团队又通过新的研究重新将量子优越性树立起来。 研究团队在2021年构建完成祖冲之号1。0,但这台机器并不能用于进行量子计算优越性的实验。 为了解决此问题,他们在1。0的基础上,发展了可调耦合技术,实现了非常高精度(99。8)的两比特门操控。同时利用倒装芯片技术搭建可扩展的架构,并将测控芯片和比特芯片分开,从而可以进行三维堆叠,扩展比特的规模。 最终成功制备了66比特可编程超导量子处理器祖冲之号2。0。 祖冲之号来源:PhysicalReviewLetters 祖冲之号2。0最终实现了56比特、20层的随机线路采样,1。2小时可以采样1900万样本,保证度达0。0622,目前最快的超算需要耗费8年时间,等效比悬铃木性能强至少两个数量级。 量子随机线路采样实验结果来源:PhysicalReviewLetters 目前,研究团队已经将系统升级到了祖冲之号2。1,在所有关键参数上都实现了对悬铃木的超越,实现了60比特、24层的随机线路采样,重新把经典模拟耗费的时间推至上万年,进一步巩固了量子计算优越性。 量子处理器整体性能对比 后量子计算优越性时代 在实现量子计算优越性后,学界和产业界的研究目标主要集中在2个方面:量子纠错和NISQ应用。量子纠错 由于物理比特不可避免地存在噪音,量子纠错是实现规模化量子相干操纵的必然要求。 假设要破译非对称RSA2048加密算法,预计需要6144个量子比特,门的数量达2。7109,此时,只有确保单个门的错误率低于1010,才有可能得到一个相对可靠的结果,而这在实际中几乎是无法达到的。因此,必须通过量子纠错来降低错误事件发生的概率。 目前,表面码是最适合于超导量子体系的一类纠错码,主要由于以下3个原因:二维排布,和半导体平面薄膜工艺完美匹配;纠错所需的门保真度阈值低(99。4),可以通过扩展表面码的规模来降低错误率;连通性要求低。 而实用化大规模量子纠错的发展将经历的步骤包括:进行重复多轮的容错量子纠错、逻辑量子比特优于物理量子比特、逻辑比特保真度高于实用化的阈值、基于逻辑比特的通用量子算法。 国际上已有多个研究团队实现了码距为2的表面码:一共包含7个物理比特,其中4个是数据比特,3个是辅助比特(用于探测错误)。 码距为2的表面码多轮纠错实验来源:NaturePhysics 码距为2的表面码只能探测到错误事件,但不能对发生错误的比特进行定位。要具备纠错功能,码距至少需达到3,此时一共有17个比特(9个数据比特和8个辅助比特)。 基于性能更为优越的祖冲之号2。1,黄合良及合作者在今年首次实现了表面码的重复纠错。他们利用码距为3的表面码对逻辑状态进行编码,发现在后处理中应用纠错后,逻辑错误可以减少约20。尽管该工作中的错误率仍较高,但后续通过不断扩展比特数,可以进一步地对逻辑错误率进行压制,最终达到实用价值。 码距为3的表面码布局和电路实现来源:PhysicalReviewLettersNISQ应用 随着变分量子算法的出现和发展,探索NISQ时代量子计算的可能应用,也是近年的研究热点,黄合良团队在量子机器学习领域取得了较多的进展。 经典神经网络和量子神经网络示意图 其中一个研究成果是关于量子生成对抗网络(GAN)。GAN是在2014年首次被提出的,由一个生成器G(尽量学习真实数据集R的数据分布)和一个鉴别器D(辨别输入数据来源于R还是G)构成,它们通过对抗学习的方法来训练,在图像鉴别和视频生成等领域有大量的应用案例。 黄合良及合作者设计了一种灵活的策略,可以使量子GAN适用于量子计算的不同发展阶段。如量子比特数比较少的时候,可以使用Patch策略;而量子比特数足够多的时候,则使用Batch策略,即利用量子叠加原理,一次性生成2n的数据,再进行并行训练,从而大幅加快训练过程。 基于所设计的量子GAN,研究团队实现了手写数字0和1的生成,这也是首次使用量子计算机实现现实世界的数据生成任务。此外,在使用相同个数参数的情况系啊,量子GAN的性能优于基于多层感知机和卷积神经网络的经典GAN,可以为探索实际问题上的量子优势提供了指导和借鉴。 量子GAN策略图示来源:PhysicalReviewApplied 此外,研究团队也利用祖冲之号1。0,对量子多体物理进行了探索,他们提出了一种新的量子神经网络,可以有效地对两种不同类型的态进行区分。这一工作证明了量子神经网络在NISQ时期量子处理器上的可行性和可扩展性,为探索大规模系统中的量子多体问题提供了新的路径。 将量子神经网络用于量子多体物理研究的图示来源:arXiv 而从长远看,要实现大规模的量子计算机的应用,还有很多技术难点需要克服,如数据标注成本高、变分量子算法训练效率低下、量子噪声的影响、量子计算机硬件发展的限制,目前也在开展有针对性的研究工作。 现阶段的技术挑战 总结 近期对量子计算的研究,仍会聚焦在NISQ阶段的应用和量子纠错两大领域。 对于现阶段的应用问题,未来将逐步从模型扩展至实际问题的应用上,并最终超越经典方法的水平。 而对于量子纠错,则需要进一步地提高比特数和操控精度,同时扩展表面码的规模,使得逻辑比特的精度高于物理比特,从而向通用量子计算机的方向推进。