多比特量子生成性对抗网络实验等超导量子计算取得系列进展

人工智能的核心是机器学习 , 而近几年 , 在机器学习领域冉冉升起了一枚新星 , 生成性对抗网络(GAN , GenerativeAdversarialNetworks) , 由Goodfellow等人于2014年提出 , 目前在图像鉴别和视频生成等方面都有大量的应用实例 。 GAN的基本思想源自博弈论的零和游戏 , 参与者由一个生成器G(Generator)和一个鉴别器D(Discriminator)构成 , 它们通过对抗学习的方法来训练 。 G的目的是尽量去学习真实数据集R的数据分布 , 而D的目的是尽量正确判别输入数据是来自R还是来G 。 为了取得游戏胜利 , 这两个游戏参与者需要不断优化自身策略 , 提高自己的生成能力和判别能力 , 整个学习优化过程就是寻找二者之间的一个纳什均衡(Nashequilibrium) 。
但是 , 和机器学习的其它算法一样 , GAN面临的最大问题就是所谓的“维数灾难” , 即学习所需要的训练集数量是随着维数指数增长的 。 如果我们面临的数据存在于高维空间 , 那么经典计算机将很快便不能有效处理 。 幸好我们拥有以量子力学规律主导的新型计算方式 , 即量子计算 , 它可以解决经典计算机无法解决或者复杂度过高的诸多问题 。 一个明确的应用是量子计算机利用Shor量子算法可以破解现在互联网及金融系统普遍使用的RSA公钥密码体制 。 在实用性方面 , 量子搜索算法可以期望应用于大数据检索;量子退火算法可以应用于优化问题 , 比如物流和交通优化等;量子模拟可以被应用于量子多体物理和量子化学研究 , 比如生物合成和药物筛选等 。 相比其它体系 , 超导量子计算这一技术路线在实用化量子计算方向具有优势地位 。
那么 , 我们是否可以将GAN与量子计算结合起来 , 设计一种更高效的量子生成性对抗网络(QGAN , QuantumGenerativeAdversarialNetworks)算法呢?这个概念最先由Dallaire-Demers等人提出 , 其基本原理与GAN类似,区别在于这里G和D是由量子电路或者量子网络构成 , 训练用的数据集也可以是量子数据(如量子态等) 。 至今在超导量子计算平台关于QGAN的展示局限于单比特量子态的学习 , 而且其梯度计算仍为经典的差分方式 , 使得计算精度受固有的差分误差影响 , 进而影响最后训练的收敛性 。 与此同时 , 能够体现量子性质并且作为实现量子霸权的重要资源的量子纠缠并没有在已有的研究中体现 。
近日 , 中国科学院物理研究所/北京凝聚态物理国家研究中心范桁、许凯课题组和郑东宁课题组等 , 联合南开大学田建国、刘智波课题组 , 浙江大学王浩华课题组和清华大学邓东灵课题组 , 首次将QGAN算法推广到了更多的比特范畴并引入了多体纠缠 , 并且首次在超导量子计算平台中实现了由量子梯度引导的QGAN训练 。
该实验中使用包含20个量子比特的全联通架构的量子芯片 , 在该芯片上已经实现了包括20比特薛定谔猫态制备、动力学相变的模拟等一些高水平工作 。 本次实验用到了其中的5个量子比特 , 相应的量子算法如图1所示 , 其中包括多个单比特量子门 , 多个多比特纠缠门以及多个两比特控制门 , 其线路深度超过20 , 实验中需要根据量子梯度引导去不断优化单比特量子门参数 。 为了测试量子梯度的可行性 , 研究人员首先尝试训练了一个任意单比特混态 , 在经过140步左右的训练后 , 其生成的量子态相对于真实情况保真度为0.999,见图2 。 在该基础上 , 他们将学习目标更改为更加复杂的两比特异或门 , 通过大约190步的训练 , 研究人员以0.927的保真度重现了异或门的真值表 , 见图3 。 这表明QGAN在复杂的量子过程学习方面有很大的潜力 , 随系统规模增大 , 它可以直接扩展到优化控制和自引导量子层析成像等领域 。