量子|机器学习可有效提高超导量子比特读取效率


采访人员从中国科学技术大学获悉 , 该校郭光灿院士团队郭国平教授研究组与本源量子计算公司合作 , 在本源夸父6比特超导量子芯片上研究了串扰对量子比特状态读取的影响 , 并创新性地提出使用浅层神经网络来识别和读取量子比特的状态信息 , 从而大幅度抑制了串扰的影响 , 进一步提高了多比特读取保真度 。 该成果日前以研究长文形式发表于《应用物理评论》上 。
对量子比特状态的高保真度测量 , 是量子计算中的关键一环 。 在超导量子计算中 , 对量子比特的读取依赖于量子比特与读取谐振腔之间的色散耦合 , 通过探测读取腔的色散频移效应可以推测量子比特所处的状态 。 近些年 , 国际上分别实现了高保真度的单比特单发读取以及多比特的多路复用式单发读取 。 然而 , 由于各种形式的杂散耦合的存在 , 邻近比特的状态可能会对目标比特的测量结果产生影响 , 从而降低测量保真度 , 进而降低量子算法的成功率 。 随着量子芯片的进一步扩展 , 为了进一步提高读取保真度 , 如何解决上述串扰问题将成为研究者们面临的主要挑战 。
郭国平教授研究组与本源量子计算公司合作 , 通过对量子比特信息提取过程的抽象和模拟 , 提出一种新的量子比特读取方案:通过训练基于数字信号处理流程构建的浅层神经网络 , 实现对量子比特状态的精确识别与分类 。 研究人员将这一方案应用到本源夸父6比特超导量子芯片上 , 发现新的读取方案不仅有效提升了6比特的读取保真度 , 而且大幅度抑制了读取串扰效应 。
该方案不仅适用于超导量子计算 , 也同时适用于其他量子计算物理实现方案 。
量子|机器学习可有效提高超导量子比特读取效率
文章插图

【量子|机器学习可有效提高超导量子比特读取效率】(中科大供图)