5月15日,记者从武汉大学获悉,近日,该校计算机学院在量子人工智能理论方面取得突破性进展,相关研究成果以“纠缠数据在量子机器学习中的相变行为”为题,在《自然·通讯》在线发表。
量子纠缠是实现量子计算优势的关键资源。目前,研究人员广泛关注如何将量子纠缠整合到量子机器学习模型的各个环节(如纠缠测量和量子演化算子),以期超越传统机器学习模型的性能。
相较于同等规模的经典数据,量子纠缠数据因其能够编码更多信息而备受关注,被认为是实现量子优势的一条有效途径。尽管如此,量子数据的纠缠程度如何具体影响模型性能,仍然是一个尚未解决且颇具挑战性的研究课题。
上述研究通过建立量子“没有免费午餐”定理显式地分析量子数据纠缠程度、测量次数,以及训练数据集规模对量子机器学习模型预测误差的影响。现有研究通常认为,量子纠缠有助于提升量子机器学习模型的性能。与之不同的是,该研究首次证明量子数据的纠缠程度对预测误差的影响表现出双重效应,即量子纠缠是否提升性能取决于允许的测量次数。对于足够数量的测量,增加训练数据的纠缠可以有效减少预测误差,或减小实现相同预测误差所需的训练数据大小。
相反,当允许的测量很少时,使用高度纠缠的数据可能会导致预测误差增加。该研究为设计先进量子机器学习协议提供了重要指导,特别是对于当前量子计算资源有限的量子计算机而定制的协议。
该研究还使用统计学习理论和信息论的相关工具,对量子纠缠数据对模型性能的影响进行精细化理论分析,并建立一种对于量子机器学习模型误差下界的分析范式,为研究其他量子计算问题,如量子过程层析、量子误差缓解等,提供一种新的分析方法。