在新的教程中,Google研究人员演示了如何使用量子计算技术对单个光子照射的28像素x 28像素图像进行分类。通过转换该光子的量子态,他们表明,他们能够在流行的MNIST手写数字语料库上实现“至少” 41.27%的准确性,比传统的计算方法提高了21.27%。
研究人员说,这项工作旨在展示教科书上的量子力学如何能够为AI问题提供新的思路,如果算法必须在发现光(即光子)通过的第一个“量子”之后必须做出决定,便考虑可达到的最大分类精度。 LCD屏幕显示数据集中的图像。在MNIST上,最经典的计算可以实现的是检测落在图像像素之一上的光子,并根据光强度分布猜测数字,该光强度分布是通过将每个图像的亮度重新缩放为单位和而获得的。

研究人员的量子力学方法采用分束器,移相器和其他光学元件来创建类似全息图的推理图案。光子所到达的推理模式区域可用于告知图像分类,从而说明了不必同时照射具有多个光子的场景以产生干扰。
研究人员写道:“从概念上讲,利用干扰来提高量子实验产生所需结果的可能性是所有量子计算的基本思想。”“除了为量子和机器学习专家提供一个易于访问且通常可以理解的玩具问题外,这个简单的量子/简单机器学习角还可能在更易于访问的环境中用于教授测量过程的物理学。”
有人预测,量子计算有望大大推动人工智能和机器学习领域的发展。例如,去年3月,IBM,麻省理工学院和牛津大学的研究人员在《自然》杂志上发表了一篇论文,声称随着量子计算机变得越来越强大,它们将能够执行特征映射,即将数据分解为非冗余特征,使用传统计算机无法处理的高度复杂的数据结构。这样,研究人员将能够开发出更有效的AI,例如,它可以识别传统计算机看不见的数据模式。
《自然》杂志的合著者写道:“机器学习和量子计算是两种技术,每一种都有可能改变计算方式以解决先前难以解决的问题。”“量子算法所提供的计算加速的核心要素是通过可控的纠缠和干涉来利用指数级的大量子态空间。”
一个TensorFlow实现谷歌研究人员的工作是即将出版。 |