量子机器学习 - 人工智能的未来

null

人工智能和机器学习

当你听到人工智能这个词时,你会想到什么?不久前,这个短语被保留用于谈论想象中遥远的未来,在那里人类有机器人仆人和自动驾驶汽车。听起来熟悉吗?这是我们今天生活的世界。我们有像 Siri 这样的个人助理来回答我们的任何问题,特斯拉可以在我们睡觉的时候把我们从 A 点带到 B 点,Snapchat 上有无穷无尽的过滤器可以立即改变我们的外表。人工智能时代已经到来。

机器学习是人工智能的一个子集,它利用算法来教计算机像人类一样做出决策。一种特别的模拟人脑的最大似然算法是人工神经网络。这些神经网络通过获取信息,通过一系列人工处理来模拟我们大脑的工作方式神经元,并产生输出 (图 1)。神经网络为当今大量最突出的人工智能技术提供了动力。

null

图 1 模拟一系列相连的神经元的人工神经网络

量子计算导论

量子计算是另一项有潜力将人工智能带入下一个层次的创新。量子计算机利用量子力学的特性来处理信息。传统的计算机将信息编码成比特,比特值可以是 0 或 1。相反,量子计算机用量子比特编码信息。就像一个比特,一个量子比特可以取 0 或 1 的值。然而,量子位能够同时呈现多种状态,这叫做叠加。因此,两个量子位可以呈现四种可能状态中的任何一种:01、11、10 或 00。一般来说,n 量子位可以代表 2^n 不同的状态。这种 (非常简化的) 叠加概念使得量子计算机比传统计算机强大得多。它们可以用更少的计算能力代表更多的信息。

量子机器学习

神经网络的一个主要不足是训练时间比较长。甚至花上几周的时间也并不少见,由于缺乏计算能力,甚至几个月来训练神经网络。如果有一种方法可以利用量子计算的力量来加速训练过程,让这些复杂的网络变得可行呢?进入量子机器学习。

量子数学模型听起来完全一样—数学模型和量子计算的交集。量子机器学习的目标是利用量子计算机的力量,以比传统计算机快得多的速度处理信息。然而,这并不像将现有代码从中央处理器转移到量子处理器那么简单。代码首先需要能够描述量子比特的量子语言。今天关于量子力学的大部分工作都试图解决这个确切的问题。

量子神经网络 (QNNs)

方法

功能性神经网络是人工智能向前迈出的一大步。然而,现有的神经网络还不能利用量子计算机的力量。创建一个工作的 QNN 的第一步是模拟一个单独的量子神经元。

让我们检查量子神经元的表现方式,以及量子神经网络与传统神经网络的比较。因为对量子力学有不同的解释,所以有不同的方法来表示量子神经元。一个这样的解释是 Huge Evertt Many-world Interpretation。简而言之,这个理论声明有许多平行的宇宙,每一个都同时展现了每一个可能的历史和未来。

这听起来非常复杂和抽象,因为确实如此。多宇宙为 QNN 的行为提供了洞察力。就像传统的神经网络如何模拟人脑一样,QNN 可以模拟量子物理。宾夕法尼亚州立大学的研究人员利用这种解释开发了一种构建量子神经网络的方法。

传统的神经网络使用单个网络来存储许多模式。如果量子神经网络使用 many 网络来存储 many 模式,就像可能有许多包含许多现实的宇宙一样,会怎么样?态叠加原理可以让这成为可能。记住,叠加意味着一个量子位有可能同时处于多种状态。理论上,将这个类比推广到神经网络,QNN 将能够一次叠加存储所有可能的模式。因此,网络中的每一种模式都代表了它自己的平行宇宙。

这是量子神经网络的众多理论框架之一。如果你对这个理论的细微细节感兴趣,请查阅全文。代表多个平行宇宙的 QNN 的实际实现尚不可行。然而,可以模拟单个量子神经元。

实现

根据麻省理工技术评论的说法,意大利帕维亚大学的一个研究小组在 2018 年在量子计算机上实现了世界上第一个单层神经网络 (图 2)。

null

图 2: 人工神经元的经典模型 (一) 和在量子处理器上量子实现人工神经元的方案(二)

在具有单个神经元 (a) 的经典神经网络中,输出是通过激活函数将其映射到二进制输出的输入向量的加权和。在抽象层次上,QNN 的功能是相同的,但是在量子处理器上的实现是不同的。量子网络的第一层将输入向量编码成量子态。然后,第二层对输入进行酉变换,类似于经典神经网络中权重向量的功能。你可以把酉变换想象成计算机把比特转换成量子比特。最后,输出被写入 Ancilla 量子位,产生最终输出。

量子处理器上酉变换的实现是复杂的 (图 2)。在高层次上,输入通过一系列门,这些门是量子电路的一部分。这些门表示为 Z、H N 和 X N,模拟传统神经网络中的权重向量。

null

图 3 . 一个 4 比特人工神经元的量子电路

这个模型能够精确模拟单个神经元的行为。然而,它还没有扩展到由多层多个神经元组成的深度神经网络。像这样的单层模型能够识别简单的模式,但是还不能扩展。这是在量子硬件上有效训练量子神经网络的第一步,也是实现神经网络多宇宙的第一步。

QNNs 的优势

QNNs 似乎极其复杂,难以理解。但是他们被探索是有充分理由的。根据宾夕法尼亚州立大学的研究团队,量子神经网络与传统神经网络相比具有许多优势,包括:

指数存储容量

隐藏神经元数量越少,性能越高

更快的学习速度

处理速度 (1010 bits/ 秒)

小规模 (1011 个神经元 /mm3)

更高的稳定性和可靠性

这些优势解决了传统神经网络的大部分 (如果不是全部的话) 局限性。这也意味着有一个非常高的动机去成为量子力学领域的先行者,去利用这些优势。目前,正在作出许多努力来实施一个全面运作的 QNN。

当前和未来的工作

谷歌的量子人工智能团队是量子移动通信的先驱之一。该团队构建了一个可以在量子计算机上训练的深度神经网络理论模型。虽然他们缺乏当前的硬件来实际实现模型,但他们的结果令人鼓舞。一旦硬件可用,他们创建的框架将允许快速采用量子机器学习。

此外,谷歌人工智能团队研究了神经网络训练如何在量子处理器上工作。传统的网络训练方法是在训练前随机初始化权重。然而,他们发现这种方法在转移到量子空间时并不奏效。因此,在训练量子模型时,会出现梯度消失等问题。通过他们的研究,谷歌人工智能团队正在为量子移动通信的未来奠定基础。

量子问题

专注于让传统神经网络以量子速度训练是一个自然的起点,无疑也是非常重要的工作。但是量子计算的魅力在于解决量子问题的能力。这些类型的问题太复杂了,传统计算机无法有效建模,更不用说人类大脑无法理解了。那么量子力学能做什么我们目前不能做的呢?

这个问题的答案并不像人们希望的那样令人满意。考虑到量子力学的前沿只是最近才被探索,现在预测任何重大的量子问题还为时过早,有待解决。一个很酷的探索领域是利用 QNN 发现新的乐器。简而言之,这种神经网络可以产生演奏全新声音的乐器。例如,这里有一段他们的量子乐器演奏披头士臭名昭著的“Hey Jude”的片段.

QNN 的另一个令人兴奋的应用是模拟黑洞和人脑。这两者有一个共同的特点,那就是它们惊人的内存存储容量。理论上,量子计算机相对于传统计算机的额外容量可能能够捕捉到这一特征。创建的 QNN 能够存储和检索大量的模式。虽然很难得出任何具体的结论,但这些结果鼓励了量子物理学中的一个未来应用建议。

此时,QNNs 更多的是处于胎儿期而不是青春期。谷歌人工智能和其他人正在进行的研究有助于为量子移动通信领域的未来工作奠定基础。量子神经网络的未来应用是不确定的,可能对大多数人来说太抽象而难以理解。但是可以肯定的是,无处不在的量子机器学习就在地平线上,人们很容易对它的实现感到兴奋。