谷歌重磅:全球首个72量子比特处理器,有望实现机器学习硬件加速
大数据文摘作品
作者:魏子敏、龙牧雪
当地时间3月5日,谷歌在美国洛杉矶举行的美国物理学会年会上介绍了最新研究成果,新量子处理器Bristlecone。谷歌研究中心同时发布博文,宣布了谷歌量子AI实验室的这一研究进展。
谷歌称,这一最新的处理器将为谷歌研究量子比特技术的系统错误率以及可拓展性提供一个测试平台,其也将在机器学习上有很好的应用。
谷歌对量子计算的研究由来已久,早在2016年8月,谷歌的工程师就曾经低调发布了一篇论文《Characterizing Quantum Supremacy in Near-Term Devices》,描述了他们的量子计算研究计划。
根据这篇文章,谷歌的量子计算计划被成为「Quantum Supremacy(量子霸权)」,目标是打造世界上第一个可执行经典计算机无法执行的任务的量子计算机。
这一研究工作一直由谷歌的量子AI实验室进行,其目标是搭建一个可用于解决实际问题的量子计算机。
而本次发布,让谷歌和全人类离这一目的都更近了一步。
谷歌量子AI实验室对量子计算的介绍:
量子计算融合了20世纪两次重大科学革命:计算机科学和量子物理学。量子物理学是晶体管、激光器和其他推动计算机革命的技术的理论基础。但在算法层面上,今天的计算机仍然使用“经典”布尔逻辑。量子计算同时指硬件和软件层面的设计,在算法层面上,用量子定律代替布尔逻辑。量子计算有望高速实现某些计算,如优化、采样、搜索及量子仿真。
对量子计算感兴趣的读者可点击查看大数据文摘的科普文章《量子计算101:浅淡其需求、前景和现实》。
谷歌称,其最感兴趣的是将量子计算应用于人工智能和机器学习。这是因为在这些领域,许多任务都依赖于解决硬优化问题或执行高效采样。
谷歌创立量子AI实验室的目标就是搭建一个可用于解决实际问题的量子计算机。谷歌的策略是探索短期应用,同时做到向前兼容,即兼容大规模通用纠错量子计算机。量子处理器如果想运行经典的仿真之外的算法,除了需要大量的量子比特,至关重要的是,处理器在读出和逻辑运算(例如单比特门和双比特门)时也必须具有低错误率。
新量子处理器Bristlecone的超导系统是基于门的,目的是研究量子比特技术的系统误差率和可拓展性,为在量子模拟、优化和机器学习中的应用提供一个测试平台。
谷歌最新的量子处理器Bristlecone(左)。在右边的放大示意图上,每个“X”代表一个量子比特,量子比特之间以线性阵列方式相连。
该设备的设计原则保留了谷歌之前的另一研究——9-qubit线性阵列技术(9-qubit linear array)的基本物理特性,其在读出率(1%),单量子比特门(0.1%)和双量子比特门(0.6%)上(最好结果),已经显示出了非常低的错误率。
新量子处理器Bristlecone“超现实”地使用了72个量子比特排成的正方形阵列。谷歌称,这个数值的选择能够展示量子霸权的未来,通过面编码研究一阶和二阶纠错的使用,促进量子算法在实际硬件上的发展。
2D概念图显示了误差率和量子比特数之间的关系。 Quantum AI实验室的预期研究方向为图中红色曲线,我们希望通过建立纠错量子计算机访问短期应用程序。
谷歌相信,在研究投入具体的应用领域之前,对量子处理器的能力进行量化非常重要。谷歌的理论团队因此设置了一个基准测试工具:通过将随机量子电路应用于器件,并根据经典模拟检查采样输出分布,来分配单个系统误差。
如果一个量子处理器运行误差足够低,它就能够在一个定义明确的计算机科学问题上超越经典超级计算机,这一优势被称为量子霸权(quantum supremacy)。这些随机电路需要有足够多的量子比特和计算长度(深度)。
尽管这个目标还没有人达到,但据谷歌最新计算,其量子霸权可达49个量子比特,电路深度超过40个,双量子比特错误率低于0.5%。谷歌相信,量子处理器在超级计算机上的实验性运行将成为这个领域的分水岭,这也仍然是谷歌关键目标之一。
科学家Marissa Giustina正在位于Santa Barbara的量子AI实验室安装Bristlecone芯片
谷歌表示,正在努力使Bristlecone中的72个量子比特达到与9个量子比特设备相近的误差率。Bristlecone这样级别的设备要以较低的系统误差操作,需要在软件、控制电子设备和其本身的处理器等全套技术之间进行协调。如果真的实现了,那么谷歌就为构建更大规模量子计算机提供了一个有力的证明。
Google Research博文链接:
https://research.googleblog.com/2018/03/a-preview-of-bristlecone-googles-new.html