IBM宣布,最快两年之内,量子计算机就能投入实际应用了!
IBM团队在其鹰(Eagle)量子处理器上成功模拟了一种磁性材料的行为。
【资料图】
这标示着量子计算投入实际应用的最大障碍已经得到解决。
搭载「鹰」芯片的量子计算机
这种障碍叫做“量子噪声”,会导致计算结果出现错误。
研究团队对处理器中的每一个量子比特的噪声逐一进行测量,推测出了零噪声情况下系统的状态。
根据观察和推测结果,团队研发出了全新的“误差缓解”技术。
利用这种技术,团队在127量子比特的鹰处理器上成功进行了一次复杂运算。
IBM量子研发部门高级主管Sarah Sheldon表示,我们可以开始设想用量子计算机解决一些此前无解的问题。
相关论文已经在最新一期的Nature中发表,并登上封面。
最新一期的Nature Podcast当中也介绍了这一研究成果。
节目当中主持人评价IBM在量子计算不被看好的情况下做出的这一举动“十分勇敢”但也“拥有确凿证据”。
而今年晚些时候,IBM还将发布1121量子比特的秃鹰(Condor)芯片。
消灭不掉噪声,就抵消它
由于量子纠缠效应的存在,量子不只有0和1两种存在方式,还有它们的叠加态。
这使得量子运算的效率从理论上看显著高于传统的只有0和1两种状态的计算机。
但实际上,量子计算机并未投入实际应用。
原因有点无语——量子运算虽然快,但是错误率也很高。
而出错背后的罪魁祸首,就是量子噪声。
根据海森堡测不准原理,环境中无时无刻不充满波动的能量,哪怕温度低到绝对零度,也无法消除。
量子永不停息的波动导致了它们之间彼此的拥挤、碰撞,这就是量子噪声的来源。
对于单个量子,噪声带来的误差可能并不高(低于1%)。
但量子计算机是由大量量子组成的复杂系统,各量子产生的误差叠加之后就变得不可忽视了。
除了要解决量子噪声问题,IBM认为,还需保证量子处理器具有一定的规模和运算速度。
消除量子噪声的过程称为量子纠错,方法是用更多的量子比特来描述一个量子比特,以便有错误时可以纠正。
但这一思路的缺陷明显——我们根本无法操控如此之多的量子比特。
因此,对于量子噪声,现在普遍采用的处理方式是抵消其影响,而非直接消除。
传统的抵消方式是对误差信息实时监测并建立抵消算法,但随着量子比特数的增多,也出现了性能瓶颈。
IBM团队研发了一种全新的抵消方式,绕开了这一瓶颈的限制。
这种方式的核心是两种关键技术:脉冲拉伸(Pulse Stretching)和零噪声外推(Zero Noise Extrapolation)。
脉冲拉伸是通过延长每个量子比特的操作时间,使量子误差被放大,更加有利于观测。
这一过程中,IBM采用了物理学上常用的伊辛模型(Ising model)。
其最基本的假设是相互作用只在最近邻的自旋之间存在。
具体到这一项目,量子比特的排列方式是设定模型点阵排列方式的依据。
尽管排列方式一致,伊辛模型却是独立于处理器硬件存在的。
零噪声外推则是根据采集到的放大不同比例后的误差信息(采集量远低于传统方式),建立函数模型。
根据函数模型外推出零点值,即为没有误差存在时的运算结果。
尽管仍存在一定的局限性,但经过这种方式抵消一些误差后的量子处理器已经可以进行一些运算操作。
IBM团队将其成果送到了加州大学伯克利分校进行效果测评,和他们的超级计算机进行比较。
结果显示,鹰芯片驱动的量子计算机的计算结果与真实值的接近程度远高于传统计算机。
不过,IBM的研究人员指出,采用这种抵消方式消除噪声影响只是一种短期策略。
IBM也在逐步扩大其处理器所包含的量子比特数量。
据研究人员预计,到2033年将制造出超过10万量子比特的处理器,届时量子误差将得到根源性的解决。