【科普】量子计算机离我们还有多远?

量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储以及处理的量子物理设备。
1980年俄罗斯数学家尤里.马宁和理查德费曼第一次提出量子计算机的概念。
费曼认为只有使用量子计算才能进行真正的量子模拟研究。

1994年量子的并行计算优势被发现, Peter Shor 提出了休尔-大数分解算法
证明量子计算机可以快速完成大数的质因数分解,而经典计算机难以短时间完成超过2048位的大数分解。结合休尔算法量子计算机可以轻易攻破RSA等现代加密算法。


1996年格鲁弗提出的格鲁弗搜索算法证明量子计算机在最短路径搜索等全局优化问题中同样有经典计算机无法超越的能力。


什么是量子计算机
量子计算机是由量子比特和可以操纵这些量子比特的量子门构成。
利用原子的自旋或者光子的偏振等特性,一个量子比特,可以同时存储0和1两种数据。四个量子比特就可以存储16比特的数据也就是说N个量子比特存储的信息等同于2的n个比特的数据。



量子门可以同时改写所有量子比特的数据,因此N比特的量子计算机的一次计算就等效于经典计算机2的N次的计算。也就是说一台8核2.8GHZ的计算机进行12年连续不断的计算得到的结果。

53比特的sycamore,一次计算就可以完成。

2020年8月google的量子团队,用12个量子比特模拟二氮烯的异构化反应登上了science封面。

不少科学家将其视作量子计算机迈向实用化的第一步。

Google CEO皮查伊甚至发文把这次比做“莱特兄弟的首次飞行。”

量子计算机的发展受到两大因素的制约
1、有效量子比特数
2、量子比特的保真率


目前稳定性最高的离子阱技术也只能控制70个左右的量子比特。而按照业界的估计一台能够真正解决问题的量子计算机需要至少一千个有效量子比特才能满足需求。


其次是量子比特的保真度很低

保真度是指一个量子比特在工作中不发生错误的概率。
目前超导量子保真度可以做到99.4%,这意味着只要进行1155次计算得到的结果就有一般的概率是错的。


谷歌团队去年“秒杀”超算的计算结果其实也只有0.1%的保真度依旧无法运行休尔格鲁弗等量子算法,



即便量子比特的保真度达到99.99%,再引入纠错设计,也需要一百万个量子比特才能保证有1000个左右的有效量子比特可用于实际计算。
如果对比经典计算即得发展之旅,如今得量子计算机还处于经典计算机再上世纪四五十年代得水平。科学家们还在为找出真正可用得量子比特硬件而努力。
诸多大公司都将实现商用量子计算机的目标定在十年后

达摩院从2018年创立量子实验室以来首先开发发布了太章量子经典电路模拟器。依托阿里云的强大算力再经典计算机上实现对量子计算机的模拟,此后量子实验室聚焦量子计算机的硬件设计领域以提升量子比特保真度为目标展开技术攻坚。寻求通过量子-经典混合计算的方式不断在寻找着量子计算机的最有实现方式

