《中国科技投资》杂志编委会委员 陈义佳
近年来,量子信息学的蓬勃发展让“量子”成为众人瞩目的焦点,甚至被赋予了神秘的色彩。唯有客观、深入地认识量子世界,我们才能将对它的认知科学、有效地运用到人类生活之中。
潘建伟院士指出:量子信息技术时代的全面降临,关键取决于量子计算的广泛应用与成熟发展。只有当通用量子计算机被广泛运用时,人类社会才能真正迈入这一全新的科技时代。
量子计算的算力以指数级的速度超越电子计算。在物理世界里,遵循经典物理学的构成经典世界,其状态和物理量在每个时刻都是明确、固定的;而遵循量子力学的则形成量子世界,其状态和物理量都充满不确定性。当下我们常用的电子计算机依照经典物理定律运行,信息处理单元为比特,非 0 即 1。但量子计算机源于量子力学,其工作原理遵循量子力学,信息单元是量子比特,是 0 和 1 状态的叠加。量子比特的物理载体是能同时具有两种状态的物理客体,例如电子的自旋、光子的偏振等。拥有多个量子比特的量子芯片,在存储数据的能力方面远远超越电子芯片。
计算机操作的本质是对芯片存储数据的改变,电子计算机每次只能改变一个数据,属于串行运算;而量子计算机每次操作能够同时变换多个经典数据,这构成了其并行运算能力的物理基础。借助量子纠缠开发的有效量子算法,能使量子计算机的算法以指数级的速度超越电子计算机,还能解决一些电子计算机难以处理的复杂问题。
量子计算技术正逐步迈向行业应用,一旦全面进入量子计算机时代,人类社会必将经历又一次的巨大变革。当前,它已在网络信息安全、大数据和人工智能等众多领域崭露头角,并在国防建设和国民经济发展中发挥着关键作用。
1980 年,美国阿贡国家实验室的保罗·贝尼奥夫(Paul Benioff)发表论文,描述了图灵机或经典计算机的量子力学哈密顿量模型,首次证明了量子计算的可能性开始,量子计算的发展历程充满了曲折与突破。
1981 年,就职于加州理工学院的理查德·费曼(Richard Feynman)在题为《利用计算机模拟物理学》的报告中指出,量子计算机有可能模拟出经典计算机无法模拟的物理现象。
1985 年,牛津大学的戴维·多伊奇(David Deutsch)为量子图灵机制定了一个描述。
1992 年,Deutsch–Jozsa 算法出现,它属于最早一批量子算法的例子,证明了量子算法相对于经典算法有指数级别的加速能力。
1993 年,发表了第一篇描述量子遥传的论文。
1994 年,贝尔实验室的彼得·秀尔(Peter Shor)开发了用于整数分解的量子算法,有可能破解广泛使用的数据加密传输方法 RSA 加密算法;同年美国国家标准技术研究所组织了由美国政府主办的首届量子计算会议。
1996 年,贝尔实验室的洛夫·格罗弗(Lov Grover)发明了量子数据库搜索算法,即格罗弗算法。
1998 年,首次展示了量子纠错;首次证明了可以用经典计算机有效模拟某一类量子计算。
1999 年,东京大学的中村泰信和东京理科大学的蔡兆申证明了超导电路可以用作量子比特。
2002 年,美国发布了第一版量子计算路线图,该路线图是一份实时更新的文件,涉及量子计算领域主要研究人员。
2004 年,中国科学技术大学潘建伟院士的研究小组首次展示了五光子纠缠。
2011 年,D-Wave 公司推出首台商用量子计算机。
2012 年,全球首家专门的量子计算软件公司 1QBit 成立。
2014 年,荷兰代尔夫特理工大学的科维理纳米科学研究所的物理学家们,以100%的准确率在相隔约3米的两个量子比特之间完成信息传送。
2017 年,中国科学技术大学潘建伟院士的研究小组首次实现从地面观测站到低地球轨道卫星的纠缠光子发射,量子隐形传态实验通信距离达1400公里。
2018 年,美国颁布《国家量子倡议法案》,确立了加速美国发展量子信息科学和技术应用的十年计划的目标和优先事项。
2019 年,谷歌通过在200秒内完成超级计算机约1万年才能完成的一系列运算,从而声称达成“量子霸权”。
2020 年,中国科学技术大学潘建伟院士、陆朝阳教授组成的研究小组在76个光子量子计算原型机上完成了“高斯玻色采样”计算,计算速度要比超级计算机快100万亿倍,从而声称实现“量子计算优越性”。
2020年,谷歌发布的量子计算路线图共有六个关键里程碑,其中“量子霸权”为第一,其当年的成果代表了第二阶段的关键里程碑(M2),即通过增加量子比特来降低计算错误率。该研究成果发表在《Nature》期刊上,有150多位科学家参与。
2023年11月,Atom Computing 宣布推出一台1225量子比特的量子计算机,几乎是之前领先的 IBM Osprey 计算机的三倍。12月,IBM 发布了包括1121量子比特的 IBM Quantum Condor 芯片和133量子比特的 Heron 量子处理单元(QPU),这是 IBM 公司首款公用事业级量子处理器,也是其进入量子处理单元大规模访问时代的入口。
2024年7月,中国科学技术大学与北京大学联合组成的研究团队成功实现了51个超导量子比特簇态制备和验证,刷新了所有量子系统中真纠缠比特数目的世界纪录。
在量子计算的发展过程中,光量子技术、超导量子技术、离子阱技术等各自展现出独特的特点和优势。法兰西公学院名誉教授、2012 年诺贝尔物理学奖得主塞尔日·阿罗什(Serge Haroche)认为:“光量子系统在信息传输和处理方面展现出了高效和稳定的特性。其光子的高纯度和相干性为实现高精度的量子计算提供了有力保障。” 悉尼大学物理学院的 Sahand Mahmoodian 博士表示:“光量子技术的优势在于其天然的高速性和低损耗性,这对于构建大规模的量子计算网络具有重要意义。”
加拿大量子计算公司 Xanadu 的首席技术官 Zachary Vernon认为光子将是第一个实现容错且扩展速度最快的技术。光子学的应用使得能够以不同模式的光纤连接不同的芯片,从而获得比常规超导方法更优的连接性,可以访问更好的代码,特别是量子低密度奇偶校验码(LDPC)。
军事科学院国防科技创新研究院强晓刚研究员,作为新型可编程光量子计算芯片论文第一作者,他认为光量子芯片技术具有高集成度、高精确度、高稳定性等优势,是实现大规模可实用化量子计算机非常有潜力的途径。
而光量子技术在打造人人可用的量子计算机方面具有更为广阔的前景。其高效的信息处理能力、较低的环境敏感度以及良好的扩展性,使得光量子计算机有望在未来成为普及大众的计算工具。
量子计算机的发展并非一帆风顺。环境对量子特性的破坏,导致其并行运算能力的丧失,即“消相干”现象,是研制和应用过程中的主要障碍。尽管科学家们提出了“容错纠错编码原理”,但实际技术的实现仍面临重重困难。目前所使用的量子计算机大多是含有噪声的中等规模专用机,人类的最终目标是研制通用量子计算机,这需要达到百万级量子比特并采用先进的“容错纠错”技术,预计还需十年以上的时间。
当前量子计算机正处于“专用机”阶段,将其与电子超级计算机结合,采用量子—经典混合算法,可大幅提升运算速度,起到量子赋能的效果,这也是目前量子计算机走向实用的主流做法。
中国科学院上海光学精密机械研究所副所长张龙认为基于冯·诺依曼架构的电子计算机已无法满足大数据时代对算力与功耗的要求,而光学能让计算机芯片设计师克服电子学的根本局限。光子有超高信息容量、超低传输功耗和延时、超低信道干扰的特性,光子芯片将是未来科技发展的基础性核心技术,在数据计算、光通信领域等具有极重大应用前景。
光量子计算机的未来令人充满期待,尽管前方仍有诸多困难与挑战,但人类探索的脚步不会停歇。相信在众多科学家和科研团队的不懈努力下,光量子计算机必将不断突破,为我们开启一个全新的计算时代,创造更多前所未有的可能。
本文作者可以追加内容哦 !