谷歌实现量子计算纠错大突破登上Nature
发布时间:2023-03-14 14:02:47 所属栏目:外闻 来源:
导读:量子计算领域的新里程碑来了!
谷歌科学家证明,通过进一步增加大规模量子比特的数量,就能极大地降低人工智能量子计算的错误率。
要知道,量子计算纠错是量子计算发展的关键一步。过去提出的理论方案中,需要
谷歌科学家证明,通过进一步增加大规模量子比特的数量,就能极大地降低人工智能量子计算的错误率。
要知道,量子计算纠错是量子计算发展的关键一步。过去提出的理论方案中,需要
量子计算领域的新里程碑来了! 谷歌科学家证明,通过进一步增加大规模量子比特的数量,就能极大地降低人工智能量子计算的错误率。 要知道,量子计算纠错是量子计算发展的关键一步。过去提出的理论方案中,需要引入更多量子比特,这会导致量子计算出错的源头增多。 谷歌量子计算部门负责人表示,尽管他们的方法只能将错误率降低一点,但这意味着谷歌已经突破了“平衡点”。 量子计算机一直被视为可以解决普通计算机所无法胜任的超大规模计算,如将大量整数分解为质数、模拟复杂化学反应等。 但是和普通计算机一样,量子计算机很容易出现底层物理系统“噪声”引起的错误。 对于普通计算机,通过比特(可以表示0或1)来存储信息,并将部分信息复制到冗余的“纠错”比特上。当出现错误时,比如杂散电子穿过了绝缘屏障,或者宇宙射线干扰了电路,芯片就能自动发现问题并修复。 但是,量子计算机是在量子比特上运算,量子比特可以被设置为0、1,或者同时设置为0和1的任意混合,比如30%的0和70%的1。 这意味着量子比特不能被读除,否则它的量子状态将会丢失。由此,量子计算机不能像普通计算机那样,简单地将部分信息复制到冗余量子比特上。 逻辑量子比特由此而来。它是由物理量子比特组成的集合,它们共同工作以执行计算。这些都是理论上的可能,真正的应用场景还没有出现。 但量子比特是量子计算出错的源头,增加更多量子比特,意味着出现错误的可能性也会增加。 表面码是一组量子纠错码。它将逻辑量子比特编码为物理量子比特的d × d平方的联合纠缠态,称为数据量子比特。 其中嵌入了distance-5的表面编码,由25个数据量子比特(黄色)和24个测量量子比特(蓝色)组成。 每个测量量子比特和一个稳定器(stabilizer,蓝色方块)相关联,逻辑运算符Z˪和X˪遍历数组,在左下角的数据量子比特相交。 在每一类奇偶校验量或稳定值之间进行差动,然后与一个编码的量子比特的逻辑观察值和其他稳定值进行交换。 按照谷歌自己的“六步走”规划,实现量子优势是第一步,降低量子计算错误率是第二步,最终要实现建造一台由100万个物理量子比特组成的量子计算机,能编码1000个逻辑量子比特。他们表示,等到这一步实现,量子计算的商业价值也就能实现了。 (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐