文章编号:107034时间:2024-12-10人气:
中新网北京12月10日电 (记者 孙自法)国际著名学术期刊《自然》最新发表一篇量子计算论文称,谷歌量子人工智能(Google Quantum AI)的最新一代量子芯片,能实现将错误抑制在一个关键阈值以下的量子纠错功能,这被认为是实现未来量子计算实际应用的必要条件。
研究人员认为,最新一代量子芯片的性能扩展后,或能推动大规模容错量子计算的运算要求。
该论文介绍,量子计算有潜力在特定任务上加速计算速度并超越经典计算机的能力。不过,量子计算机很容易出错,所以当前的原型机无法运行足够长的时间以实现实际输出。量子计算研究人员为此设计的解决策略依赖量子纠错,即将信息分布到许多量子比特(量子信息的单位,类似于经典计算机的比特)上,能在不破坏计算的情况下识别和补偿错误。量子纠错需要的量子比特开销可能会引入比它能纠正的更多的错误。因此,实现“低于阈值”的运算一直存在挑战——未纠错率要低于一个关键值,这样才能按预期纠错并指数级地抑制错误。
在本项研究中,美国谷歌量子人工智能及其合作伙伴(Google Quantum AI and Collaborators)研发出名为Willow的最新一代超导量子处理芯片架构,该芯片能实现低于表面码关键阈值的量子纠错,表面码是一种特定的量子纠错技术。他们的系统能在数小时内运行最多100万个周期,同时实时解码错误并维持表现。
研究人员进一步在一个72量子比特的处理器和一个105量子比特的处理器上运行了表面码。结果显示,每次码距从3增加到5再到7,逻辑错误率减半。他们总结表示,这种对逻辑错误的潜在抑制,为运行有纠错功能的大规模量子算法奠定了基础。(完)
内容声明:
1、本站收录的内容来源于大数据收集,版权归原网站所有!
2、本站收录的内容若侵害到您的利益,请联系我们进行删除处理!
3、本站不接受违法信息,如您发现违法内容,请联系我们进行举报处理!
4、本文地址:https://www.duozy.cn/article/107034.html,复制请保留版权链接!