中科院院士段路明团队在量子研究领域取得重要突破 《自然》官网发表

中科院院士段路明团队在量子研究领域取得重要突破《自然》官网发表段路明院士(右一)指导学生实验。清华大学供图研究团队介绍,离子阱系统被认为是最有希望实现大规模量子模拟和量子计算的物理系统之一,多个实验验证了离子量子比特的高精密相干操控,该系统的规模化被认为是主要挑战。清华段路明研究组利用低温一体化离子阱技术和二维离子阵列方案,大规模扩展离子量子比特数,提高离子阵列稳定性,首次实现512离子二维阵列的稳定囚禁和边带冷却,并首次对300离子实现可单比特分辨的量子态测量。研究人员进而利用300个离子量子比特实现可调耦合的长程横场伊辛模型的量子模拟计算。长程横场伊辛模型,是一类重要的量子多体模型,有助于理解量子信息、凝聚态物理等领域的基本问题,也可用于求解优化问题等现实应用。该工作实现了国际上最大规模具有单比特分辨率的多离子量子模拟计算,将该研究组保持的离子量子比特数国际记录(61离子),往前推进了一大步,首次实现基于二维离子阵列的大规模量子模拟。研究人员还对该模型的动力学演化进行量子模拟计算,300个离子量子比特同时工作时,所能执行的计算复杂度达到2的300次方,超越经典计算机的直接模拟能力。该实验系统为进一步研究多体非平衡态量子动力学这一重要难题提供了强大的工具。...PC版:https://www.cnbeta.com.tw/articles/soft/1432967.htm手机版:https://m.cnbeta.com.tw/view/1432967.htm

相关推荐

封面图片

我国在量子研究领域取得重要突破

我国在量子研究领域取得重要突破今天,记者从清华大学获悉,清华大学段路明研究组近日在量子模拟计算领域取得重要突破,首次实现512离子二维阵列的稳定囚禁冷却以及300离子量子比特的量子模拟计算。该工作实现了国际上最大规模具有单比特分辨率的多离子量子模拟计算,将原来的离子量子比特数国际记录(61离子)往前推进了一大步,并首次实现基于二维离子阵列的大规模量子模拟。该成果研究论文近日发表于国际权威学术期刊Nature(《自然》),被《自然》审稿人称为量子模拟领域的“巨大进步”,“值得关注的里程碑”。(中青报)

封面图片

5月30日,记者从清华大学获悉,清华段路明研究组近日在量子模拟计算领域取得重要突破,首次实现512离子二维阵列的稳定囚禁冷却

5月30日,记者从清华大学获悉,清华大学段路明研究组近日在量子模拟计算领域取得重要突破,首次实现512离子二维阵列的稳定囚禁冷却以及300离子量子比特的量子模拟计算。该工作实现了国际上最大规模具有单比特分辨率的多离子量子模拟计算,将原来的离子量子比特数国际记录(61离子)往前推进了一大步,并首次实现基于二维离子阵列的大规模量子模拟。该成果研究论文近日发表于国际权威学术期刊Nature(《自然》),被《自然》审稿人称为量子模拟领域的“巨大进步”,“值得关注的里程碑”。(中青报)

封面图片

我国科学家实现最大规模离子阱量子模拟计算

我国科学家实现最大规模离子阱量子模拟计算离子阱是通过电磁场将离子限定在有限空间内的设备,被认为是有望实现大规模量子计算的物理系统之一。如何把大量离子稳定“囚禁”于离子阱,再通过激光控制,制造量子计算的基本数据单元“量子比特”,是项国际性难题。中国科学院院士、清华大学交叉信息研究院段路明教授团队30日在国际学术期刊《自然》上发表一项量子模拟计算方面的突破性成果。该团队首次利用二维离子阵列实现了目前已知国际最大规模、具有“单比特分辨率”的多离子量子模拟计算,为实现大规模量子计算提供了新路径。(新华社)

封面图片

研究人通过可扩展量子点棋盘实现量子计算突破

研究人通过可扩展量子点棋盘实现量子计算突破承载16个量子点交叉阵列的量子芯片照片,与棋盘图案无缝集成。每个量子点就像棋盘上的棋子,都可以通过字母和数字坐标系进行唯一识别和控制。图片来源:MariekedeLorijnforQuTech。图片来源:MariekedeLorijnforQuTech量子点可用于容纳量子计算机的基础构件--量子比特。目前,每个量子位都需要自己的寻址线和专用控制电子设备。这非常不切实际,与当今的计算机技术形成了鲜明对比,在当今的计算机技术中,数十亿个晶体管只需几千条寻址线即可运行。代尔夫特理工大学(TUDelft)和应用科学研究组织(TNO)合作成立的QuTech公司的研究人员开发出了一种类似的量子点寻址方法。就像用字母(A到H)和数字(1到8)组合来寻址国际象棋棋子的位置一样,量子点也可以用水平线和垂直线组合来寻址。棋盘上的任何一点都可以通过字母和数字的特定组合来定义和寻址。他们的方法将最先进的技术提升到了一个新水平,实现了16量子点系统在4×4阵列中的运行。第一作者弗朗切斯科-博尔索伊解释说:"这种解决量子点问题的新方法有利于扩展到多个量子位。如果使用一根线控制和读出单个量子位,那么数百万个量子位就需要数百万根控制线。这种方法不能很好地扩展。但是,如果使用我们的棋盘式系统来控制量子位,那么数百万量子位只需"使用"数千条控制线即可寻址,其比例与计算机芯片非常相似。线路的减少为量子比特数量的扩展提供了前景,是量子计算机的一个突破,量子计算机最终将需要数百万量子比特。"提高数量和质量量子计算机不仅需要数百万量子比特,量子比特的质量也极为重要。最后一位作者兼首席研究员门诺-维尔德霍斯特(MennoVeldhorst)说:"就在最近,我们已经证明,这些类型的量子比特可以以99.992%的保真度运行。这是所有量子点系统中最高的,意味着每万次操作的平均误差不到1次。通过开发复杂的控制方法和使用锗作为宿主材料,这些进步成为可能,因为锗具有许多有利于量子运行的特性"。量子模拟的早期应用由于量子计算正处于早期发展阶段,因此我们有必要考虑如何以最快的速度实现实用的量子优势。换句话说:量子计算机何时才能比传统超级计算机"更好"?一个明显的优势是可以模拟量子物理,因为量子点的相互作用是基于量子力学原理的。事实证明,量子点系统可以非常有效地进行量子模拟。Veldhorst说:"在最近发表的另一篇文章中,我们展示了锗量子点阵列可用于量子模拟。这项工作是首次使用标准半导体制造材料进行的相干量子模拟。我们能够对共振价键进行初级模拟。虽然这项实验仅基于一个小型装置,但在大型系统上执行此类模拟可能会解决物理学中的长期问题。"未来工作Veldhorst总结道:"令人兴奋的是,我们在向更大系统扩展、提高性能以及获得量子计算和模拟机会方面迈出了几步。一个悬而未决的问题是,我们能将这些棋盘式电路做多大,如果存在限制,我们是否能利用量子链路将许多棋盘式电路互连起来,从而构建更大的电路。"...PC版:https://www.cnbeta.com.tw/articles/soft/1381635.htm手机版:https://m.cnbeta.com.tw/view/1381635.htm

封面图片

谷歌宣布在量子计算机纠错技术取得重要突破 但仍持“谨慎”态度

谷歌宣布在量子计算机纠错技术取得重要突破但仍持“谨慎”态度由于量子比特只能保持量子态极短的时间,因此目前的量子计算机很难产生有用的结果。这意味着,在量子计算机完成计算之前,量子系统中编码的信息就会丢失。因此,找到一种方式纠正随之而来的错误是量子计算技术面临的最大挑战。一些量子计算创业公司认为,短期内解决这个问题的办法是探索新方式,对目前的“噪声机器”进行编程,但这种做法意味着,量子计算机相比于传统计算机的性能提升有限。此外到目前为止,这方面的努力尚未取得实际效果。这也使得越来越多的人认为,在纠错问题得到更全面的解决之前,量子计算不具有实用性。谷歌的研究人员表示,已经找到一种方法,将量子计算机中正在处理的信息分散到多个量子比特上。这意味着,即便单个量子比特脱离了量子态,但作为一个整体的系统可以保存足够多的信息足够长时间,来完成一项计算。根据发表在《自然》杂志上的文章,随着谷歌扩大技术的应用规模,使其在更大的量子系统上运行,错误率仅降低了4%。但研究人员指出,这是人类首次实现,扩大量子计算机的规模没有导致错误率上升。奈文表示,这表明谷歌已经突破了“平衡点”。在此之后,进一步的发展将实现稳定的性能提升,最终带来第一台可以实际使用的量子计算机。谷歌研究员朱利安·凯利(JulianKelly)说,此次的突破来自于谷歌对量子计算机所有组件的优化,涉及量子比特的质量控制、控制软件,以及用于将计算机冷却至接近绝对零度的低温设备。这些优化将错误的数量减少到了足够低,使得扩大系统规模不会导致错误率呈现指数级上升。谷歌将这一突破描述为建造实用量子计算机所需完成的6个步骤中的第二步。下一步包括完善量子计算机的工程设计,以便只需要1000个量子比特就可以实现所谓的“逻辑量子比特”。逻辑量子比特建立在物理量子比特之上,可以实现无差错的运行。奈文表示,谷歌相信,只要能找到如何构建1000个逻辑量子比特并将其连接至单个系统的方法,就可以获得一台可实用的量子计算机。谷歌关于量子计算的研究以往曾引发争议。2019年,谷歌发表在《自然》杂志的一篇文章称,已经实现了“量子霸权”,即让量子计算机完成传统计算机无法完成的计算。然而,这一说法遭到了IBM和其他公司的挑战。随着新编程技术的发展,传统计算机性能的提升,量子计算实现“量子霸权”的时间也在被推迟。在本周发表的文章中,谷歌的研究人员表示,对这一最新突破持“谨慎”态度。他们表示,在纠错技术未来应用至更大规模的量子系统时,仍有一定的可能无法发挥作用。...PC版:https://www.cnbeta.com.tw/articles/soft/1345915.htm手机版:https://m.cnbeta.com.tw/view/1345915.htm

封面图片

微软和 Quantinuum 声称在量子计算领域取得突破

据路透社报道,微软和Quantinuum周三表示,通过提高量子计算机的可靠性,他们在使量子计算机成为商业现实方面迈出了关键一步。量子计算机可以执行传统计算机需要几百万年才能完成的科学计算任务。量子计算的基础单位“量子比特”虽然计算速度极快,但非常敏感,如果量子计算机受到轻微干扰就会产生数据错误。为了克服这个问题,量子计算研究人员通常会制造出远超需求的物理量子比特,并通过纠错技术,产生较少数量但高度可靠和实用的量子比特。微软和Quantinuum表示他们在该领域取得了突破。微软将其编写的纠错算法应用于Quantinuum的物理量子比特上,从30个物理量子比特中获得了大约了4个高度可靠的量子比特。微软负责战略任务和技术的执行副总裁JasonZander表示,该公司相信这是迄今为止量子芯片中可靠量子比特的最佳比例。微软表示,计划在未来几个月内向其云计算客户发布该技术。via匿名标签:#微软#AI#Quantinuum频道:@GodlyNews1投稿:@GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人