首页 > 全部资讯 > 行业新闻 > NVIDIA与Google Quantum AI联手,推动量子计算硬件设计新突破
芯达茂广告F 芯达茂广告F

NVIDIA与Google Quantum AI联手,推动量子计算硬件设计新突破

有报道称NVIDIA近日宣布与Google Quantum AI合作,利用CUDA-Q平台加速下一代量子计算设备的设计。此次合作标志着量子计算与AI超级计算相结合的重要进展,为解决量子硬件发展中的关键挑战开辟了新路径,将相关耗时缩短至几分钟。 

攻克量子硬件“噪声”难题

当前量子计算硬件受到“噪声”的限制,导致其运行量子操作的能力受限。噪声源于量子比特(qubits)与其环境的复杂交互,影响了计算的精确性和可扩展性。噪声是量子计算中一个重要的技术挑战,通常指的是量子比特在操作或存储信息时受到外界干扰或其内在缺陷导致的不精确性或误差。

具体来说,这些“噪声”主要包括以下几个方面:

1. 环境噪声

量子比特非常敏感,容易受到周围环境(如温度波动、电磁干扰、振动等)的影响。这些外部干扰会破坏量子态的叠加和纠缠特性,使计算结果不可靠。

2. 退相干

退相干是量子计算中的核心问题之一。量子比特在进行计算时需要保持叠加态,但由于与周围环境不可避免的相互作用,量子态会逐渐衰减或偏离预期,导致计算的精确性下降。

3. 门操作噪声

在量子计算中,量子门是执行操作的基本单元。然而,当前的量子门操作并非完美,可能会因硬件限制或技术实现中的误差导致不准确的操作,从而累积成整体计算的噪声。

4. 读出噪声

在量子计算中,测量量子比特的状态会引入额外的误差。测量不精确或仪器灵敏度不足会导致最终的输出结果偏离真实值。

5. 热噪声

量子比特的操作通常在极低温度下进行(例如在量子计算机中使用的超导量子比特需要接近绝对零度的条件),以最小化热扰动。但即便如此,热能引起的随机激发仍会对量子态造成影响。

“商业化量子计算机的开发只有在量子硬件规模化的同时控制噪声的情况下才有可能实现,”Google Quantum AI研究科学家Guifre Vidal表示。“通过NVIDIA加速计算,我们正在探索更大规模量子芯片设计中噪声的影响。” 

图:NVIDIA与Google Quantum AI联手,推动量子计算硬件设计新突破(图源:英伟达)

图:NVIDIA与Google Quantum AI联手,推动量子计算硬件设计新突破(图源:英伟达)

NVIDIA Eos超级计算机的强大支撑

Google Quantum AI利用NVIDIA Eos超级计算机的1,024个H100 Tensor Core GPU,运行全球最大规模的量子设备动力学仿真。这些仿真能够完整捕捉量子比特与环境之间的交互,大幅提升了量子硬件设计的精度和效率。 

借助CUDA-Q平台,Google实现了对包含40个量子比特设备的全面仿真,这一规模达到了目前该领域的世界纪录。而原本需要一周时间的复杂噪声仿真,现在可在几分钟内完成,大幅降低了计算成本与时间。 

AI超级计算赋能量子未来

“NVIDIA加速计算展现了在推动量子计算走向成功方面的核心作用,”NVIDIA量子与高性能计算部门总监Tim Costa表示。“Google通过CUDA-Q平台的应用证明了GPU加速仿真在量子计算硬件发展中的重要性。” 

软件工具将向全球开放

为了推动整个行业的发展,NVIDIA计划将支持这些仿真的软件工具整合到CUDA-Q平台中,并向研究人员和硬件工程师公开。此举将帮助全球量子计算硬件开发者快速扩展系统设计,推动更广泛的技术创新。 

量子计算的商业化前景

此次合作不仅展现了NVIDIA和Google Quantum AI在技术前沿的深厚积累,也进一步推动了量子计算硬件的商业化进程。通过融合AI超级计算与量子仿真技术,未来的量子计算机有望实现更大规模、更高性能的运算能力,从而解决包括药物研发、气候建模和优化问题在内的诸多现实挑战。 

相关新闻推荐

登录

注册

登录
{{codeText}}
登录
{{codeText}}
提交
关 闭
订阅
对比栏
对比 清空对比栏