アトランタ - SC24 - 2024 年 11 月 18 日 - NVIDIA は本日、Google Quantum AI と連携し、NVIDIA CUDA-Q™ プラットフォームを活用したシミュレーションを使用して、次世代の量子コンピューティング デバイスの設計を加速することを発表しました。
Google Quantum AI は、ハイブリッド量子古典コンピューティング プラットフォームと NVIDIA Eos スーパーコンピューターを使用して、量子プロセッサの物理をシミュレーションしています。これにより、研究者が「ノイズ」と呼ぶものが原因で、量子演算を一定数実行した後で計算を停止しなければならないという、現在の量子コンピューティング ハードウェアの制限を克服することを目指しています。
Google Quantum AI の研究科学者 Guifre Vidal 氏は以下のように述べています。「商業的に有用な量子コンピューターの開発は、量子ハードウェアをスケールアップしながらノイズを抑制できる場合にのみ可能です。私たちは NVIDIA のアクセラレーテッド コンピューティングを使用することで、ますます大規模化する量子チップ設計におけるノイズの影響を調査しています」
量子ハードウェア設計におけるノイズを理解するには、量子プロセッサ内の量子ビットが環境とどのように相互作用するかを完全に捉える複雑な動的シミュレーションが必要です。
従来、これらのシミュレーションは、従来、実行するのに非常に高い計算コストがかかっていました。しかし、CUDA-Q プラットフォームを使用することで、Google は NVIDIA Eos スーパーコンピューターで 1,024 基の NVIDIA H100 Tensor コア GPU を活用し、わずかなコストで世界最大かつ最速の量子デバイスの動的シミュレーションを実行することができます。
NVIDIA の量子および HPC 担当ディレクターの ティム コスタ (Tim Costa) は以下のように述べています。「AI スーパーコンピューティングのパワーは量子コンピューティングの成功に役立つでしょう。Google が CUDA-Q プラットフォームを使用していることは、GPU アクセラレーテッド シミュレーションが、現実問題の解決に役立つ量子コンピューティングの発展において、中心的な役割を果たしていることを示しています」
CUDA-Q と H100 GPU を使用することで、Google は 40 量子ビットを含むデバイスの完全に包括的かつ現実的なシミュレーションを実行することができます。これは、この種のシミュレーションとしては最大規模です。CUDA-Q が提供するシミュレーション技術により、1 週間かかっていたノイズを伴うシミュレーションが数分で実行できるようになります。
これらの高速化された動的シミュレーションを支えるソフトウェアは、CUDA-Q プラットフォームで公開され、量子ハードウェア エンジニアがシステム設計を迅速に拡張できるようになります。