NVIDIA CUDA-Qプラットフォームにより、Googleの量子AI研究者が量子コンピュータの巨大なデジタルモデルを作成し、設計上の課題を解決
SC24—NVIDIAは本日、Google Quantum AIと提携し、NVIDIA CUDA-Q™プラットフォームによるシミュレーションを活用して次世代の量子コンピューティングデバイスの設計を加速させることを発表しました。
Google Quantum AIは、ハイブリッド型量子 – 古典コンピューティングプラットフォームとNVIDIA Eosスーパーコンピューターを使用して、量子プロセッサの物理をシミュレートしています。これにより、量子演算の実行中に「ノイズ」と呼ばれる要因により演算を停止しなければならないという、現在の量子コンピューティングハードウェアの限界を克服することが可能になります。
「商業的に有用な量子コンピューターの開発は、ノイズを抑制しながら量子ハードウェアを拡張できる場合にのみ可能となります」と、Google Quantum AIの研究科学者であるギフレ・ビダル氏は述べています。「NVIDIAのアクセラレーテッドコンピューティングを使用することで、より大規模な量子チップ設計におけるノイズの影響を調査しています」
量子ハードウェア設計におけるノイズを理解するには、量子プロセッサー内のキュービットが環境とどのように相互作用するかを完全に把握できる複雑な動的シミュレーションが必要です。
従来、こうしたシミュレーションは、実行するにはあまりにも膨大な計算コストがかかりました。しかし、CUDA-Qプラットフォームを使用することで、GoogleはNVIDIA Eosスーパーコンピュータで1,024個のNVIDIA H100 Tensor Core GPUを採用し、世界最大かつ最速の量子デバイスの動的シミュレーションを、わずかなコストで実行することができます。
「AIスーパーコンピューティングの能力は、量子コンピューティングの成功に役立つでしょう」と、NVIDIAの量子およびHPC担当ディレクターであるティム・コスタ氏は述べています。「GoogleによるCUDA-Qプラットフォームの利用は、GPUアクセラレーションによるシミュレーションが、量子コンピューティングの進歩において中心的な役割を果たし、現実の問題の解決に役立つことを示しています。
CUDA-QとH100 GPUにより、Googleは40量子ビットを含むデバイスの完全かつ包括的な現実的なシミュレーションを実行することができます。これは、この種のシミュレーションとしては最大規模のものです。CUDA-Qが提供するシミュレーション技術により、従来は1週間かかっていたノイズの多いシミュレーションが数分で実行できるようになりました。
これらの高速動的シミュレーションを可能にするソフトウェアは、CUDA-Qプラットフォームで一般公開され、量子ハードウェアエンジニアがシステム設計を迅速に拡張できるようになります。



コメント