量子コンピューター開発の歴史の中でも、近年特に大きな反響を呼んだ出来事といえば、2019年10月にグーグルが公表した「量子超越性」実現が挙げられるだろう。これは、54量子ビットを搭載する量子コンピューター「Sycamore(シカモア)」が、スーパーコンピューターで約1万年かかる計算を、約200秒で解いたとするもので、量子コンピューターが既存のコンピューターでは達成し得ない能力を持つことが示され、量子コンピューター開発に対する注目度が一気に上がった。
しかし、その後グーグルの量子コンピューター開発の状況については、なかなか耳にする機会がなかったというのが実情ではないだろうか。そんな中、2023年5月10日〜12日に東京ビッグサイト(東京都江東区)で開催されたNexTech Week2023春「第3回 量子コンピューティング EXPO」にて、Google Cloud Japanの中井悦司氏(Global Quantum Computing Practice)が登壇。「Googleにおける量子コンピューティングへの取り組み」と題した講演の中で、グーグルが進める超伝導素子を用いたゲート型量子コンピューターの開発状況について解説した。
冒頭、中井氏は、グーグルの量子コンピューター開発における全体的なロードマップと進捗状況を示した。
同社が最終的に目指しているのは、(物理的な)量子ビットの数が10の6乗、つまり数100万量子ビット規模の量子コンピューターの実現だ。この規模の量子コンピューターが完成し、かつ計算エラーを検知・訂正できる「エラー訂正機能」が実装されると、「世の中がひっくり返るような、ものすごく革新的な計算処理ができるようになる」という。
では現在、同社における量子コンピューター開発はどういった段階にあるのか。中井氏は、複数の物理量子ビットを束ねてエラー訂正機能を実現する「論理量子ビット」の実現可能性がようやく実証できた段階だと説明する。
「3年前(2019年)に、『量子超越性』の実証実験データがネイチャー誌で公開されて話題になったのを覚えている人は多いかもしれません。そして今年(2023年)、また新たな論文(※)がネイチャー誌に掲載されました。これはエラー訂正機能の、本当にプリミティブ(原始的)なプロトタイプ。エラー訂正機能が実用的に使えるかもしれないという、第一歩的な研究成果が発表されたということになります。……(中略)次の目標としては、実際にこのエラー訂正機能がちゃんと動作する論理量子ビットを作るということになります」(中井氏)
※論文タイトル「Suppressing quantum errors by scaling a surface code logical qubit」(2023年2月)
次に中井氏は、グーグルにおける量子コンピューター開発は、「ハードウェア開発」と、量子コンピューターの計算方法を研究する「量子アリゴリズム研究」という2つのチームに分かれていると述べ、両チームがそれぞれ注力する課題やテーマについて説明した。
その中で特に大きな関心を集めていたのが、「量子アルゴリズム研究」チームの取り組みだ。
量子コンピューターは、従来のデジタルコンピューターにはない量子の特性(量子重ね合わせなど)を利用した計算原理を用いるが、これにより、量子コンピューターでしか実行できない特殊な量子アルゴリズム(計算方法)を実行できる。この量子アルゴリズムの中には、デジタルコンピューターで用いられる従来のアルゴリズムよりも指数関数的に速く計算できるものもあり、このことが、「量子コンピューターがデジタルコンピューターよりも圧倒的に速くに計算できる」と言われる理由となっている。
「量子アルゴリズム研究」チームは、こうした量子アルゴリズムを研究対象としており、現時点では、「エラー訂正機能」を効率的に行うための量子アルゴリズムの研究開発に力を注いでいるという。
中井氏は、同チームの近年の大きな研究成果のひとつとして、ロードマップ説明時に触れたエラー訂正機能の有効性を実証した論文の発表を挙げ、その内容について解説した。
現在、同チームでは、複数の量子ビットを束ねて、ひとつの論理量子ビットを実現しようとしている。これは、(ひとつの論理量子ビット内の)複数の量子ビットを連携させて、計算上のエラーの発見や訂正などを行うものだが、グーグルが開発している仕組みを簡単に説明すると、以下のようになるという。
例えば、量子ビットが2つあったとしたら、原理的には「00」と「01」と「10」と「11」という4種類の値を表現できることになる。この中で、「値の合計が偶数になるものだけ計算に使える」というルールを決めておくと、実際の計算に使えるのは、「00」と「11」ということになる。そのうえで、計算処理を進めながら、このルール通りに計算が行われているかをチェックすることで、エラーの発生を検知できるとのことだ。
「もちろん(今挙げた)2つの量子ビットだけでは、エラーは検知できても、どんな風にエラーが起きたのかわからないため、修正はできません。そこで、論理量子ビットを構成する(物理的な)量子ビットの数を増やしていくことで、検出可能なパターンを増やしていく。そうすることで、訂正可能なエラーのパターンをどんどん増やしていこうという発想です」(中井氏)
この説明を聞くと、なるほど、それならエラー訂正機能を実現できるかもと思われるかもしれない。しかし、現実はそう甘くない。なぜなら、論理量子ビットとして束ねる数を増やせば増やすほど、検知できるエラーのパターンは増えるものの、その一方で、発生するエラーの回数やパターンも増えてしまうからだ。
「量子ビットの数を増やすと、エラーが発生する確率も増えるため、実はこれはトレードオフになる。単純に数を増やせば信頼性が高まるかというと、そんなことはないのです」(中井氏)
では「量子アルゴリズム研究」チームは、どのようにして信頼性を上げていったか。中井氏によると、「ひとつひとつの量子ビットのエラー発生率を抑えていくこと」で信頼性を上げたという。
同チームでは、各量子ビットのエラー発生率を下げつつ、3×3個、9個の量子ビットを重ねた場合と、5×5個、25個の量子ビットを重ねた場合の信頼性を比較していくことで、ようやく「5×5個の量子ビットを重ねた場合の方が、信頼性が高くなる」結果に辿り着くことに成功したとのこと。
「これによって、世界で初めて、量子ビットの数をどんどん増やしていくことで、論理量子ビットの信頼性を高めていくことができるという可能性が示されました。将来的に、よりたくさんの数の量子ビットを束ねることで、より信頼性の高い論理量子ビットが実現でき、非常に高い信頼性を持った計算処理が実現できるようになる。その第一歩がようやく示された、そんな研究成果になります」(中井氏)
* * *
講演の中で、ときおり中井氏が、「(圧倒的な計算処理能力を持つ量子コンピューターを)実現できると“信じている”」といった慎重な表現をしていたのが印象的だった。近年の量子コンピューター開発の過熱状況を目にしていると、「実用化は近い」とつい思い込んでしまいそうになる。しかし実際には、障壁はまだまだ多く、その壁はどれも容易には乗り越えられないというのが実情のようだ。量子コンピューター開発のさらなる加速に期待しつつも、もう少し冷静に見守る必要もあるのかもしれない。