MerchantBank Consulting
サブページ画像

量子誤り緩和及び量子誤り訂正に関する論文レビュー

■目次■
 Ⅰ 量子誤り緩和策を実験で比較した論文(2022年10月13日)
 Ⅱ 損益分岐点を越えたことを示唆する実験結果を得たと主張する論文(2022年11月16日)
 Ⅲ 量子誤り訂正符号に最適化されたハードウェア設計に関する論文(22年11月11日)
 Ⅳ 量子誤り訂正符号において、サイズによる性能スケーリングが存在することを実証したと主張する論文(23年2月22日)
 Ⅴ トランズモンベースで”消失”量子誤り訂正を成功させた、と主張する論文(23年7月19日)
 Ⅵ 誤り耐性万能量子計算に至るスケールアップへの道筋をつけた、と解釈できる論文(23年12月6日)
 Ⅶ 伝搬光でGKP量子ビットを生成したと主張する論文(24年1月18日)
 Ⅷ ハードウェア効率の高いQLDPC符号を発見した主張する論文(24年3月27日)

Ⅰ 量子誤り緩和策を実験で比較した論文 
 Unitaryファンド[*1]、スイス連邦工科大学ローザンヌ校及びゴールドマン・サックスは、「量子誤り緩和(QEM)技法の効果を評価した」論文をarXivにて公開した(2022年10月13日付け)[*2]。なおQEMを理論的に幅広くレビューした論文としては、例えば[*3]がある。

【1】効果を評価したQEM技法
 QEMとしては、代表的な技法である、ゼロノイズ挿入(ZNE)[*4]と確率的誤りキャンセル(PEC)が選択されている。QEMは、mitiqを用いて実装されている。
 ZNEについては、さらに、線形外挿とリチャードソン外挿とに細分されている。当該論文では、線形外挿を行ったZNEはZNE(L)と表記されている。リチャードソン外挿はZNE(R)である(右と左のL、Rではない)。従って、3パターンのQEMが評価対象となっている。
 PECについては2つの単純な仮定が置かれている。
 i) 1量子ビットゲートの誤差を無視する。
 ii) 全ての2量子ビットゲートには、(局所)脱分極ノイズ[*5]を想定する。

【2】ハードウェアとテストベッド
 評価は、合計5種類のハードウェア及び2種類のテストベッドに対して行われた。ハードウェアは、超伝導トランズモン方式((1)IBM Q Limaと(2)Rigetti Aspen-M-2)とトラップイオン方式((3)IonQ Harmony)の量子ゲート方式量子コンピュータに加えて、ノイズあり量子コンピュータ・シミュレータが取り上げられた。量子ビット数nは、(1)では3と5、(2)と(3)では3である。
 シミュレータは、(4)2量子ビットゲート実行後に1%の脱分極ノイズ[*6]を想定するシミュレータと、(5)IBMの量子コンピュータにおける誤り率を、そのままエミュレートするシミュレータ、の2種類である。ちなみに誤り率は、a. 1量子ビットゲートの平方根Xゲート誤り(10-4のオーダー)、b. 平均CNOTゲート誤り(10-2のオーダー)、c. 読み出し誤り(10-2のオーダー)、のそれぞれに与えられている。
 そして、テストベッドは、ランダム化ベンチマーク回路(RB回路)と、ミラー回路が選択された。

【3】評価指標μ
 QEMの効果は、①QEMを行わずに得た可観測量(observable)の期待値、②QEMを行って得られた可観測量の期待値、それぞれと③ノイズのない期待値との平均二乗誤差(RMSE)で評価する。{①,③}のRMSEと{②,③}のRMSEとの比(すなわち、RMSE(①、③)/RMSE(②、③))を当該論文では、改善係数μと呼んでいる。μ>1であれば、QEMの効果があるということになる。

【4】結果
 『ハードウェアによって、QEMの効果が異なる』点が面白い。QEMの効果は、ほとんどの場合、(4)が一番高い。(1)IBMは、ほとんどの場合、μ≧1である。これはn=3でもn=5でも変わらなかった。一方(2)と(3)は、ZNE(R)とRB回路の組み合わせにおいて、ほとんどμ<1であった。(2)は、ほとんどの場合でμ≦1であり、QEMは有効でなかった。(3)は、ZNE(L)においては、有効であった。
 PECは、ZNEに比べて有効ではなかったが、使用しないよりは使用した方が良かった。
 (5)では、n=12量子ビットでのシミュレーションを行っている。μ≧1であり、nが大きくなってもQEMが有効であることを確認したとしている。また、全てのケースで、RB回路のμがミラー回路のμよりも大きいという結果が得られた。

【5】今後の課題
 以下のような、今後の課題(と反省)を上げている。
 ◆ QEM技法は、わずかに2種類である。
 ◆ 量子コンピュータでは最大5量子ビットまでしか、カバーできていない。
 ◆ テストベッドはランダム回路のみであり、構造化回路をカバーしていない。
 ◆ 複数のQEMを組み合わせた場合をカバーしていない。

Ⅱ 損益分岐点を越えたことを示唆する実験結果を得たと主張する論文 
【1】概要
 米イェール大と加シャーブルック大の研究者が、ボゾニック符号の一つであるGKP(Gottesman-Kitaev-Preskill)符号を使って、「損益分岐点を越えたことを示唆する実験結果を得た」と主張する論文を発表した(2022年11月16日)[*7,*19]。GKP符号は、(言わずもがな)有限エネルギーGKP符号である。
 損益分岐点(break-even pointの”正式な”和訳。管理会計上の用語ではない)を越えるとは、量子誤り訂正符号を使った量子計算を実行することで、誤りが(蓄積されることなく、むしろ)減ることを意味する。つまり、誤り耐性量子計算を保証する。著者達は、この実験研究の肝を『稀に発生する大きなエラーを無視することなく、頻繁に起こるエラー訂正を優先的に行うことで、誤りを効率的に除去』するところ、と述べている。
 リアルタイム強化学習を使っているところが面白い(機械学習・強化学習の活用自体は、本研究のオリジナリティではない)。強化学習モデルには、Proximal Policy Optimization(PPO)[*8]を使用している。ゲインが最大になるように、パラメータ付QEC(量子誤り訂正)回路の各種パラメータ推定する。ゲインが1を越えると、損益分岐点越えである。

【2】セットアップ
 量子誤り訂正回路(QEC回路)は、①制御用の補助量子ビットと②超伝導共振器との結合系である[*9]:①=(タンタル・ベースの)超伝導トランズモン量子ビット。②=(アルミニウム・ベースの)超伝導共振器。QEC回路は、2つのユニタリーゲートU0とUbに分解(コンパイル)される。メインはU0であり、Ubは調整や補償を担うユニタリーゲートである。
 QEC回路にGKP符号を適用する場合、QEC回路は、変位演算子と回転演算子の組みで構成する。変位演算子は、真空状態|0⟩を平行移動させて、一般のコヒーレント状態|β⟩へ変化させる。GKP符号は、変位演算子Dを使って、小さい変位の重ね合わせで誤り訂正を行う、誤り訂正符号方式である。GKP符号においては、QEC回路を、どのような変位演算子と回転演算子の組み合わせで表現するか、というデザイン・ルールを、プロトコルと呼ぶ。本研究では、QEC回路=U0+Ubで、small-Big-small(sBs)プロトコルを採用している。sBsプロトコルについては、再度【3】で取り上げる。
 エラーは、補助量子ビット・共振器ともに、Amplitude-dampingエラー[*10]と、白色雑音Dephasingエラーを想定している。Depolarizing(脱分極)エラーは考えていない。ちなみに、GKP符号は、Amplitude-dampingエラーと相性が良いとされる。

【3】sBsプロトコルについて
 U0を、変位演算子と回転演算子で表現する、あるいは(トロッター)分解する、主要なプロトコルは、主に3つある。sBsプロトコル、Big-small-Big(BsB)プロトコル、そしてSharpen-trim(ST)プロトコルである。歴史的には、まずSTが提案された。STは1次のトロッター分解で、2つのステップで構成される。sBsとBsBは、2次のトロッター分解である。STは、sBsとBsBを組み合わせることで、表現できる。
 本研究では、正確には、sBsプロトコルの修正版が使われている。U0を、echoed制御変位(Echoed Controlled Displacement)演算子(ECD演算子)と量子ビット回転演算子の組に分解している。制御変位演算子の改良版であるECD演算子は、変位演算子Dを使って、
        ECD=D(β)|e⟩⟨g+D(-β)|g⟩⟨e| 
で定義される。ここで、|g⟩は補助量子ビットの基底状態、|e⟩は補助量子ビットの励起状態を表す。
 量子ビット回転演算子Rφ(θ)は、
        Rφ(θ)= exp[-i(θ/2)(cos ϕσx + sin ϕσy)] 
で表される(σは、パウリ演算子である)。

【4】ゲイン(利得) 
 共振器{0,1}の減衰係数Γ{01}とGKPの減衰係数ΓGKPの比をゲインとする。Γ{01}GKP= 2.27 ± 0.07で、1を大きく越える。Γ{01}は、Γ{01}= (1/T1 + 2/T2)/3で計算している。ここで、T1は、エネルギー緩和時間であり、T2は、位相緩和時間である。式に数値(T1=610μs、T2=980μs)を代入すると、Γ{01}=(815 µs)-1が得られる(論文オリジナルでは(800μs)-1となっている)。
 一方ΓGKPは、ΓGKP=(1/TX+ 1/TY+ 1/TZ)/3で計算している。 ここでTX、TY、TZは論理パウリ固有状態の寿命である。寿命は以下のように計算してると思われる:初期状態に戻すという(ランダム化ベンチマーク回路と同じ)論理演算にQECを適用する。初期状態に戻れば成功、戻らなければ失敗とカウントする。論理演算のサイクル時間に成功確率をかけると、平均寿命とコンパラな値が得られるだろう。計算式に、本実験で得られた数値(TX = TZ = 2.20 ± 0.03 ms、TY = 1.36 ± 0.03 ms)を代入すると、ΓGKP = (1.82 ms)-1が求められる。結局、Γ{01}GKP =2.24となる (オリジナルでは、2.27 ± 0.07)。1を大きく越えているので、損益分岐点越えと主張している。

【5】まとめ
 (1) 課題としては、以下が上げられている:補助量子ビットの位相反転誤差に対して設計上、耐故障性を有しているが、ビット反転に対しては、対象外。また脱分極ノイズも考慮されていない。
 (2) この研究は、{①強化学習を用いたパラメータ推定コントローラ、②超伝導共振器と超伝導量子ビットで構成されるQEC回路、③GKP符号}という座組を用いて、損益分岐点を越える兆候を捉えた、という内容である。そもそも、それで良いのか?という疑問が湧く。例えば、米Quantinuumが22年8月4日に発表した論文[*11]では、SPAM演算ではあるが、CNOTゲートを使って、損益分岐点越えの兆候が見られたと述べている(彼らは、量子誤り訂正符号として、カラー符号を使っている)。2量子ビットゲートを使った、意味のある演算で、損益分岐点を越える結果が求められるように思う。
 (3) なお前述したように、量子誤り訂正に強化学習を活用すること自体は、本研究のオリジナリティではない。少なくとも、『量子誤り訂正に必要な物理的リソース低減を目的に、強化学習を使用したリアルタイム・ニューラルネットワークを組み込んだ量子コントローラを開発する』Artemisプロジェクトが始動している(22年4月から3年間)。このプロジェクトは、学術界及びスタートアップが主導している。スタートアップとは、①仏のH/WベンダーAlice&Bobと、②イスラエルのS/WベンダーQuantum Machinesである。①は、ボゾニック符号として、猫符号を使っている。②は、古典コンピュータと量子コンピュータが最適なバランスで協業できる環境を構築することを目指している。

Ⅲ 量子誤り訂正符号に最適化されたハードウェア設計に関する論文 
【1】概要
 米Rigetti Computing(超伝導方式の量子コンピュータを開発している新興企業)と米大手投資銀行ゴールドマン・サックスは、金融アプリケーション(デリバティブの価格評価)に必要な規模で、物理的なオーバーヘッドを適度(15%減)に削減可能と推定される、量子誤り訂正デザインを提案した(22年11月11日、arXivにて論文[*12]を公開)。
 [*12](以下、本論文)では、このデザインを、ハードウェア最適化パリティ(Hardware Optimized Parity:HOP)デザインと呼んでいる。HOPデザインは、「1つの量子ビットが、非対称の調整可能なカプラを介して、最近接結合された正方形に配置された平面トランズモン」に基づいている。
 なお『標準』とは、典型的な表面符号アーキテクチャを使用した場合を指している。

【2】HOPゲート、HOP表面符号及びHOP回路
 以下、HOPデザインを構成する、HOPゲート、HOP表面符号、HOP回路について説明する。
(1) HOPゲート
 量子ゲートは、マルチ量子ビットゲートである。イオントラップ方式のマルチ量子ビットゲートであるMølmer-Sørensenゲートに触発されているようである。具体的には、単一の5量子ビットもつれゲート(HOPゲート)である。1つのスタビライザー量子ビットと、結合強度が等しい4つのローカルデータ量子ビットとの、分散ZZ相互作用によって、5量子ビットのHOPゲートを実現する(なお、HOPゲートのメカニズムには、熱放散に対するシステム設計の考慮事項も含まれている)。
 HOPゲートでは、4つのデータ量子ビットのパリティチェックを、1回の操作で行うことができる。その反面、標準回路で可能だった、全てのパリティチェックを並列で実行する機能は失われる。エラーモデルを正当化するtwirling[*13]ステップを含めるために、各マルチ量子ビットゲートの前後に余分な時間も必要となる。本論文では(典型的なゲートモデル構成では)、HOPゲート時間は100nsと推定されている。
(2) HOP表面符号とHOP回路
 HOPデザインにおける表面符号はHOP表面符号と呼ばれる。HOP ゲートに基づいて最適化されたパリティチェック(シンドローム測定)回路は、HOP回路と呼ばれる。
 本論文では、HOP表面符号について、次の3つを発見したとする:❶HOP表面符号のフォールト・トレラントしきい値は、標準表面符号で推定されるしきい値の約1.5倍、❷CNOTスケジュールを最適化した標準表面符号と同じ数のエラーを訂正しない、❸標準表面符号と比べて、大きな時空間リソースを必要としない。❷にも関わらず、❶のために「デリバティブのプライシングに必要な規模で、物理的なオーバーヘッドを15%削減可能」と推定している。

【3】誤り訂正シミュレーション
(1)エラーモデル
 誤り訂正をシミュレートするために本論文で使用する、回路レベルのエラーモデルは、以下の通り:任意の単一量子ビットゲートの後に、強度p1 = p/10 の単一量子ビット脱分極チャネルが続く。ここで、pは、エラーモデルを特徴付ける単一のパラメーター。補助量子ビットの準備と測定は、確率ppm = p/2 で失敗する。準備の失敗は、意図したものと直交する状態の準備を引き起こす。測定の失敗は、測定結果を反転させる。
 標準回路の場合、2量子ビットゲートの失敗率 p2は、「2量子ビット ゲートを使用して、完全な単一パリティ チェックを実行するプロセスの忠実度」が、「 5量子ビット HOP ゲートを使用して、パリティ チェックを実行するプロセスの忠実度」と等しくなるように設定する。これにより、HOP ゲートからの重みの高い相関エラーの影響を、2量子ビットゲートの失敗によって引き起こされる重みの低いエラーと比較して特徴付けることができる。
(2) シミュレーション・セッティング
 Stim[*14]を使用して、シンドローム測定回路で障害パターンとそれに関連するシンドローム パターンのモンテカルロ サンプルを生成する。 サンプルごとに、PyMatching[*15]を使用して Python で実装された最小重み完全一致デコーダーに結果をフィードし、デコーダーの修正が論理エラーの原因であるかどうかを記録する。
 シミュレーションの結果は、HOP回路のしきい値=約 1.25×10-3、標準回路のしきい値=約 0.79 × 10-3(約1.58倍)であった。
(3) リソース推定
 量子優位性が得られる、デリバティブの価格を評価する量子アルゴリズムを実行するには、およそ 1010の論理演算が必要である。業界でコンセンサスが得られている、合理的な仮定の下で、10−10という、論理誤り率を達成することを目標とする。目標達成に十分な距離の表面符号を実装するために、必要な物理量子ビット数と時空間量の2つのリソースを、標準方式とHOP方式で比較した(時空間量とは、物理量子ビット数と論理エラー訂正サイクルを完了するのに必要な時間ステップの積で定義される)。結果は、以下の通り。
 ❶標準表面符号を使用した場合よりも、小さな距離のHOP表面符号を使用して、目標誤り率を達成できる。❷ 時空間量については、物理エラー率が高い場合には、2つの方式は比較的均等にマッチするが、物理エラー率が低い場合には、標準方式が有利である。

【4】まとめ
 膨大な量子ビット数が必要とされる中、現時点で、15%の削減は、あまり響かないかもしれない。著者もそう思ったのか、二の矢を用意している。
 『HOP ゲートを実行する場合、全てのDC 電流バイアスは、ツイストペア(TwP)超伝導ワイヤを介して伝送できる。これだけでも、2量子ビット信号の希釈冷凍機の(最も冷たいステージでの)受動熱負荷が1/100に減少する。さらに、高速の2量子ビットゲート・パルスから、アクティブな熱負荷を排除することで、総熱収支をさらに10% を改善できる。物理量子ビットの数を 2 倍にしながら、同じ熱フットプリントを維持することが、HOP ゲートの主要な動機であることが証明される可能性がある』。
 超伝導量子ビットが耐誤り量子コンピュータのモダリティとして選ばれない未来を想定すると、これもそれほど響かないかもしれない。

Ⅳ 量子誤り訂正符号において、サイズによる性能スケーリングが存在することを実証したと主張する論文
【1】概要
 Google(Quantum AI)の研究者による「量子誤り訂正の性能が量子ビット数の増加とともに向上することを実験的に示した」と主張する論文[*16](以下、本論文)がnatureにて公開された(23年2月22日。arXivには22年7月投稿)。
 日本経済新聞(2月23日朝刊15面)にも、すかさず登場した:量子計算機「最大の課題」 エラーの克服へ道筋 グーグルが研究成果 

【2】セットアップ
(1) ハードウェア
1⃣『単一量子ビットゲート=回転ゲート、2量子ビットゲート=制御Z(CZ)ゲート。初期化(リセット)、測定』を、72個のトランズモン量子ビットと121個の調整可能カプラを持つ、シカモア(Sycamore)デバイス上に実装した。つまり、ユニバーサル・ゲートを備えた、万能量子計算が実行可能な環境を構築した。量子ビットは(境界を除いて)、4つの最近傍量子ビットに結合している。なお、平均コヒーレンス時間は、T1=20μs、T2=30μsである(T2の測定シーケンスは、Carr-Purcell-Meiboom-Gillパルスシーケンス)。
2⃣ サイクル時間は、回転ゲート=25ns、CZゲート=34ns、リセット=160ns、測定=500ns、を含めて921ns。つまり、データ量子ビットのアイドリングが支配的なエラー源となることが予想される(ので、下記DDゲートを加えているのだろう)。
3⃣ スタビライザー回路には、意図しない量子ビットの周波数シフトを補正するための位相補正や、量子ビットがアイドル状態のときの動的切り離し(DD)ゲートなどの変更が加えられている。

(2) 符号、復号とノイズ
1⃣ 距離5と距離3の表面符号を実装している。❶25データ量子ビット+測定用の24補助量子ビット=49量子ビットの距離5表面符号、及び❷9データ量子ビット+測定用の8補助量子ビット=17量子ビットの距離3表面符号、を(1)のハードウェア上で実装した。以下、距離5の表面符号を距離5、距離3の表面符号を距離3と略する。
2⃣ 2種類の復号アルゴリズムを採用している。具体的には、❶信念伝搬法(※1)と、最小重み完全マッチング(※2)の組み合わせ「信念マッチング復号アルゴリズム」及び、❷近似最尤復号アルゴリズムである「テンソルネットワーク復号アルゴリズム」を採用している。なお、検査演算子は(言わずもがな)パウリ演算子である。
 ※1…Belief Propagation.確率伝搬法とも言う。確率推論のための近似アルゴリズムの一つ。 ※2・・・検査演算子の測定結果から、誤りが発生した量子ビットを推定する一般的なアルゴリズム
3⃣ ノイズは、脱分極ノイズを適用している。非現実的であるが、シミュレーション上は一般的なノイズである。

【3】シミュレーション結果
(1) 比較方法
 検出率及び誤り率が比較対象。距離5の論理量子ビットを、4つの「距離3の論理量子ビットで構成されるサブグリッド」の平均と比較する。 

(2) 検出率
1⃣ 本論文では、シンドローム測定において誤りイベントを検出する確率=検出率を、5万個の実験インスタンスで測定している。❶重み4(つまり、測定量子ビット×1+データ量子ビット×4)スタビライザーの場合、平均検出率は、距離5表面符号で(0.185±0.018)%、距離3表面符号で平均(0.175±0.017)%であった。❷重み2スタビライザーの場合、距離5では(0.119±0.012)%、距離3では(0.115±0.008)%。
 この結果を受けて、本論文では「符号距離間の相対的な整合性は、格子を大きくしても、誤り訂正時の誤り率を、実質的に増加させないことを示唆している」と結論している。
2⃣ 平均検出率は、25サイクルの間に距離5で12%、距離3で8%の相対的な上昇を示し、典型的な特性上昇時間はおよそ5サイクルであった。
 本論文では、この上昇の理由を「データ量子ビットが非計算励起状態にリークしたため」と分析しており、「データ量子ビットのリーク除去技術が、この上昇を軽減するのに役立つ」と予想している。また、「距離5表面符号における検出率の上昇は、より多くのゲートと測定を同時に行うことによる、浮遊相互作用やリークの増加によるものである」と推論している。

(3) 誤り率
1⃣ 本論文では、論理量子ビットゲートにおいて誤りが発生する確率=誤り率の測定において、リークや高エネルギーイベントのポストセレクションは行っていない。
① テンソルネットワーク復号アルゴリズムを用いた場合。1サイクルあたりの論理誤り率は、距離5= (2.914 ± 0.016)%、距離3= (3.028 ± 0.023)% 。相対誤差が約4%減少している。
② 信念マッチング復号アルゴリズムを用いた場合。1サイクルあたりの論理誤り率は、距離5=(3.056 ± 0.015)%、距離3=(3.118 ± 0.025)%で、相対誤差が約2%減少している。
2⃣ 本論文では、「論理誤り率が50%に近づくと、リークの蓄積によって距離5の性能が距離3よりも速く劣化する可能性がある。原理的には、距離5の論理性能は、物理誤り率が低下すると、距離3よりも速く向上するはず」と述べ、実証している。具体的には、アイドリングなどを最適化することで物理誤り率を改善し、”物理誤り率が低い”場合は「距離5の論理性能が、距離3よりも速く向上する」ことを示した。
3⃣ さらに本論文では、どの誤り発生源が支配的かをシミュレーションしている。その結果、❶CZゲート由来が45%、❷DDゲート由来が20%程度(❶+❷でおよそ2/3)であることが示されている。測定、リーク、回転ゲートでの誤りは、相対的に小さい(DDゲートはextraなので、評価が難しい?)。

【4】結論
(1) 本論文の結論は、❶ならば❷である:❶物理誤り率が低い。❷量子誤り訂正の性能は、量子ビット数の増加とともに向上する。
(2) 本論文の意義1は、物理誤り率が(十分に)低ければ、「量子誤り訂正符号において、サイズによる性能スケーリングが存在する」と期待できる、と示したことであろう。例えば、あるサイトには、『符号自体が長くなったらエラーを起こすbit の期待値が比例して増えてしまうから、意味がないのではと考える人がいるかもしれません。しかし、実際には、訂正可能ビット数の増加によるエラー率の減少は指数的であるため、それは問題になりません。』とあるが、実際は、もう少しナイーブな議論が必要であることを示している。
 ただし、物理誤り率が低いとは、定量的に、どの程度か?を明示できていない。『「少なくとも、部品性能を20%」、「実用的なスケーリングを達成するためには、それ以上に大幅に」向上させる必要があると推定される』と述べられているだけである。
 さらに、以下のように続く:『これらの予測は単純化されたモデルに依存しており、最終的に望ましい論理性能を実現するためには、より大きな符号サイズとより長い期間をテストして、実験的に検証する必要がある』。つまりは、まだよく分からない、というレベルである。
 本論文では、CZゲートが支配的な量子誤り発生源と名指しされているが、2量子ビットゲートの忠実度を向上させることの重要性は、広く認識されている。東芝は、ダブル・トランズモン・カプラで、2量子ビットゲートで忠実度99.99%を(シミュレーション上は)達成できる、と発表している(22年9月)[*17]。いずれにしてもカプラは、超伝導方式で誤り耐性量子計算を実現させる、クラウンジュエルかもしれない。なお、本論文のプレプリントがarXivに投稿されたのは22年7月なので、キャッチ出来なかったのだろう。
(3) 本論文の意義2は、物理誤り率を低下させても、新たな量子誤り発生源との戦いがあることを明示したことにあるだろう。それは、❶脱分極ノイズが想定していないタイプのYエラー、❷バーストエラー、である。
 ❶に対しては、本論文がパウリ+と呼ぶシミュレーションで、比較的精度良く捕捉できることを示している。❷に対しては、「宇宙線の衝突のような、相関性の高い誤差を発見し緩和することは、今後の重要な研究分野である」と述べている。なお、バーストエラーに関しては、低オーバーヘッドで推定する手法が開発されている(22年9月30日、九大・東大)[*18]。これも昨年9月なので、間に合わなかったのかもしれない。

【5】考察
(1) 「量子誤り訂正符号において、サイズによる性能スケーリングが存在するか」議論の前に、「そもそも(トポロジカル表面符号で)損益分岐点は実現できるか」議論が、曖昧・不明確と思われる(理屈の上では実現できると考えられているが、実機上で本当に実現できるかが曖昧・不明確)。GKP符号で損益分岐点を越えたと主張する論文は、上部のⅡを参照。
(2) また、「距離5と距離3の比較が、信頼できるのか?」について、議論の余地はないのだろうか。
(3) トランズモン量子ビットに、符号サイズによる性能スケーリングが存在しても、どこかでピークアウトするかもしれない。つまり、丁度良い符号サイズ(距離)というものが、存在するかもしれない。それが判明すると、色々な意味で有用だと思われる。

Ⅴ トランズモンベースで”消失”量子誤り訂正を成功させた、と主張する論文

【0】はじめに
 AWS他の研究者は、トランズモンベースの消失量子ビットを使った量子誤り訂正を成功させた、と発表した(arXivにて23年7月19日公開論文[*20]公開)。本稿では以下、消失量子ビットによる量子誤り訂正を『消失量子誤り訂正』と呼称する。消失量子誤り訂正は、米イェール大他の研究者によって、中性原子方式で最初に実施されており(22年8月9日論文[*21]公開)、[*20]はその超伝導方式版と考えられる。
 以下では、論文[*20](以下、本論文)に[*21]及び[*22]を織り交ぜて、この新しい量子誤り訂正方式について整理する。

  【1】本論文他の主張
 本論文は、「トランズモンベースの消失量子ビットが十分機能することを示した」と主張する(本論文における消失量子ビットは、デュアルレール量子ビット、と呼ばれる)。[*21]は、「消失量子誤り訂正 で、❶論理誤りしきい値が大きく増加し、❷誤り訂正におけるハードウェア効率が高まる、ことを示した」と主張する。

【2】事前整理
(1) 背景
 消失量子ビット、について説明(定義)する前に、消失量子誤り訂正を採用するモチベーションを明らかにしよう。それは【1】でも述べたように、ハードウェア効率が高い(英語では、hardware-efficient)量子誤り訂正方式を構築したい、ということである。つまり、量子誤り耐性(フォールト・トレラントな)量子コンピューター(FTQC)のリソース・オーバーヘッドを、大幅に削減したい、というのが動機である。
 ほとんどの物理量子ビットは、量子ビットで張られるシステム空間内で発生する検出不可能な誤りを発生させる。一方、消失量子ビットは、主な誤りが、計算部分空間からのリーク(漏れ)であり、リアルタイムで(控えめに言うと、高速に)検出できる。計算部分空間からのリークが消失誤りであり、消失誤りは、効率的に訂正できる。このため、誤り訂正しきい値が高くなり、論理誤り率が低下する。なお、消失誤りについては、下記(3)1⃣で、システム空間と計算部分空間は(3)2⃣で、説明する。
 補足的に述べると、消失量子ビットの実装は、中性原子/捕捉イオン/超伝導量子ビットを含む、いくつかのモダリティで提案されていたが、中性原子で最初に実装された。

(2) ハードウェア効率が高い量子誤り訂正
  ハードウェア効率が高い量子誤り訂正と言えば、ボソニック符号を用いた誤り訂正が、すぐに思い浮かぶ。GKP符号であり猫符号である。ボソニック符号は、基本的に調和振動子である超伝導共振器を使うことで、”多数”のエネルギー準位によって形成される大きな状態空間を、誤り訂正に使う。つまり、ハードウェア(量子ビット)ではなく、共振器内の”多数”のエネルギー準位を誤り訂正に使うことで、 ハードウェア的高効率を達成する。
 もっとも、消失量子誤り訂正の文脈で共振器を捉えると、次の性質が重要である:「共振器内のデコヒーレンスは、光子損失によるエネルギー緩和(T1減衰)が支配的で、位相緩和(T2減衰)がほぼ無視できる」。同じボソニック符号である猫符号では、光子損失に対し、ビット反転誤りが(指数関数的に)抑制されて、位相反転誤りが支配的になる。光子損失は消失に他ならない。ボソニック符号は、他の量子誤りを抑制(誤り抑制)することで、特定の量子誤りを支配的にしている。これは、消失量子誤り訂正と、思想を共有している。
 以下では、消失量子誤り訂正は、ハードウェア効率が高い量子誤り訂正と思想を共有している、というフンワリした内容を越えて、「消失量子誤り訂正は、従来の方法に比べて、ハードウェア効率が高い」ことを示していく。
 なお消失誤りは、あるサイト[*23]では「扱いが難しいエラー」として紹介されている(もちろん、それは正しい!)。そういった量子誤りを使った、誤り訂正が容易である、というところが面白い。

(3) 消失誤り
1⃣ まず、消失誤りについて定義する。消失誤り(英語では、erasure error)は元々、古典的符号理論(符号化理論とも言われる、誤り訂正符号の理論)において考慮されていた誤りで、「0か1か”判別不能な”シンボルが、どの位置にあるか、分かっているエラー」[*24]である。削除誤り、挿入誤りといった誤りと同列に論じられていた。量子計算の文脈では、「適当な測定(による失敗情報)によって、誤りが起きた位置を特定できる誤り」と表現できるだろう。消失誤りは、古典設定と量子設定の両方で、脱分極エラーよりも、修正がはるかに簡単である[*21]。
 重要なことは、「誤りが起きた位置を特定できる」ということは、その「誤りを生じさせた量子ゲートも特定できる」ということである。誤りを生じさせた量子ゲート操作を、改めて行うことで、誤り訂正がリアルタイムに実行できる。
2⃣ 天下り的に、数学的な表現を補足する[*25]。量子ビットで張られるシステム空間(もちろん、数学的に言うと、ヒルベルト空間)には、 システムの望ましくない時間発展によって、誤りが追加発生する。誤りが消失誤りの場合、結果としてシステム空間は、互いに素な部分空間(計算部分空間とその直交補空間)に直和分解される。消失誤りは、直交補空間にリークし、直交補空間で検出される。この表現を用いると、消失量子誤り訂正は、従来手法に比べて大きな利点を持っている、という主張に納得できるだろう。

(4) 消失量子ビットと消失量子誤り訂正
1⃣ 消失量子ビットを、どうやって構成するかは【3】で扱うので、ここでは、脇におく。さらに、木で鼻を括ったような定義をすると、消失量子ビットとは「量子計算実行中に生じる(主な)量子誤りが、消失誤りである」ような、物理量子ビットである。消失量子ビットから生じる主な量子誤り(消失誤り)は、計算部分空間から直交補空間へのリークであり、リアルタイムで検出できる。
 要件定義をすると、消失量子ビットは、①計算部分空間内の残留誤りに対して、消失誤りの比率が高い、②計算部分空間内に追加の誤りを導入することなく、消失誤りを検出できる。
2⃣ 古典的符号理論において、ビット反転誤りと消失誤りには密接な関係がある、ことが知られている。例えば、「高々t個までのビット反転誤りを訂正できる符号は、その 2倍までの消失誤りを訂正できる」[*24]。少なくとも、「消失量子誤り訂正のために特殊な符号が必要、というイヤな状況には陥らない」。例えば、消失誤りに対して、表面符号を使うことができる。

【3】本論文及び[*21]における構成
(1) 消失量子ビットの構成
1⃣ 中性原子方式
❶ 消失量子ビット
 中性原子方式では、後述する超伝導方式と違って、回路構成的な工夫をすることなく、素材のポテンシャルのみで、消失量子ビットを構成できる。別の表現を使うと、追加ゲートや補助量子ビットを使わずに消失量子ビットを構成することが可能である。
 [*21]では、中性原子方式で支配的な「2 量子ビットゲート誤り」に焦点を当てている。そして、2量子ビット ゲートの誤りの主因であるリュードベリ状態からの自然減衰を、検出可能な、消失誤りに変換する。具体的には、171Ybを用いた、準安定電子レベルの超微細状態で量子ビットを符号化する。この準安定量子ビットの符号化により、基底状態への遷移を引き起こす量子誤りを、回路の途中(計算途中)で検出することが可能になる。
 詳しく言うと、「リュードベリ状態が、イオンコアの分極率によって、光ピンセットに捕捉されたままになる」というアルカリ土類原子独特の特性を利用することにより、減衰するのを待つことで、(計算部分空間から直交補空間へ)リークした誤りを再捕捉して、検出することができる[*22]。誤りの位置を(高速に)検出することができるので、量子誤りは消失誤りに変換される。中性原子方式の消失量子ビットは、この準安定量子ビット、である。
 より詳しい説明を行うと、リュードベリ状態は、放射減衰(RD)を介して「低位リュードベリ状態 」へ、あるいは、黒体放射(BBR)を介して「近くのリュードベリ状態」 へ、T1減衰する。そして、RDを介して低位リュードベリ状態へ移行するRDイベントの”大部分”は、準安定量子ビット部分空間を経由することなく、(真の)基底状態に移行する。[*21]では、 BBRを介して近くのリュードベリ状態へ移行するBBRイベントの割合が61%、基底状態へのRDイベントの割合が34%、という現実的な例を上げている(この例では、直交補空間に漏れた誤りが、計算部分空間に戻り、計算部分空間で発生させる誤りは、全体の5%ということになる)。
 なお、[*22]では、準安定量子ビットの主な欠点としては、準安定状態の存続時間が有限であるため、追加のエラー チャネルが発生する、をあげている。
❷ 消失変換
 量子誤りが量子の放出を伴う場合、原理的には消失誤りを検出できる(検出については、後述)。つまり、中性原子方式では、用いる原子種と使用するリュードベリ状態を、適当に選ぶことで、量子誤りを(自然に)消失誤りに、変換できる。これが素材のポテンシャルである。[*21]に即した言い方をすれば2 量子ビットゲート誤り(2 量子ビットゲートの実装に使用されるリュードベリ状態からの減衰)は、自然に、消失誤りに変換される。消失誤りへの変換を、消失変換と呼ぶ。
 なお[*22]では、消失変換の割合を増やすための改善策をいくつか上げている:再ポンピング遷移の工夫、光イオン化を抑制するためのより長いトラップ波長、バックグラウンド損失を低減するため、より良い真空を使用する。

  2⃣超伝導方式
 中性原子方式の[*21]では2 量子ビットゲート誤りであったが、本論文では、1量子ビットゲート誤りに焦点を当てている。超伝導方式において、消失量子ビットの構成をイメージするために、共振器量子電磁力学(共振器QED)を使った量子ビットをイメージすることが有用と思われる。本論文における消失量子ビットは、一対の共振結合トランズモンで構成されるデュアルレール量子ビットと、補助量子ビットで構成される。
 デュアルレール量子ビットの論理部分空間は、|01⟩と|10⟩の混成された対称状態と、非対称状態で構成される。この符号化により、トランズモンのT1減衰が、|00⟩ 状態へのリークとして、消失誤りに変換される。重要な点は、|01⟩ と |10⟩ の間の”強い”共振結合が、(構成要素である)トランズモンに対する周波数ノイズを抑制することである。ここにも、「深強結合領域では、いくつかの散逸チャネルが抑制されて、特定チャネルによる散逸が支配的になる」[*26]という、共振器QEDとのアナロジーがある。このノイズ抑制により、位相緩和に起因する誤りが(T1減衰の1/40に)抑制され、主な量子誤りは、エネルギー緩和に起因する消失誤りになる。
 なお、デュアルレール量子ビットの利点として、①特定周波数ではなく、広範囲の周波数で動作できる、②ノイズ抑制が受動的であるため、ゲート構成を複雑にしない、が上げられている。欠点として、⓵標準トランズモン・アーキテクチャよりも複雑、⓶追加の制御ラインが 1 つ必要、が上げられている。

(2) 消失検出
 消失誤りは、光量子ビットでは、自然に発生する。量子ビットが単一光子の偏光等で符号化されている場合、光子検出の欠如が消失の信号となり、消失誤りが検出できる。他方で、物質ベース量子ビットの誤り位置を検出する技術は、広く知られていなかった。
 中性原子方式では、準安定状態の量子ビットを乱すことなく基底状態への崩壊を検出するために、高速蛍光イメージングが用いられる。検出の忠実度は0.986 である。なお、消失検出できない誤りは、リュードベリ・ブロッケードにより強力に抑制され、検出可能な誤りの1万分の1未満である[*22]。
 以下、本論文に従って、超伝導方式の消失検出を説明する。量子計算実行中、システムが|00⟩(直交補空間)に減衰したかどうかを識別するために、定期的な消失検出が実行される。消失検出は、デュアルレール量子ビットが、直交補空間にあるか、計算部分空間(論理部分空間)に残っているかに応じて、補助量子ビットの分散シフトを利用することによって行われる。具体的には、補助量子ビットを共鳴励起する 540 ns のマイクロ波パルスと、それに続く340 ns の読み出しで構成される。消失検出のパフォーマンスを評価するための 3 つの指標がある。
❶ 誤検知エラー。誤りは発生していないが、消失誤りが発生したと、誤認識するエラー。
❷ 偽陰性エラー。消失誤りが発生しても、正しく認識されないエラー。
❸ 消失検出誘発横緩和。消失誤りが発生していない場合に、消失誤りを検出することによって引き起こされる、デュアルレール量子ビットの横緩和(T2減衰、英語ではdephasing)。
 なお本論文では、アイドリング中のデュアルレール量子ビットの主な誤りも、消失誤りであることを、確認している。

(3) パフォーマンステスト
 本論文では、2量子ビット ゲートと並行して消失検査が実行される、表面符号プロトコルを対象に、パフォーマンステストを行っている。消失検査エラーは、ゲートの実効エラーレートに追加され、消失検査がゲートよりも遅い場合には、消失検査に関連する時間により、追加の誤りも発生する。
 具体的には、ゲートあたり 1% の消失誤りと、ゲートあたり 0.1% のパウリ誤りに対して、ベンチマークを行っている。ちなみに、この誤り率のペアは、表面符号しきい値を十分に下回っている。
❶ 誤検知エラーの発生率は約 0.8% であった。これは、想定した消失誤り率1%とコンパラであり、要注意。
❷ 偽陰性エラーの発生率は 1.54% であった。偽陰性のケースで問題となるイベントは、消失誤りが発生したものの、消失検出時に認識されなかったために誤りが持続し、検出できないパウリ誤りに伝播するイベントである。そのようなイベントが発生する確率は、消失検査中の消失誤りの確率(〜 2.9%)に偽陰性率を掛けたものである。その値は、0.04% となり、想定したパウリ誤り率0.1% を下回っている。
❸ デュアルレール上でスピンエコー測定を実行し、各消失検査によって引き起こされる、横緩和を測定した。消失検出誘発横緩和の発生率は、0.1% 未満という保守的な上限が計算されている。想定したパウリ誤り率0.1%とコンパラであり、要注意。
 ❶と❸は黄色信号であるものの、本論文では、その解決に楽観的である。まず、消失検出総時間(540+340=880ns)について考察している。この時間は、2 量子ビットゲート・プロトコルの約200 nsよりも遅いため、ゲートあたり 大きな消失誤りに寄与する可能性がある、と指摘している。そして、より高速な消失検査は、より大きな分散結合と最適化された補助読み出し、または単一の対称的に結合された読み出し共振器を使用することによって実現できるため、解決が期待できると主張している。

(4) 魔法状態蒸留へのインパクト
 表面符号を使うのであれば、魔法状態蒸留は避けられない。ここでは[*21]を基に、消失変換による魔法状態蒸留へのインパクトを整理する。魔法状態蒸留は、欠陥のあるリソース状態のコピーをいくつか使用して、より少ないコピーをより低いエラー率で生成する。これにより、量子ハードウェアの大部分が消費されることが予想されるが、入力された生の魔法状態の忠実度を向上させることで、オーバーヘッドを削減できる。
 [*21]は、消失変換により、「魔法状態蒸留など、万能計算のためのよりリソース効率の高い誤り耐性のあるサブルーチンが実現できる」と主張する。消失が検出されたリソース状態を捨て去ることで、エラー率を下げることができる。具体的に、「消失変換を98%とすると、生の魔法状態の不忠実度が 1 桁以上減少し、魔法状態蒸留のオーバーヘッドが大幅に削減される」と試算している。

【4】シミュレーション結果とまとめ
(1) シミュレーション結果
1⃣ 中性原子方式[*21]
 消失変換することで、❶しきい値が大きく増加すること及び、❷誤り訂正におけるハードウェア効率が高まる、ことを示した。
❶  表面符号の回路レベルのシミュレーションの結果、脱分極エラーのしきい値0.937%に対して、消失誤りのしきい値は4.15% に、大きく増加する。
❷ しきい値付近の符号距離が大きくなり、同じ数の物理量子ビットの論理誤り率が、より速く低下する。
2⃣ 超伝導方式
 ❶デュアルレール量子ビットが消失量子ビットとして十分機能すること及び、❷消失検出が合格ラインであろう、ことを示した。
❶ 消失誤り確率は、2.19×10−3。残留誤り率は、5.06×10−5。消失ノイズバイアスは、40を超える(219/5.06≒43.28)。
❷ 誤検知エラーの発生率は約 0.8%、偽陰性エラーの発生率は 1.54%、 消失検出誘発横緩和の発生率は、0.1% 未満。

(2) 消失量子誤り訂正の特性(まとめ) 
① ノイズ抑制を行って、誤り訂正の対象を、特定の量子誤りに絞る。
② リアルタイム(高速)に、誤り検出を行う。
③ 誤り検出は、追加の誤りを惹起しない。
④ 消失誤りは、ほぼ、計算部分空間には戻らない。

(3) 消失量子誤り訂正は、なぜハードウェア効率が高いのか?(まとめ) 
① 誤り訂正における測定(シンドローム測定あるいはパリティ・チェック)のために、多くの量子ビットを配置する必要がない。
② リアルタイムに誤り検出して、訂正するから、しきい値は上がる。これは、ハードウェア要件を下げるので、ハードウェア効率はあがる。
 ②は、クオンティニュアムの量子誤り検出符号方式は、「誤りが検出されたら、その計算を破棄する」という手法と、ハードウェアのオーバーヘッドを小さくする発想が似ている。為参考:㊀リアルタイム量子誤り訂正を行うために、ハードウェア効率が高い測定を行うという研究[*27]、㊁量子誤り訂正に必要な物理的リソース低減を目的に、強化学習を使用したリアルタイム・ニューラルネットワークを組み込んだ量子コントローラを開発するプロジェクト(Artemisプロジェクト)[*28]。

【5】考察
(1) (消失量子ビットを使って)量子誤りを消失誤りに変換(変換)して、誤り訂正を行う(本稿では、消失量子誤り訂正と呼称)は『古典的符号理論から、量子誤り訂正に切り込む』という斬新なアプローチと考えられる。実際、「消失誤りは、古典コンピューティングでは、よく理解されているが([*21]で提案されるまで)研究者たちは、量子誤りを消失誤りに変換することを、考えていなかった」[*29]。まず中性原子で実現し、(本論文にて)超伝導でも実現した、というストーリーである。

(2) デュアルレール量子ビットのデコヒーレンスの要因(まとめ) 
 素材のポテンシャルのみで消失量子ビットを構成できる中性原子方式とは異なり、超伝導方式では、工夫を凝らさざるを得ない。元々、自由度の高さが、超伝導方式のメリットである。その一方で、最後のワンピースに欠けるといったデメリットもあるように思われる。工夫の末、所望の結果が得られるものの、それが他に影響を及ぼす。この悪循環は、量子系では致命的と思われる。何が言いたいかというと、超伝導方式による誤り耐性ゲート方式量子コンピュータの実現は、難しいのではないか、ということである。
 (付録が極めて多い)本論文では、付録MにMechanisms for dual-rail decoherenceとしてまとめてある。大きく分けると、3つある:フラックスノイズ、読み出し共振器内の光子の変動、2 レベルシステム(TLS)の寄生モード。フラックスノイズは、さらに1/fノイズと熱ノイズ(ジョンソンナイキスト ノイズ)に分けており、熱ノイズが最も支配的であると予想している。

Ⅵ 誤り耐性万能量子計算に至るスケールアップへの道筋をつけた、と解釈できる論文
【0】はじめに
 米ハーバード大学、米MIT、米国立標準技術研究所(NIST)、米メリーランド大学及び米QuEra(中性原子方式量子コンピュータを開発しているスタートアップ)は、「誤り耐性万能量子計算に至るスケールアップへの道筋をつけた」と解される論文[*30](以下、本論文)を発表した(23年12月6日@nature)。これは、過去の研究を積み重ねた結果と考えられる。
 この研究は、NISQデバイスによる最適化(ONISQ)プログラムを通じて、DARPA(国防高等研究計画局)、米国科学財団、および陸軍研究局によって支援されている。QuEraは、以前(23年10月23日)にもDARPAから助成金を受けている。助成対象は、Imagining Practical Applications for a Quantum Tomorrow(IMPAQT)programであり、その内容は、㊁「トランスバーサルな論理ゲートに基づく誤り訂正量子アーキテクチャ」である(㊀は割愛)。これは、ハードウェア効率的な量子誤り訂正方式の研究である。具体的には、トランスバーサル・ゲートを使うことで、論理回路を実装するために必要な物理的なリソースq*Nを1 桁削減できる可能性がある(qは量子回路の深さ、Nは量子ビットの数)。
 蛇足であるが、QuEraは、米ハーバード大、墺インスブルック大と共同で「リュードベリ原子配列が、幅広い最適化問題を、ハードウェア効率的に符号化できる」とする論文[*31]を発表している(23年2月14日@Physical Review X)。

【1】ハードウェア効率 
 そもそも論であるが、誤り耐性万能量子計算は、万能量子計算を「誤り耐性方式」で行う必要がある。万能量子計算とは、古典コンピュータが行える計算を全て行えるという意味である。つまり、量子アニーラのように、特定の計算しか実行できないという制約はない、という意味である。誤り耐性とは、量子計算実行中に発生する計算上の誤りが蓄積されることなく、正しく計算が行えるという意味である。誤解される事が多いが、古典コンピュータも、計算上の誤りが発生する。この誤りを適宜訂正することで、正しい計算であることを保証している。古典コンピュータとの違いは、「量子コンピュータでは、計算上の誤りが、複雑かつ極めて膨大という意味で厄介」、ということである。
 この量子コンピュータにおける「計算上の誤りが、複雑かつ極めて膨大」という短所は、量子スケールの物理を利用した演算では不可避である。(高速性に決して限定されない)量子計算の長所は、その短所と引き換えにもたらされる、と考えられる。これは、ノーフリーランチという意味で、膨大な学習可能パラメータ数によってもたらされる深層学習の柔軟性・表現力の豊かさが、超大量の学習データと莫大な電力消費と引き換えで得られることと、同じである。
 諦観論はさて置き、「計算上の誤りが、複雑かつ極めて膨大」という短所をクリアするために採用される戦法は、古典コンピュータに対する戦法と同じで、ハードウェア・リソースを大量投入するという手である。具体名を出せば、大量の物理量子ビットを使って、論理量子ビットを構成する、と表現される。量子状態は測定すると状態が変化する(固有状態は除く)ので、量子計算上の誤りも、直接測定することはできない。そこで、パリティ(偶奇性)チェックあるいはシンドローム抽出と呼ばれる、まどろっこしい方法を採用するしかない。また、量子計算上の誤りは、ビット反転しかない古典コンピュータとは異なり、ビット反転と位相反転の2種類が存在する(片方の誤りを圧縮する方法もある→猫符号)。そういった諸々の理由で、大量の物理量子ビットの「大量」は、古典的常識を越えた超大量をもたらす。
 小括すると、量子計算の長所の裏返しである短所をクリアするには、超大量の計算リソース(物理量子ビット)等が必要である。しかし困ったことに、この超大量は、コストや技術的理由から、非現実的である。そこで、ハードウェア効率という概念が生まれた。本論文の成果は、「ハードウェア効率が高い手法を積み重ねて」、「誤り耐性万能量子計算の実現に道筋をつけた」という見方が可能である。

【2】改めて、本論文の解釈 
 何度も重複して述べている通り、本論文は、誤り耐性万能量子計算の実現に道筋をつけた、と解釈できる。「道筋をつけた」の意味は、(1)「量子演算処理全体に関わるハードウェア効率を高めた」+(2)「ハードウェア効率の高い量子誤り訂正方式を実装した」ことで、誤り耐性万能量子計算の蓋然性が上がった、という意味である。
 具体的に実現したことは種々あるが、中心的には、「損益分岐点を越えて」、「48 個の論理量子ビットと数百のもつれ演算による量子計算」と解釈できる。古典的には効率的にシミュレートすることが難しい計算を行った。これまでは、2つの論理量子ビットと1つのもつれ演算に限定されていた(【5】(1)を参照)。なお、量子モダリティは、中性原子であり、本論文の成果を他の量子モダリティで、模倣するのは至難である(これは、他のモダリティで同じ成果を出せないという意味ではない。同じような枠組みでは、難しい、という意味)。
 上記(1)は、1⃣論理プロセッサの制御、2⃣量子ビット・シャトリング、3⃣ゾーン・アーキテクチャ、4⃣トランスバーサル・ゲートの適用、といった技術要素の成果である。上記(2)は、(1)をベースとした上で、5⃣3次元符号の適用、6⃣相関復号の適用、といった技術要素の成果である。以下、夫々について、述べる。

【3】ハードウェア効率を高めるために適用された技術
1⃣ 論理プロセッサの制御 
 本論文における論理プロセッサ制御の要諦は、個々の物理量子ビットではなく、個々の論理量子ビットを制御する、という思想である。この目的を達成するために、量子誤り訂正操作の大部分において、論理プロセッサの物理量子ビットは同じ操作を実現すると想定されている。この仮定の妥当性は、超伝導素子のような人工原子では厳しい。この制御は、わずか数本の制御線で可能である。
 原理的には、十分に低い物理誤り率と十分な数の物理量子ビットがあれば、論理量子ビットを極めて高い忠実度で動作させることができる。つまり、物理量子ビットを”大量動員して”冗長性を担保することによって生成される論理量子ビットを使って、論理プロセッサ(QPU)を構築すれば、QPU上で大規模で有用なアルゴリズムを実行する道が開ける。しかし、この”大量動員作戦”が、量子コンピュータのスケールアップ(スケーラビリティ)に大きな制約を課している。
 多くの情報ビットに効率的にアクセスして操作できる現代の古典プロセッサとは異なり、量子デバイスは通常、各物理量子ビットに複数の古典制御ラインが必要となるように構築されている。例として、代表的な量子モダリティと見做されている、超伝導方式を考えてみよう。各超伝導量子ビット(物理量子ビット)には通常、2~3 つの制御信号が必要である。それらは、制御信号の伝達には、"物理的な”制御線が使われる。100万物理量子ビット(≃1000論理量子ビット)が要求される場合、200万~300万の制御線が必要になる。しかも、それは希釈冷凍機に収納しなければならない。このサイズは、収納スペースからも、発生する熱ノイズからも、非現実的と考えられている(ので、知恵が絞られてはいる)。このように、「物理量子ビットに複数の古典制御ラインが必要」アプローチは、物理量子ビット・プロセッサの実装には適しているが、論理量子ビットの制御には大きな障害となる。
 論理量子ビットに対して、数本の制御線で済むのであれば、100万物理量子ビット(≃1000論理量子ビット)に対して、数千本である。つまり(改めて計算するまでもないが)、ハードウェアが、およそ1/1000になる(ハードウェア効率が高い)。

2⃣量子ビット・シャトリング
 量子ビット・シャトリングは、どの物理量子ビットでも、別の物理量子ビットと相互作用することを可能にする。これが可能となるのは、光ピンセットで捕捉(トラップ)され輸送された中性原子量子ビットが、移動されても量子状態を維持するためである。これは、他の量子モダリティとは異なる特徴である。量子ビット・シャトリングにより、量子回路の作成が簡素化される(→3⃣ゾーン・アーキテクチャ)。
 光ピンセットには、空間光変調器(SLM)ピンセットと音響光学偏向器(AOD)ピンセットの2種類が用いられる。原子は行と列で移動し、行と列が交差することはない。任意の量子ビットの動きと順列は、AODピンセット内で原子を往復させ、必要に応じて AOD ピンセットと SLMピンセットの間で、原子を輸送することによって実現される。AODピンセットでの原子の自由空間シャトルには、忠実度のコストが、本質的にかからない(ただし、時間のオーバーヘッドを除く)。ゲート間の特徴的な自由空間移動時間は、およそ200 μsであり、AODからの音響レンズ効果は無視できると推定される。
 ピンセット間での原子の移動には、課題が生じるため、様々な工夫が凝らされている(が、割愛。本論文の「Methods」を参照)。
 ちなみに、「マイクロ波共振器を使って超伝導量子ビットを連携させる」というアイデアとして生まれた量子バスという概念がある。イェール大学のロバート・シェールコプ教授が最初に実証した。また、飛行量子ビットという概念がある。日立製作所は、シリコン量子ドット内の電子を伝搬させる(輸送する)「飛行量子ビット(日立は、シャトリング量子ビット方式、と呼んでいる)」方式で開発を進めていることを発表している(23年6月)。単電子ポンプで単一電子を抽出し、ポテンシャル障壁ゲートを電子シャッターとして機能させることで、電子輸送を実行する。

3⃣ゾーン・アーキテクチャ
 古典コンピュータを参考にして、論理プロセッサ・アーキテクチャには、ゾーン化された設計が導入された。具体的には、ストレージ、エンタングル、読み出し、という3つのゾーンに分割された。ストレージ・ゾーンは、高密度量子ビット・ストレージに使用され、ゲートエラーのもつれがなく、コヒーレンス時間が長いのが特徴である。エンタングル・ゾーンは、並列論理量子ビット符号化、スタビライザー測定、および論理ゲート操作に使用される。読み出しゾーンでは、まだ動作中の計算量子ビットのコヒーレンスを乱すことなく、必要な論理量子ビットまたは物理量子ビットの中間回路読み出しが可能になる。このアーキテクチャは、光ピンセットに閉じ込められた個々の 87Rb(ルビジウム)原子のアレイを使用して実装されており、量子ビットのコヒーレンスを維持しながら計算の途中で動的に再構成できる。QuEraは原子種として、ルビジウムを使用している(仏Pasqalもルビジウムを使用。米Infleqtion(旧ColdQuanta)はセシウム、米Atomコンピューティングと独Planqcはストロンチウム。アカデミア(例えば、米プリンストン大/イェール大)では、イッテルビウムも使用)。
 ゾーン・アーキテクチャの効用を、具体的に、見てみよう。ゾーン・アーキテクチャを採用すると、例えば、制御信号のほとんどはエンタングルメント・ゾーンに集中する。このため、制御信号を大幅に増加させることなく、ストレージ・ゾーンの量子ビットの数を増やすことができる。また、量子回路中央の読み出しは、選択した量子ビットを、読み出しゾーンまで(約 100 μm 離れたところに)移動し、焦点を合わせたイメージング ビームで照射することで実行される。ちなみに、回路中央の画像は CMOS(もちろんComplementary Metal Oxide Semiconductor)カメラで収集され、リアルタイムの復号とフィードフォワードのためにFPGA(もちろんField Programmable Gate Array)に送信される。

4⃣トランスバーサル・ゲート 
 本論文では、論理演算は、全てトランスバーサル・ゲートを通じて行われている。CNOTゲートが対象であれば、トランスバーサル・CNOTゲートということになる。
 トランスバーサルとは、物理量子誤りが論理量子誤りに広がらない(あるいは、「量子誤りが、量子回路全体に、制御不能に拡散しない」)という意味である。本論文(中性原子方式)のセットアップでは、同じ命令を持つ論理ブロックの物理量子ビットに対して、2次元音響光学偏光器(AOD)を使用して、同時に光を照射する。これは、演算が符号化ブロックの物理量子ビットに、独立して作用することを意味しており、 物理量子誤りが論理量子誤りに広がることを防いでいる。つまり、 トランスバーサルを実現している。
 広く知られている通り、万能計算は、(“簡単には”)トランスバーサルに実装できない(ので、工夫が必要となる)。かつて、量子誤り訂正符号の本命視と目されていた表面符号などの 2次元符号は、非クリフォード演算を”簡単には”実行できない(Eastin-Knillの定理)。万能量子計算は、クリフォード演算だけでは実行できない(Gottesman-Knillの定理)。非クリフォード演算は”簡単には”できないから、魔法状態(を蒸留して)準備し、ゲート・テレポーテーションを実行することで、2次元符号を使った万能量子計算が、やっと実行できる。ただし、魔法状態蒸留には、大量の物理量子ビットが必要となる。つまり、ハードウェア効率が低い。まとめると、2次元符号(表面符号)で、ハードウェア効率の高い万能量子計算は、極めて難しい(というより、ほぼ不可能。という背景から、ハードウェア効率の高い量子誤り訂正として、ボソニック符号(猫符号、GKP符号等)というアプローチも存在する)。

5⃣3次元符号
 2次元符号とは、対照的に、3次元符号を使うと、非クリフォード演算をトランスバーサルに実現できる。従って、ハードウェア効率の低い(悪い)魔法状態蒸留が不要である(と理解している)。その代わり、アダマール・ゲートが、トランスバーサルには実装できない。本論文では、3次元符号、具体的には3次元[[8,3,2]]符号を適用する。なお、アダマール・ゲートとCCZゲート(controlled-controlled Z;制御制御Zゲート)である。制御Zゲート)だけで、万能量子計算が可能となる。
 [[n, k, d]] 表記は、物理量子ビットの数 n、論理量子ビットの数 k、および符号距離 d を持つ符号を記述する。従って、[[8,3,2]]とは、物理量子ビット8、論理量子ビット3、符号距離2を持つ符号を意味している。符号距離dは、量子誤り訂正符号が検出または訂正できるエラーの数を設定する。符号距離は、有効な符号語(論理状態)間の最小ハミング距離、つまり最小の論理演算子の重みである。
 前述の通り、3次元符号を使うとアダマール・ゲートは、トランスバーサルには実装できない。そのための工夫が必要であるが、その詳細は記述されていない。ただ、それほどハードウェア効率を低下させることはないのだろう。なお、3次元符号の適用とアダマール・ゲートの実装を工夫することで、トランスバーサルに(つまり、誤り耐性)万能計算を実行しても、論理量子ビットの状態準備は、誤り耐性ではない。測定も同様である。この影響は、「相関復号技術を使用することで、軽減可能である」と、本論文は主張している。

6⃣相関復号(Correlated Decoding)
 トランスバーサルCNOT演算中、物理CNOT ゲートは、2 つの論理量子ビットに対応するデータ量子ビット間に適用される。これらの物理CNOTゲートは、決定論的な方法でデータ量子ビット間でエラーを伝播する。制御量子ビットのXエラー(ビット反転誤り)は、ターゲット量子ビットにコピーされ、ターゲット量子ビットのZエラー(位相反転誤り)は、制御量子ビットにコピーされる。その結果、特定の論理量子ビットのシンドロームには、トランスバーサル CNOT 演算を受けた時点で、別の論理量子ビットで発生したエラーに関する情報が含まれる可能性がある。
 これらの相関関係に関する情報を(逆に)活用し、アルゴリズムに含まれる論理量子ビットを、共同で復号することで回路の忠実度を向上させることができる。 量子誤りは、データ論理量子ビットから補助論理量子ビットに、意図的に伝播される。その後、データ論理量子ビットのシンドロームを抽出するために、射影測定される。
 測定されたシンドロームを前提として、最も可能性の高いエラーを見つける問題を解決することで、”相関復号”を実行する。「最も可能性の高いエラーを見つける問題を解決する」ために、まず、各物理誤りのメカニズムが、どのように、測定されたスタビライザーに伝播するかを説明する、論理アルゴリズムの記述に基づいて復号ハイパーグラフを構築する。ハイパーグラフの頂点はスタビライザーの測定結果に対応する。各エッジまたはハイパーエッジは、接続されているスタビライザーに影響を与える物理的なエラー メカニズムに対応し、エッジの重みはそのエラーの確率に関連する。
 次に、このハイパーグラフと各実験スナップショットを使用する復号アルゴリズムを実行し、測定値と一致する最も可能性の高い物理誤りを見つける。最も可能性の高い物理誤りを見つけるために、混合整数計画問題の最適解として符号化して、解く(最先端のソルバーであるGurobi Optimizer[*32]が使用された)。

【4】実際に実現したこと
 実現された(実証された)ことはいくつかあるが、中心的なことは『3 次元[[8,3,2]]符号を使用して、「228 個の2論理量子ビット・ゲート、48 個の論理 CCZ ゲート及び、もつれた最大48 個の論理量子ビットを持つ」計算的に複雑なサンプリング回路を実現し、損益分岐点を越えた』ことである。本論文によれば、トランスバーサルなCCZゲートは、物理量子ビットにTゲート(π/4回転の位相シフト演算を実行するゲート)とSゲート(π/2回転の位相シフト演算を実行するゲート)を使用することによって、実現できる(正確には、トランスバーサルな{CCZ, CZ, Z}ゲートを実現できる)。
 このセットアップは、クロスエントロピー・ベンチマークと高速スクランブリング(fast scrambling)の量子シミュレーションとで、物理量子ビットの忠実度を上回っていた。つまり、損益分岐点を越えた。

【5】まとめ、感想など
(0) 2020年に始まったDARPAのONISQプログラムは、組み合わせ最適化問題を、古典コンピューター(スパコン)よりも速く解くことで、量子コンピューター(NISQ)の利点実証を目指すプログラムである。 超伝導、イオン、中性原子など、さまざまなタイプの量子ビットが選ばれた。DARPA技術顧問は次のように語っている:「ONISQ プログラムが開始された 3 年前に、中性原子が論理量子ビットとして機能する可能性があると誰かが予測していたら、誰も信じなかったでしょう。よく研究されている超伝導やイオンとともに、あまり研究されていない量子ビットの可能性に賭けるのが DARPA のやり方である」。誰も信じなかったは別として、DARPAは、さすがである。
 実用的な問題ーONISQの趣旨を汲めば-組み合わせ最適化問題で、量子優位性が証明されると、面白い。48論理量子ビットであれば、実用的なレベルの組み合わせ最適化問題が、解けるのではないだろうか。量子回路によって誤り率は変わってくる(と考えられている)から、解くべき問題によって、損益分岐点を超えるか否かは変わってくる(はず)。故に、実用的な問題で試行して頂きたい。
(1) 損益分岐点越えという題材であれば、イオントラップ方式量子コンピュータを開発している米Quantinuumが22年8月に発表した論文[*11]がある。2論理量子ビットに対して、トランスバーサルCNOTゲートを使用して、損益分岐点を超えの兆候が見られたと主張した(量子誤り訂正符号は、カラー符号)。他には、米イェール大と加シャーブルック大による「Ⅱ 損益分岐点を越えたことを示唆する実験結果を得たと主張する論文」(GKP符号)やグーグルによる「Ⅳ 量子誤り訂正符号において、サイズによる性能スケーリングが存在することを実証したと主張する論文」(表面符号)がある。しかし『ハードウェア効率が高い⇒故に48論理量子ビットまで拡張できた』という点が、他例とは大きく異なる。
(2) 慶應大学・筑波大学は、43(論理)量子ビットの状態ベクトル型量子コンピュータ・シミュレーションを実行できるボードを開発した、と発表(23年12月11日)[*33]。FPGAと安価なSATAディスク(8TBを32枚直結)を利用して実現した。3時間程度で計算を実行でき、価格は400万円程度。なお、仏Qubit Pharmaceuticals(量子技術で創薬期間の短縮を目指すスタートアップ)と仏ソルボンヌ大学は、「40個の論理量子ビットに対する、正確な古典シミュレーションを成功させた」と発表(23年12月6日)[*34]したが、GPU128基を装備したスパコンを使用した。いずれにしても、48論理量子ビットは、シミュレート可能範囲ということではないだろうか。ただし、48論理量子ビットだとメモリは、4PiBになる。
(3) 中性原子方式は、消費電力が多い(古典コンピュータよりも電費が悪い?)ようであることは、実用化のネックになるかもしれない。またコスト(初期コスト、運転コスト、維持コスト)は、どの程度であろうか。
(4) そもそもAccelerated Article Previewということもあり、読みにくい。加えて、内容も難しいが、書きぶりが分かり辛い。

Ⅶ 伝搬光でGKP量子ビットを生成したと主張する論文
【0】はじめに
 量子コンピューターは、外界(熱浴)からの雑音等に弱い量子情報を使用して演算処理を行う。そんな脆弱な量子情報を保護する方法として、「量子情報を高次元ヒルベルト空間内の論理量子ビットとして、冗長的に符号化する」方法を選ぶことは、自然な発想である。なぜなら、それは古典コンピューターで行われている保護方法と同じだからである。しかし量子コンピューターを大規模化する(量子ビット数を増やして、大規模計算を実行可能にする)ことを考えた場合、この”冗長的符号化”は、大規模化の大きな壁となる。それは本質的には、量子情報があまりに脆弱過ぎて、その結果、冗長性の度合が「半端なくなる」からである。具体的には、(少なくとも)数百万の物理量子ビットを、高精度に制御する必要があると目されており、それは非現実的であると見做されている。
 そこで、必然的にハードウェア効率(を高める)という概念が、重要視されるようになった。冗長性の度合を減らすということである。ハードウェア効率が高い量子誤り訂正符号の一つとして、ボソニック符号と呼ばれる量子誤り訂正符号が知られている。ボソニック符号の代表例が、GKP(Gottesman-Kitaev-Preskill)符号である。
 東京大学は、高忠実度かつ高速にGKP符号を生成できたと主張する論文[*35]を発表した(24年1月18日@サイエンス)。以下では、本質的に同じであろうnpj(ネイチャー・パートナー・ジャーナル)で23年10月10日に公開された論文[*36](以下、本論文)について、要点を整理した。

【1】本論文の主張
 本論文では、スケーラビリティに優れた伝搬光にGKP量子ビットを符号化するプロトコルが提案されている。このプロトコル(ガウス型飼育プロトコルと呼ばれている)は以下の利点を有する、と本論文は主張している。
① 任意のGKP量子ビットの系統的で厳密な符号化が可能 
② 最小限のリソース使用で符号化が可能 
③ 高忠実度と高い成功確率で符号化が可能 
④ 損失に対する頑健性を備えている 

【2】事前整理
(0) そもそも論 
 本論文は、「光の連続量を使った測定型量子計算」を対象にしている。光は、正確には光ファイバー内を伝搬する通信波長の光(伝搬光)である。
0⃣ 光の連続量と測定型量子計算[*37] 
 古典的な光(当然、連続量)は複素振幅を使って表現できる。これは、形式上、量子的な光でも同様である。ただ、量子的複素振幅は演算子である、という違いがある(それが、先に”形式上”とした理由)。複素振幅は複素数で表現されているので、振幅を実部と虚部に分解することができる。実部と虚部は互いに直交しており、直交位相振幅と呼ばれる。実部、虚部それぞれが演算子であり、位置と運動量と同じ交換関係を満たす。従って、実部は「位置」成分、虚部は「運動量」成分とも呼ばれる。
 光を使った量子計算は、離散量を使う方式と連続量を使う方式に大別できる。連続量方式では、スクイーズド光(スクイーズされた光)†1が、代表的な”量子ビット”(言語矛盾を避けるために、正確にはqumodeと言う)として扱われてきた。その理由の一つは、量子もつれの生成が容易であるためであった。しかし、スクイーズド光では、量子誤り訂正が成立しない(誤りが蓄積し、計算が破綻する)という致命的な欠点があった。その欠点を解決したのがGKP符号である(→2⃣にて、後述)。
 光の連続量は、測定型量子計算にしか使えないわけではない。ただし、測定型量子計算の場合、初期状態として大規模な量子もつれ状態(リソース状態あるいはクラスター状態と呼ばれる)を作ってしまえば、あとは線形光学素子のみでユニバーサル量子計算が実行できる(回路型量子計算†2で置き換えると、初期状態として魔法状態を作っておけば、クリフォード・ゲートのみでユニバーサル量子計算が実行できるイメージ)。そのため、連続量を使う場合は、通常、測定型量子計算が第一選択肢となる。なお、測定型量子計算は、光以外でも可能である。
†1 振幅もしくは位相のいずれかにおける量子揺らぎを抑制することをスクイーズと呼ぶ。スクイーズされた光を、スクイーズド(squeezed)光と呼ぶ。
†2 測定型量子計算(一方向量子計算とも呼ばれる)と対比する場合、”通常の”量子ゲートを使った量子計算を「回路型量子計算」と呼ぶ(こともある)。

1⃣ ボソニック符号とGKP量子ビット [*37],[*38] 
 連続量に物理量子ビットの情報を埋め込む符号化を「ボソニック符号」と呼ぶ。連続量に埋め込むことで、補助量子ビットを大量動員して、論理量子ビットを構成するというハードウェア効率の低い力技を回避できると見做されている。ただ・・・連続量なんて、光だけでは?と一瞬思うが、共振器を用いることで他の量子モダリティでも、ボソニック符号を使うことができる。代表的なボソニック符号として、GKP符号がある。GKP量子ビットを使ったボソニック符号がGKP符号である。
 GKP 量子ビットは、ゴッテスマン†1、キタエフ†2及びプレスキル†3によって提案された量子ビットである。理想的には、GKP 量子ビットは「”振幅の異なる”、等間隔の位置固有状態の重ね合わせ」である。通常は、スクイーズされたコヒーレント状態の重ね合わせとして近似される。
 少し正確に言うと、GKP量子ビットの0状態と1状態は、複素振幅の実部=「位置成分」の偶数×√π(0状態)と、奇数×√π(1状態)に符号化された状態である。”振幅が異なる”とは、山の位置がズレているという意味である。具体的には√πだけ、山の(中心の)位置がズレている。GKP符号では、2つの位置固有状態(0状態|0˜Δ,κ⟩と1状態|1˜Δ,κ⟩)が符号語となる。ここでΔはスクイーズド光の分散(正確には、Δ2/2が分散)で、κは減衰関数の分散(正確には、κ2/2が分散)である。
 理想的にスクイーズされている(分散ゼロの)場合に、|0˜Δ,κ⟩と|1˜Δ,κ⟩は直交するが、理想的なスクイーズには無限のエネルギーが必要になる。従って、現実的には、非ゼロの直交していないGKP量子ビット(有限エネルギーGKP量子ビット、と呼ばれる)を考える。
†1 ダニエル・ゴッテスマン。スタビライザー符号、量子ゲートのテレポーテーションに関する研究が有名。ゴッテスマン・ニルの定理(クリフォード・ゲートのみで構成された量子回路は、古典コンピュータによる多項式時間でのシミュレートが可能)でも、その名を知られている。指導教官は、ジョン・プレスキル。
†2 アレクセイ・キタエフ。量子計算(量子情報理論)の世界では、ソロヴェイ・キタエフの定理(1量子ビットゲートとCNOTゲートがあれば、ユニバーサル量子計算が可能)で、その名が知られてる。物性物理の世界では、キタエフ模型(元々、トポロジカル量子計算を実現するモデルとして考案されたが、量子スピン液体を実現可能なモデルとして注目された)で知られている。
†3 ジョン・プレスキル。量子計算の世界では、量子超越性やNISQという言葉を考案したことで知られている。

2⃣ GKP符号 
 スクイーズド光で量子誤り訂正が成立しなかった理由は、複素振幅の実部=位置成分、虚部=運動量成分のどちらか一方だけしか離散化できない(原理的にできない)ため、離散化できない成分で量子誤りが蓄積するためであった。雑に言うと、GKP量子ビットは、位置成分のみを使って、位置成分と運動量成分を疑似的に構築することによって、量子誤り訂正を成立させている。
 誤り訂正方式という見方でGKP符号を説明すると、次のようになる:GKP符号は、変位演算子Dを使って、小さい変位の重ね合わせで誤り訂正を行う、誤り訂正符号方式である。

(1) 先行事例
0⃣ 課題の在処と解決策 
 GKP符号は、光以外のモダリティでも実現できる。トラップ・イオンや超伝導回路などの非線形システムでGKP 量子ビットを生成するのは比較的簡単である一方、生成された量子ビットを相互作用させるのは困難である。その理由は、量子ビットが物質または定在波として離れて局在しているためである。対照的に、光(伝搬光)では、GKP量子ビットの生成は困難([*39]では、量子物理学積年の夢とまで記述されている)だが、使用は簡単である。
 まとめると、光を使ったGKP量子ビットの作成が可能になれば、GKP符号を使った誤り耐性量子コンピュータの実現可能性が高まると期待される。GKP 量子ビットの生成を妨げる障害は、伝搬光における非線形性の欠如(弱さ)である。非線形性の弱さを回避する有望な方策は、光子検出器の非線形性を利用することである。そうすると、次の課題解決ステップは、光子検出器の非線形性をどのように利用するか、である。
 1 つのアプローチは、複数のシュレーディンガー猫状態の干渉とホモダイン測定を利用する猫量子飼育(quantum breeding)プロトコルである(「飼育」は、公式な訳語)。もう一つのアプローチは、ガウシアン・ボソン・サンプリングに基づく方法である。
† ホモダイン測定では、プローブ光(被測定光)と局部発振光(高強度のレーザー光)を半透過鏡で干渉させ、その出力光を 2 つのフォトダイオードで検出した上で差信号をとる。これにより、微弱な被測定光が高強度の局部発振光によって増幅され、室温下で SN 比のよい測定が実現できる。

1⃣ シュレーディンガーの猫状態と量子飼育プロトコル[*39],[*40] 
 本来の「シュレーディンガーの猫状態」は、微視的物体と巨視的物体の量子もつれ状態†1で、平均光子数|a|2が、|a|2≫ 1である場合を言う。|a|2≤1の場合は、「シュレーディンガーの子猫状態」と呼ばれる[*41],[*42]。量子光学の文脈では、より狭い解釈がなされている。量子光学における「シュレーディンガーの猫状態(以下、SC状態とする)」は、「位相が180°異なる(つまり逆位相)の2つのコヒーレント状態の重ね合わせ状態」として定義される。飼育プロトコルを説明するために、少し定量的な取り扱いをする。
 SC状態を、実振幅αのコヒーレント状態の正または負の重ね合わせとする。つまり、
      SC状態=|α⟩±|-α⟩ 
である。ただし簡潔にするため、正規化係数は省いた。光子を取り除く(光子減算†2)と、|-α⟩成分の前の符号が反転し、SC状態は、より振幅が大きな負にスクイーズされたSC状態に変換される。このように、SC状態の振幅を大きくすることを、量子飼育と呼ぶ。SC状態の振幅がより大きいということは、重ね合された2つの状態がより巨視的に異なることを意味する。それは、また非古典性がより大きくなることを意味する。
 このプロトコルの課題として、2つ上げられている。一つ目は、大量(O(102))の光子検出が必要となることである。2つ目は、量子飼育プログラムでは、特定の符号語しか生成できないことである。
†1 「放射性原子と猫」で思考実験した場合は、微視的物体と巨視的物体の量子もつれ状態を考えていることになる。死んだ猫と生きた猫の場合は、巨視的物体同士の量子もつれ状態になる。いずれにしても、巨視的物体との量子もつれ状態であることが、シュレーディンガーの猫状態の本質であった。
†2 光子減算(photon subtraction)は、光子を引き抜く(第二量子化の言葉を使えば、消滅演算子を作用させる)過程である。具体的には、スクイーズド光のごく一部を、ビームスプリッターによる反射で取り出し、その部分に、光子数検出を施すことで、ビームスプリッターの透過側の状態に変化を引き起こす。

2⃣ ガウシアン・ボソン・サンプリング 
  中国は、光を用いた量子計算で、2020年に量子超越性を達成した、と発表した。その対象が「ガウシアン・ボソン・サンプリング(以下、GBS)」であった。GBSは、アーロンソンとアルヒポフによって従来から提案されている量子優位性を検証する方法であり、実用性はないとされていた。前年(2019年)にグーグルは、超伝導回路(トランズモン)を用いた量子計算で量子超越性を達成したと発表した(その後、様々な異論が出た)。その対象は、ランダム量子回路サンプリングと呼ばれるもので、やはり実用性はない、とされている。GBSは、その後、実用性が見出された(分子振動スペクトルの計算、グラフ理論、ブロックチェーンのコンセンサス・アルゴリズムなど)。
 GBSに基づいてGKP 量子ビットを生成する方法は、リソース要件の点で飼育プロトコルよりも有利であると予想されている。具体的に言うと、光子検出器、シングルモード・スクイーズド状態、およびビーム・スプリッターのみで構成されるため、実験要件は最小限であると予想されている。課題は、GKP 量子ビット生成におけるパラメーターを、数値的に決定する必要があることである。この課題は、量子超越性を示すほど複雑であり、ターゲット状態を標準パウリ符号語に制限したとしても、エラー訂正能力が制限されるか、生成率が非常に低い解決策しか見つかっていない。

【3】本論文におけるオリジナリティ
(1) 概要 
 本論文では、非古典ガウス光であるスクイーズド状態に「コヒーレント分岐」と呼ばれる操作を繰り返すことで、GKP符号を作り出す。その操作は、ガウス型(ガウシアン)飼育プロトコルと呼ばれている。コヒーレント分岐は、変位したスクイーズド真空状態の重ね合わせを生成する。必要に応じて、ガウス包絡線(=減衰関数)を波動関数に乗じることによって、量子状態のエネルギーを減衰させる。
 なお、ガウシアン飼育プロトコルの"ガウシアン"は、ダブル・ミーニングであろう。一つ目は、ガウシアン飼育プロトコルが、既存手法である量子飼育プロトコルとガウシアン・ボソン・サンプリングの良いとこ取り、をしていること。二つ目は、(非古典)ガウス光を初期状態としていることである。

(2) 量子飼育プロトコルの課題に対する解決策→優位性
 改めて、量子飼育プロトコルの課題をあげると、⓵大量の光子検出が必要となること、及び⓶特定の符号語しか生成できないこと、であった。本論文のガウス型飼育プロトコルが、この課題を解決していることを示すために、ガウス型飼育プロトコルを量子飼育プロトコルに寄せてみよう。
 コヒーレント分岐は、「SC状態を生成する操作に、変位演算子を作用させる」操作と解釈できる。コヒーレント分岐を複数回繰り返すことで、GKP量子ビットを作り出す。量子飼育プロトコルも、SC状態の「干渉」を複数回繰り返して、GKP量子ビットを生成する。量子飼育プロトコルでは、繰り返しの度に、符号語の間隔が1/√2ずつ減少する。間隔が詰まって(指数関数的に)密になるため、光子検出数も指数関数的に増加する。一方、コヒーレント分岐では、SC状態に作用するのは、変位演算子である。つまり、符号語の間隔は高々、線形にしか縮まらないので、光子検出数も、高々、線形増加に留まる。 つまり、⓵は解決された。
 コヒーレント分岐は、分岐幅wで、SC状態を変位させることが出来るため、任意のGKP量子ビットを生成することができる。これで、⓶も解決された。

(3) GBSの課題に対する解決策→優位性
 GBSを使ったGKP量子ビット生成の課題は、パラメーター(物理的回路の構成)を数値的に決定する必要があるが、それが困難なことであった。これに対する解決策を本論文では、「(ガウス型飼育プロトコルは)一般化された光子減算による重ね合わせの生成と、量子非破壊相互作用と変位操作の可換性を考慮することで、目的の設定を効率的に明らかにできる」としている。
 加えて、ガウス型飼育プロトコルはGBSを使った方法よりさらに、ハードウェア効率が高い、とする。例として、標準パウリ符号語生成のような単純なケースでは、「GBSで通常想定される N(N + 1)/2ビーム・スプリッターの代わりに、最小限の数のビーム・スプリッター、具体的には N 個のビーム スプリッターのみを使用して GKP 量子ビットを生成できる」と主張している。

(4) 量子回路の簡略化 
 本論文では、ビームスプリッタ相互作用が、量子非破壊相互作用とスクイーズ作用に(一旦)分解される。量子非破壊相互作用は、エンタングルメント・ゲートを使うことで物理実装される。本論文では、エンタングルメント・ゲートの実装は、ハードウェア効率が低い(コストが高い)として、ブロッホ・メシアの定理を使って、さらに分解している。
 ブロッホ・メシアの定理とは、ガウス型操作は、(シュタインスプリング表現によって適当な真空状態の補助モードを加えた上で)、以下4つのユニタリ操作に分解することができる、という定理であり、この分解を「ブロッホ・メシア分解」と呼ぶ[*43]:㊀変位操作、㊁位相シフト操作、㊂ビームスプリッタ操作、㊃スクイージング操作。
 分かり易さというだけなら、エンタングルメント・ゲート→ビームスプリッタ+スクイージング・ゲート、スクイージング・ゲート→スクイーズド光+ホモダイン検出器、という分解表現の方が、分かり易いかもしれない。

【4】シミュレーションによる性能検証 
(0) セットアップ 
1⃣ シミュレーション実行環境 
  性能検証には、Xanaduの量子計算ソフトウェア「Strawberry Fields」を使用している。Xanaduは、連続量の光を使った測定型量子計算方式の量子コンピュータを開発しているカナダのスタートアップである。フォック空間における、最大55光子までのGKP量子ビット生成の数値シミュレーションを実行することで、検証を行った。
2⃣ 評価指標1 
 (1)符号語の検証及び、(2)任意のGKP量子ビットの検証における指標として、「成功確率、スクイージングレベル、忠実度」が採用されている。スクイージングレベルsは、GKP 量子ビットのしきい値(dB)で、スクイーズド光の分散Δ2/2と、s=10log10Δ-2という関係がある[*37](蛇足ながら[*37]の表記だとσ2=Δ2/2で、負号は対数の中で逆数となっている)。
 有限エネルギーGKP量子ビットは、符号語として用いる2つの位置固有状態が完全には直交しないので、量子ビット値の識別誤りが発生する。GKP量子ビットのしきい値とは、どの程度まで識別誤りが許容されるか、というしきい値である。誤りが蓄積して量子計算が破綻することを回避できる、しきい値(誤り耐性のしきい値)ということである。
 本論文では、しきい値として10dBが上げられている。ちなみに、[*37]では、10.5dBが上げられている。この値は、トポロジカル量子計算が実行できる識別誤り確率から推測した値である。しきい値が小さくなると、より多くの誤りが許される。
3⃣ 評価指標2 
 (3)光子損失に関する堅牢性では、ウィグナー関数W(x,p)の対数負度が、指標として採用されている(xは位置、pは運動量である)。ウィグナー関数が負であることは、非ガウス状態を意味する。非ガウス状態の存在はユニバーサル量子計算及び量子誤り訂正に必要である。ウィグナー関数の負の部分の量を「負度」と呼ぶ。本論文では、対数表示の負度を採用している。具体的には、
     Wlog = log∫dxdp|W(x,p)|
を考え、しきい値0.2を採用している(0.2以上を要求)。

(1) 符号語の検証 
 GKP符号の符号語は、2つの位置固有状態|0˜Δ,κ⟩と|1˜Δ,κ⟩であった(参照【2】(0)1⃣)。ただし、ここでは、κ=Δとされており、符号語として0状態|0˜Δ,κ⟩が選択されている。設定条件は、光子検出数n = 6,10,16 、コヒーレント分岐の繰り返し回数N=2,3,4である。なお、分岐がN 回繰り返された後、減衰を実行して、ターゲット状態への忠実度を高めている。
 スクイージングレベルs(単位:dB)は、n=6の場合6.4(N=2)と6.9(N=3)。n=10では、8.6(N=3)、8.8(N=4)。n=16では10.3(N=3)と10.4(N=4)で、10.5dBを下回っているので、いい感じということになるだろうか(10dBは上回っている)。
 なお、成功確率は1.06×10-3~1.18×10-7、忠実度は99.6%~99.9%である。

(2) 任意のGKP符号の検証 
 続いて、任意の GKP 量子ビット α|0˜Δ,Δ⟩+ β|1˜Δ,Δ⟩ について検証を行っている。nは16に、Nは3及び4に固定されている。3つの魔法状態(α, β) = ❶(cos π/8, sin π/8)、❷(1/√2, exp(-iπ/4)/√2)及び❸(cos θ,sinθ・exp( -iπ/4))がターゲットとなっている。ただしθは、cos2θ = 1/√3を満たす。
 スクイージングレベルsは、❶10.2、10.6、❷10.3、10.5、❸10.3、10.5である(ここで、❶~❸とも、前者がN=3、後者がN=4である)。しきい値を10.5dBとすれば、全て収まっていると評価できるだろうか。
 なお、成功確率は、符号語に比べるとかなり低くなる:2.22×10-10~4.97×10-12。忠実度は、99.5%~99.8%である。

(3) 光子損失に関する堅牢性
 最後に、光子損失に対するガウス型飼育プロトコルの堅牢性を検証している。しきい値として0.2を採用し、n=6,10,16をとった場合、光子損失率は、9%未満、5%未満、3%未満である必要がある。 既に、光パラメトリック発振器で損失率3%未満が実現されている(ただし、世界記録)ため、n=16でも「GKP 量子ビット生成の損失要件は、現実的な難易度の範囲内にある」と結論している。

【5】感想 
(1) 光を使った誤り耐性量子コンピュータの実現に期待を抱かせる研究結果といえるのだろう
(2) 量子飼育プロトコルの改良に、変位演算子が大きな役割を果たしていると思うが、変位演算子が顕に現れる共振器を使ったGKP量子ビットの生成法を、光で実現した、という理解で良いのだろうか。
(3) [*36]では、GKP量子ビットを作成するために、シュレーディンガーの猫状態(SC)から始めているわけではないが、[*35]ではSCから始めているらしい。もっとも教科書的に言って、SCは、スクイーズド光×光子検出器で近似的に生成できるのだから、大きな違いはないのかもしれない。
† 現代化学2024年4月号(p.11)には、「今回実現されたGKP量子ビットのクオリティは、光を使った量子コンピュータの大規模化にすぐにつながる水準ではない(ものの・・・以下、略)」(京都大学大学院工学研究科 岡本亮准教授)とある。

Ⅷ ハードウェア効率の高いQLDPC符号を発見した主張する論文
【0】はじめに
 IBMの研究者は、「ハードウェア効率の高い、低密度パリティ検査(QLDPC)符号を発見した」と主張する論文(以下、本論文[*44])を発表した(24年3月27日@nature)。IBMは、発見したLDPC符号をBB符号(bivariate bicycle†1符号)と呼んでいる。ただしBB符号は、猫符号やGKP符号といったいわゆるhardware efficientと形容される量子誤り訂正符号(ボソニック符号)とは異なる(もっとも、猫量子ビットを使ったLDPC符号もある→【5】(1)参照)。
 ここで極めて重要な事実は、IBMは発見しただけで、実装はしていない(正確には、実装できない)ことである。実装は『不可能ではない』というレベルであり、超伝導方式というモダリティの将来性が、厳しいことに変わりはないと思われる。
------- ❚注 釈❚ ---------- 
†1 為念・・・自転車とは無関係。cycleは、グラフ理論における閉路を意味している。

【1】本論文の主張
 本論文は、「表面符号では3,000 個を超える物理量子ビットが必要になる論理誤り率 10−7を、BB符号は288個の物理量子ビット数で達成できる」主張する。つまり、ハードウェア効率は、10倍以上向上したことになる。

【2】事前整理
(0) 量子誤り訂正の仕組み 
0⃣ 言葉及び表記のセットアップ(為念) 
㈠ 量子LDPC符号は、古典LDPC符号の量子版である。量子誤り訂正の文脈では、LDPCという”生の表記”が多いが、ここでは混乱をさけた上で簡便のため、量子LDPC符号をQLDPC符号と表記する。古典LDPC符号は、LDPC符号と表記する(CLDPCとは、しない)。
㈡ [[n, k, d]] 表記は、(量子的ではないという意味での古典的な)誤り訂正符号における(n,k,d)という表記のオマージュである。(n,k,d)において、nは符号長、kは情報長(あるいは情報記号数)、dは最小距離と呼ばれる。[[n, k, d]]において、nは物理量子ビットの数 、kは符号化された量子ビット(=論理量子ビット)の数、dは符号距離である。dは、量子誤り訂正符号が検出・訂正できる、量子誤りの数を設定する。別の表現を使うとdは、有効な符号語間の最小ハミング距離、つまり最小の論理演算子の重みである。
㈢ (符号化率†2一定の下で)符号長を大きくしたとき、最小符号距離が、符号長に比例して大きくなる符号は、「漸近的に良い」符号と呼ばれる[*45]。
㈣ 「低密度」という用語について、まずは、LDPC符号の文脈で説明する。パリティ検査行列(※後述)の非ゼロ要素が少ない(疎な行列)場合、低密度と呼ばれる。なお低密度は、計算量を抑制しながら、性能を向上させるキモである。この説明は当然、QLDPC符号にも当てはまる。同じ意味ではあるが、量子誤り訂正(QEC)に寄せた言葉を使うと、次のようになる:パリティ検査演算子が少数の量子ビットのみに作用し、量子ビットが少数のパリティ検査にのみ参加する場合、(量子誤り訂正符号は)低密度と呼ばれる。
1⃣ 誤り訂正と量子誤り訂正の枠組み 
 量子誤り訂正の枠組みは、線形符号の枠組みを踏襲している。線形符号とは、データvを符号化する関数Fが、生成行列Gを使った線形写像、つまりF(v)=v×Gと表現できる符号を指す。
 量子っぽく書くと、符号化前の量子状態|v⟩が、生成行列(演算子)を使ってG|v⟩=|v’⟩と符号化される。符号化後の量子状態|v’⟩に、量子誤り演算Eが作用すると、E|v’⟩=|v’⟩+|e⟩となる。|e⟩は、量子誤りである。|v’⟩+|e⟩に対して、正作用素値測度(POVM)†3の要素である演算子を使った測定を行う。誤り訂正と量子誤り訂正の対比において、POVM(測定演算子)は、 古典線形符号におけるパリティ検査行列に相当し、パリティ検査行列Hから作ったパウリ行列により生成される。測定結果は、シンドロームs=H|e⟩であり、s≠0であれば、量子誤りが発生していることが認識できる†4
------- ❚注 釈❚ ---------- 
†2 量子誤り訂正符号の文脈では、符号化率=符号化された量子ビット(つまり、論理量子ビット)数/物理量子ビット、である。表面符号だと、≃1/1,000と目されている。
 復号(アルゴリズム)は、|v’⟩+|e⟩から、|v⟩を求めるアルゴリズムである(|v’⟩でも良いはず)。
†3 POVMを数学的に定義すると、「和が恒等作用素になる正作用素の集合」となる。POVM測定を量子力学的に定義すると、「測定する物理系(着目系などとも呼ばれる)と補助系(しばしば、アンシラと呼ばれる。具体的には、測定器など)を含めた全体系に対して行う射影測定」となる。
†4 POVM測定では、”わからない”を許容すれば(つまり、それが測定誤り)、量子状態を確実に識別できる[*46]。つまり、今のケースでは、”わからない”を許容すれば、{量子誤りが発生している、量子誤りが発生していない}は、確実に識別できる。

(1) 最強王者「表面符号」の誕生 
0⃣ しきい値定理 
 しきい値定理『量子コンピュータの部品となるあらゆるデバイス、状態初期化、量子演算、測定において、たとえノイズが含まれていたとしても、その大きさが”あるしきい値”よりも小さければ、計算結果の精度をいくらでも上げることができる』[*47]。
1⃣ 物理的に自然な制約が、最強王者「表面符号」を作った 
 (量子誤り訂正における)しきい値は、90年代には0.001%(10-5)程度と実現困難な水準であった。arXivにて2005年10月17日に公開された論文[*48]では、これが一気に1.4%に跳ね上がった†5。ノイズ(モデル)は脱分極ノイズで、測定型量子コンピュータに対して、表面符号を使った量子誤り訂正をシミュレートした結果である。現在も、脱分極ノイズ†6を前提としたシミュレーション結果により、しきい値は「およそ1%」†7と見做されている。
 このしきい値”爆上がり”によって、表面符号は、量子誤り訂正符号の最強王者に君臨することになった。この”爆上がり”の理由を掘り下げると、それは、物理的に自然な制約を課したお陰であった。その制約とは、「隣接した量子ビット間でのみ演算を行う」という制約である[*49]。相互作用は近いほど強い†8というのは物理的には自然な仮定である。故に、遠く離れた量子ビット間で演算を行うのは不自然で、近くの量子ビット間でのみ演算を行うのは理に適っている、という考えを基に、表面符号は構築された。
2⃣ 表面符号Pros&Cons 
 表面符号が最強王者である理由は、しきい値が比較的高いこと及び、最近傍相互作用のみを必要とする、である。この、”最近傍相互作用のみを必要とする”という表面符号の特徴は、ハードウェア実装上も好ましいと捉えられていた。それは、多くの量子コンピューティング・プラットフォームは、量子ビット間の忠実度が高い”長距離相互作用”を実行できないためである。
 しかし、”最近傍相互作用のみを必要とする”という特徴は、結局、スケーラビリティと両立できなかった†9。これは、ハードウェア効率を上げられなかったとも表現できる。結論を先取りすると、本論文は、20年余り量子誤り訂正を牽引してきた、”最近傍相互作用のみを必要とする”表面符号と、遂に、訣別する覚悟を示した(という意味では、エポックメイキングかもしれない)。
 ハードウェア効率を上げるアプローチには、猫符号やGKP符号と言った文字通り”hardware efficient”な量子誤り訂正符号を採用するというアプローチも存在する。それとは別に、QLDPC符号の範囲で、ハードウェア効率を上げるというアプローチも存在する†10。本論文は、そっちである。
3⃣ 表面符号を越えるための処方箋 
 表面符号の強さを、別の表現で確認してみよう。量子ビットの2次元配列に対して、局所的な操作(隣接する量子ビットのみを含む操作)を行いたい場合、最高の量子誤り訂正符号は、表面符号である[*50]。従って『表面符号と同程度のしきい値を保ったまま(QLDPC符号として)』スケールするには、この条件にチャレンジする必要がある。具体的には、離れたデータ量子ビットとパリティ検査量子ビット†11の間に、⓵余分な非局所演算(長距離演算)を導入するか、⓶量子ビットを3次元配列にする必要がある。本論文は、⓵を採用している。そして、それは茨の道であり、故に、現時点で実装が不可能である。
------- ❚注 釈❚ ---------- 
†5 [*48]には、量子誤りモデルに応じて(従前の、つまり[*48]以前の)しきい値は10-10~10-4の範囲である、と書かれている。
†6 非現実的な「脱分極ノイズ」で良いのか、という議論は当然ある。
†7 以下㊀、㊁(及び脱分極ノイズ)の仮定の下で、シミュレートした結果得られるしきい値は10.3%である:㊀X誤り(ビット反転誤り)と Z誤り(位相反転誤り)が独立して処理される。㊁最小重み完全一致(MWPM)に基づく復号アルゴリズムを使用する。ここから更に、(現実的な仮定である)ノイズの多い補助量子ビットで複数回のパリティ検査を行う等を仮定すると、しきい値は1%程度となる。
†8 グルーオンを媒介粒子とする強い相互作用は、例外。
†9 例えば[*50]では、超伝導方式を対象に「金額(エコノミクス)と消費電力」を取り上げて、表面符号にはスケーラビリティが欠如していることを示している。ただし、他モダリティでも結論は同じである。
†10 LDPC符号である(パリティ検査が低密度である)ことは、量子誤り訂正符号がスケールする必要条件である(十分条件ではない)。それは、以下㊀+㊁でなければ、量子誤りは際限なく蓄積してしまうからである:㊀パリティ検査が低密度。㊁符号長が大きくなるにつれて(物理量子ビットの数を増やすにつれて)、量子誤り訂正ラウンドごとに各物理量子ビットに対して実行される演算の数を制限する。LDPC符号の範疇でハードウェア効率を上げるというアプローチは、予見性が高いアプローチと言えるだろう。
†11 量子誤り訂正の文脈で、物理量子ビットを「機能」で分けると、データ量子ビットとパリティ検査量子ビットに分けられる。

(2) 表面符号の対抗馬としてのQLDPC符号
0⃣ 為念:LDPC符号[*51],[*52]
 LDPC符号は1960年代に提案†12されながら、計算機の能力不足により長らく、その真価が発揮できなかった(有効性を証明できなかった)という不遇の歴史を持つ。90年代後半にD.J.C.MacKay卿によって再発見され、2000年代には、シャノン限界に近い誤り訂正能力を持つことが知られるようになった。2009年には無線LANにおける誤り訂正プロトコルのオプションとして規定された。

1⃣ QLDPC符号を代替として検討する理由 
 表面符号に対する、ハードウェア効率が高い代替†13として、QLDPC符号を検討する理由は、いくつか考えられる。一つ目の理由は、”文字通り”ハードウェア効率の向上が見込めることが、明らかになったからである。明らかになったのは、つい最近と言える2020年のことであった。
 一定の符号化率と線形距離を持つLDPC符号が存在する。ここで線形距離とは、符号距離dと符号長nが、d ∝ nの関係にある(線形にスケールする)ことを意味する。従って、QLDPC符号でも線形距離が、当然期待された。しかし、その実現は困難を極め、長らく√n・polylog(n)の壁は、越えられないと考えられていた。表面符号は平方根距離(つまり、d ∝ √n)であるから、QLDPC符号にアドバンテージはなかったのだが、2020年に、その壁が乗り越えられた。その後、符号距離におけるQLDPC符号のアドバンテージは、徐々に伸びていき、現状(と言っても、レビュー論文[*53]の公開@arXivは2021年10月25日)、n1−α/2log(n)まで到達している†14。ここでαは、0≤α<1を満たす(α=0で線形距離であるが、[*53]ではn1−α/2log(n)を、ほぼ線形距離と呼んでいる)。
 二つ目の理由として、QLDPC符号はその設計において、LDPC符号の知見を活かせる、ことが上げられる†15。LDPC符号(and/orQLDPC符号)から、QLDPC符号を構築できるようにするさまざまな数学的なツールが充実した結果、符号距離アドバンテージに関する記録ラッシュが続いている[*53]。具体的には、ハイパーグラフ積、テンソル積、リフト積、バランス積といった積構造及びファイバー束による捩れ構造の導入、が上げられている。本論文のBB符号は、リフト積を使って構築されている(と理解している)。
 さらに、復号のおいても、LDPCの知見は活かされる。具体的には、信念伝播(BP)復号の転用である。LDPC符号で広く使用されている復号アルゴリズムは、タナー・グラフにおける反復メッセージ・パッシングに基づいており、信念伝播法(Belief Propagation:BP、あるいは確率伝播法)と呼ばれる。BP法を使った復号は、原理的には任意のQLDPC符号に適用でき、その単純さによりハードウェア実装に利点をもたらす。
 三つ目の理由として、復号の時間計算量を削減できることが上げられる。QLDPC符号は、優れた符号化率を実現するため、高速な復号が可能になる。さらに、QLDPC符号は簡略化された復号アルゴリズムを提供する。このため、QLDPC符号は単純な論理ゲートによって実装でき、複雑なプロセッサを必要としない。これは、システムへの熱放散が少なくなることを意味し、古典的な制御ハードウェアを量子ビットに近づけることができる可能性がある。
 四つ目の理由として、「シングル・ショット復号」が上げられる。スタビライザーの検査測定は、ノイズの影響を受ける(測定誤差が発生する)ので、信頼性を高めるために、測定を繰り返す必要がある。シングル・ショット復号とは、スタビライザー検査測定を繰り返す必要がないように、そのような測定誤差に対して堅牢性を示す特性を指す。

2⃣ QLDPC符号を避けたい理由 
 一方で、QLDPC符号を避けたい理由もある。それらが解消され、かつ、符号距離のアドバンテージが2020年以降続いているという事実を鑑みれば、QLDPC符号が最近注目を集めている理由が、肚に落ちるだろう。
 避けたい理由として、ハードウェア実装が難しい、ことが上げられる。このカテゴリーに属する問題として、①小さくすべき「スタビライザー検査に含まれる量子ビットの最大数」が、QLDPC符号では大きい、②物理量子ビットとその結合を空間内にどのように配置するか、③適切な測定スケジュールを見つける、が存在する。①は、スタビライザー検査を、より小さな検査に体系的に分割することで、解決できるようである。
 ②は、やや重いものの、解決可能である。QLDPC符号の平面埋め込みは一般的に不可能である。一方で、超伝導方式を含む多くの量子モダリティにとって、ハードウェア実装は平面レイアウトでのみ可能である(本論文では、「マイクロ波共振器で結合された超伝導量子ビットを使用したハードウェア実装において、課題をもたらす」と記されている)。
 一般論として、この課題は(グラフ理論における)「本型埋め込み(book embedding)」を使用することで、回避可能である。タナー・グラフ†16を使って説明すると、QLDPC符号のタナー・グラフは平面ではないが、グラフを平面部分に分割し、交差することなく1次元の線に沿って接続することが可能である。 グラフの頂点は線(背表紙)に沿って配置され、各辺(エッジ)には、その線を境界(ページ)とする半平面が割り当てられる。
 本論文では、別の解決策の可能性が提示されている(【3】(1)2⃣を参照)。
 ③は重いようである。スタビライザー検査を測定するには、つまりデータ量子ビットを測定に使用される補助装置に結合するゲートの順序を見つける必要がある(これは、スケジューリングと呼ばれる)。スケジューリングは、量子誤りが拡散しないようにするため効率的である必要がある。しかし、その決定は簡単ではないらしい。
------- ❚注 釈❚ ---------- 
†12 Robert G. Gallager(MIT名誉教授)が博士論文で提案した(ちなみに、[*52]では1963年のMITプレスが引用されている。[*54]では1962年の論文が引用されている)。Gallager名誉教授は、2020年に日本国際賞を受賞している。
†13 ややこしいことに、表面符号もQLDPC符号に属する。したがって、QLDPC符号ファミリーの中で、表面符号の代替案を探すという意味合いになる。
†14 [*53]では、新しい手法を導入しなければ、線形距離に達することは難しいとの見立てを示している。その上で、非可換(非アーベル)的な捩れの導入を提案している。
†15 実際は、LDPC符号の知見を転移することが難しかったり、転移すること自体不可能な知見もあるらしい。
†16 LDPC符号の構成や復号について検討する際には、パリティ検査行列から一意に定まる二部グラフを考えることがしばしば有用である[*55]。線形符号のパリティ検査行列に関する二部グラフを、タナー・グラフと呼ぶ。二部グラフ(bipartite graph)とは、頂点集合を2つに分割して各部分の頂点は互いに隣接しないようにできるグラフである。

【3】2変量2サイクル符号(BB符号)の詳細 
(0) 前説 
 QLDPC符号の設計においては、ハードウェア実装を念頭に置くことが重要である。また、全ての量子誤り訂正符号において、効率的な復号アルゴリズムに目途を付けておくことは重要である。一般的なスタビライザー符号の場合、最適な復号(誤りを元に戻す成功確率を最大化すること)が、#P完全であることが証明されている(!)。ただし、多くの場合、次善の復号アルゴリズムを考慮するだけで十分であるとされている。表面符号で例えると、最小重み完全マッチングである。
1⃣ 概要 
 本論文のBB符号は、LDPC符号を再発見したD.J.C.マッカイ卿他が考案した2サイクル符号を改良した符号である。2サイクル符号が単項式に基づいているのに対し、BB符号は二変量(bivariate)多項式に基づいている(ので、bivariateのBが加わって)BBと名付けられている。
 BB符号は、Calderbank-Shor-Steane(CSS)符号†17に分類されるQLDPC符号であり、パウリXとパウリ Zで構成される 6 量子ビット検査(スタビライザー)演算子のコレクションによって記述できる。BB符号の物理量子ビットは、周期的な境界条件を備えた 2 次元グリッド上にレイアウトできる。BB 符号の検査演算子は、幾何学的に局所的ではない。さらに、各検査は 4 量子ビットではなく 6 量子ビットに作用する。

(1) ハードウェア実装 
1⃣ グラフ構造 
 一般的な次数6のグラフは厚さ†18が3であるが、BB符号のタナー・グラフは、厚さが2である。このため、BB符号のタナー・グラフは、エッジ(辺)が互いに独立した 2 つの平面部分グラフに分解できる。
 厚さ2の量子ビット接続は、マイクロ波共振器で結合された超伝導量子ビットに適している。たとえば、結合器とその制御線の 2 つの平面層を、量子ビットをホストするチップの上面と下面に取り付けて、その 2 つの面を結合することができる。
2⃣ シンドローム測定(パリティ検査)
 (CNOTゲートで構成される回路によって実現される)シンドロームの測定時間は、測定回路の深さ、つまり重なり合わないCNOTゲート層の数に比例する。シンドローム測定中に、新しい量子誤りが発生し続けるため、回路深さは最小限に抑える必要がある。BB符号のシンドローム測定回路には、符号長に関係なく、CNOTゲート層が7 層だけ必要である。

(2) 復号アルゴリズム 
 端的に述べると、復号アルゴリズムは、ヒューリスティックス的に見出される。具体的には、信念伝播法(BP)と、順序統計量事後処理ステップ復号(OSD)を組み合わせたBP-OSDを回路ノイズモデルに適応させている。これには、オフラインとオンラインのステージが含まれる。
 オフライン・ステージでは、シンドローム測定回路と誤り率 p を入力として受け取る。個別の単一誤りごとに、スタビライザー形式を使用して回路を効率的にシミュレートし、誤り確率、測定されたシンドローム、および最終的な理想的なシンドロームを追跡する。
 オンライン・ステージでは、シンドロームのインスタンスを取得し、発生した可能性のある一連の量子誤りを特定する。オフライン・ステージの結果を使用すると、これを最適化問題として定式化することが可能で、BP-OSD によってヒューリスティックに解決することができる(らしい)。

(3) BB符号が達成する成果 
 BB符号は、表面符号の(量子誤り)しきい値とほぼ同じ、0.7%のしきい値を提供する。ここで、距離12のBB符号を使用して、12 論理量子ビットを符号化することを考える。物理的誤り率p は(妥当な水準である)、1× 10−3を仮定する。BB符号だと、わずか288個の物理量子ビット数で、論理誤り率 2 ×10−7が得られる(と本論文は主張する)。
 そして、同じことを表面符号で達成するには 3,000 個を超える物理量子ビットが必要になる(と本論文は主張する)。 つまり(本論文の主張を鵜呑みにすれば)距離 12のケースで、BB符号は表面符号と比較して、物理量子ビット数を10 倍強節約できる。
------- ❚注 釈❚ ---------- 
†17 QLDPC符号は、パリティ検査行列の大域的な構造に基づいて、CSS符号、非CSS符号、及びエンタングルメント・アシスト符号に分類できる[*56]。
†18 グラフの厚さとは、「いくつかの平面グラフを重ね合わせて、グラフを作る際に必要な、平面グラフの数」である。

【4】衝撃の事実及び、考察 
(0) アドバルーン 
 これまで長々と書いてきたわけだが、極めて重要な事実は【0】で既述した通り、現時点では、全く実装できないことである(つまり絵に描いた餅)。本論文では、「(BB符号実装に要求される)ハードウェア要件は、現在の超伝導量子コンピューティング・プロセッサでは、未だ満たされていない」と表現されている。そして、「解決するのが難しいが、不可能ではない」と形容する、技術的な課題3つを具体的に提示している。
❶ グラフの厚さが2であるアーキテクチャにおける、低損失の第2層の開発。
❷ 7 つの接続(6 つのバス†19と1つの制御線)に結合できる量子ビットの開発。
❸ 長距離カプラーの開発。

(1) ❶の解決策 
 次のように提示されている: IBM Quantum Eagle プロセッサー用に開発されたパッケージングに小さな変更を加えることが考えられる。最も簡単な方法は、追加のバスを量子ビットチップの反対側に配置することである。これには、結合バスの一部となる高 Q の基板貫通ビアの開発が必要となる。そのため、これらの基板貫通ビアが大きな望ましくないクロストークを導入せずに、マイクロ波の伝播をサポートできることを確認するための、集中的なマイクロ波シミュレーションが必要になる。
🖋考察🖋 実際は、これ一つ取り上げても、時間も費用も要する課題であろう。トータルで、コストダウンが計れるのか?という疑問も湧く。

(2) ❷の解決策 
 次のように提示されている: カプラーの数を4 つ(3 つのカプラーと 1 つの制御)である重い六角格子配置から 、7つに拡張する。本論文によると、これが意味することは、「過去数年間大規模量子システムで使用されてきたコアゲートである交差共鳴ゲートが今後の進路にはならない†20ということである」。
🖋考察🖋 これは超伝導方式を採用しているハードウェア・ベンダーにとって、由々しき事態であろう。過去の最大資産が座礁資産になるようなものである。IBMやグーグルのようなキャッシュリッチなベンダーであれば問題ないのかもしれないが、スタートアップにとっては、致命的ではないだろうか?
 また本論文には、「結合マップを 7 つの接続に拡張するには、マイクロ波モデリングが必要になる。一般的なトランズモンには、約 60 fF の静電容量があり、各ゲートはバスへの適切な結合強度を得るために約 5 fF であるため、トランスモン量子ビットの長いコヒーレンス時間と安定性を変えることなく、この結合マップを開発することは、基本的に可能である」と、微妙な表現が使われている。
🖋考察🖋 ここで基本的に可能とは、7×5 fF=35fFが60 fFより小さい、ことを述べているに過ぎないのではないだろうか。 それは物理を背景とした算術的に成立するだけであって、工学的・技術的な難度は含まれていないように思われる。

(3) ❸の解決策 
 次のように提示されている: 最後の課題が最も難しい。基本モードを使用できるほど十分に短いバスの場合、標準的な回路量子電気力学モデルが当てはまる。ただし、144 量子ビット符号を実証するには、一部のバスが十分に長いため、周波数エンジニアリングが必要になる。これを達成する 1 つの方法は、フィルタリング共振器を使用することであり、原理実証実験が参考文献で実証されている。
🖋考察🖋 実験室レベルを越えていないということである。そもそも、表面符号を最強王者たらしめた要因は、”最近傍相互作用しか考慮しない”という荒業であった。それを今更、反故にして、やっぱり長距離相互作用を考慮します、というアプローチが簡単な訳はない。
------- ❚注 釈❚ ---------- 
†19 言うまでもなく、BB 符号の検査演算子が、6量子ビットに作用することに由来している。
†20 超伝導量子ビットでCNOTゲートを作る場合、交差共鳴ゲートを使用することが標準的である。このことを鑑みると、コトの重大さが沁みる?

【5】付記 
(1) [*50]は、猫量子ビットを使ったQLDPC符号を作成したことを主張するアリス&ボブ†21の公式ブログである(詳しくは24年2月6日にarXivにて公開された論文[*57]に書かれている)。アリス&ボブは、局所的な接続だけを使って猫量子ビットの2次元配列を作り、余分な長距離接続を持つ猫量子ビットの1次元配列と等価なものを得ている。これを、「猫を使えば、LDPC符号と局所的な接続性を持つ繰り返し符号を出し抜くことができるのだ!」と表現している。
(2) 2015年のレビュー論文[*56]には、QLDPC符号の開発に大きく貢献した研究者が上げられており、日本人の貢献も大きいことがわかる。具体的には、萩原学教授(千葉大←産総研)、藤原祐一郎助教(千葉大)、笠井健太准教授(東工大)の名前が上がっている。
------- ❚注 釈❚ ---------- 
†21 仏の量子ハードウェア開発スタートアップ。量子モダリティは超伝導であり、猫量子ビットに拘っている。

Appendix 
【1】C3予想及びqLTC予想を肯定的に証明したという論文
[背景]
 古典的な、局所検定可能符号(LTC)とは、与えられたシーケンスからランダムに選ばれた非常に小さな(通常は一定の数の)ビットを見ることによって、ある符号語に近いかどうかを高い確率で検定できる、効率的な非決定論的手続きを備えた符号のことを指す。「❶局所性、❷レート及び❸正規化最小距離が一定」のLTCが存在するかどうかは未解決問題で、(古典符号の場合)c3予想、(量子符号の場合)qLTC予想と呼ばれる。
[内容]
 モスクワ大学の研究者による論文[*A-1](22年1月)で、以下(1)と(2)が証明された。
(1)古典符号・・・c3予想
 「❶局所性、❷レート及び❸正規化最小距離が一定の」古典的LTCが存在する、ことが証明された。
(2)量子符号・・・弱い形でのqLTC予想
 量子の場合は、古典的な場合に比べてやや弱く、「❷レート及び❸正規化最小距離が一定の」量子的LTCが存在する、ことが証明された。なお、❷と❸が一定の量子的LTCが、漸近的に良いqLDPC符号である。

【2】トポロジカルに安定した結び目を数学的に同定したという論文
 渦(糸)の基本群が非可換であれば、その渦はロバストであり、トポロジカルに保護された渦(トポロジカル渦)である。フィンランド・アールト大学の研究者たちの論文[*A-2](22年12月)は、非可換群として四元数群を使って、トポロジカル渦を同定した。そして、そのトポロジカル渦の渦糸から作られる結び目を同定することで、トポロジカルに安定な結び目を同定した。結び目→組み紐(群)→行列→量子演算、という具合に移行することで、トポロジカルに保護された量子演算を同定することが可能となる。
 問題は、どうやって物理実装するかである(マヨラナ粒子を使うトポロジカル量子計算は、物理実装の道が見えない[*A-3])。ボーズ-アインシュタイン凝縮における渦糸などが候補のようである。

【尾註】
*1 量子技術エコシステム構築を支援する、非営利の私立財団(内国歳入法501(C)(3)団体)。mitiqの開発者でもある。https://unitary.fund/
 コアメンバーがIBMとアクセンチュア。サポーティングメンバーは、IonQ、IQM、Xanadu、Pasqal、Agnostiq、ボストン・コンサルティング・グループなど。サポータに、Rigetti、QCI、QCWare、Zapata、CQC、Strangeworks、グーグル、マイクロソフトなど。
*2 V.Russo et al.、Testing platform-independent quantum error mitigation on noisy quantum computers (https://arxiv.org/pdf/2210.07194.pdf)
 論文著者の一人でもあるWilliam Zengは、ゴールドマン・サックス(GS)の量子リサーチ部門長でUnitaryファンドの個人サポータでもある。オックスフォード大学でPh.D取得後、イェール大学とチューリッヒ工科大学で超伝導量子ビットを研究。Rigettiを経由して、GSに入社。
*3 Z.Cai et al.、Quantum Error Mitigation (https://arxiv.org/pdf/2210.00921.pdf)
*4 ZNEの詳細は、例えば次を参照。T. Giurgica-Tiron et al.、Digital zero noise extrapolation for quantum error mitigation (https://arxiv.org/pdf/2005.10921.pdf)
*5 depolarizingの和訳。他には、分極解消、分極消去といった訳語もある。
*6 99%の確率で、量子状態(密度演算子)が変わらないという意味である。
*7 V. V. Sivak et al.、Real-time quantum error correction beyond break-even (https://arxiv.org/pdf/2211.09116.pdf)
*8 PPOは、2017年OpenAI で開発された、モデルフリー強化学習アルゴリズム。本研究ではNVIDIAのGPUが使用された。
*9 共振器と環境系は、離散系の1量子ビットモデルで表現する。つまり補助量子ビットは、適宜初期化して、再利用する。
*10 Amplitude-dampingエラーは、量子系からエネルギーが損失することに起因する一般的なエラー。長田・山崎・野口(2021)では、「現実に起こるエラーとして最も重要」と記述されている。
*11 C. Ryan-Anderson et al.、Implementing Fault-tolerant Entangling Gates on the Five-qubit Code and the Color Code (https://arxiv.org/pdf/2208.01863.pdf)
*12 Matthew J. Reagor et al.、Hardware optimized parity check gates for superconducting surface codes https://arxiv.org/pdf/2211.06382.pdf
*13 自然放出によるエラーは、状態空間を非一様に覆うように作用してしまうため、ランダム化ベンチマーキングの仮定が崩れてしまう。これに対処するため、敢えてBlochベクトルを回転させて、この効果を打ち消す方法をトワリング(twirling)という。
*14 スタビライザー回路の高速シミュレータ。Stimは距離100の表面符号回路(2万量子ビット、800万ゲート、100万計測値)を15秒で解析し、その後1kHzのレートで回路全体のショットのサンプリングを開始することができる。Stimは、AaronsonとGottesmanのCHPシミュレータに3つの改良を加えている[https://quantum-journal.org/papers/q-2021-07-06-497/]:①回路のスタビライザテーブルの逆数を追跡することにより、決定論的測定の漸近的複雑性を、二次関数から線形に改善する。②キャッシュフレンドリーなデータレイアウトと、256ビット幅のSIMD命令を使用することにより、アルゴリズムの定数係数を向上させた。③高価なスタビライザーテーブル・シミュレーションを、最初の参照サンプル作成にのみ使用する。
*15 最小重み完全マッチングアルゴリズムによる、量子誤り訂正符号の復号化用Pythonパッケージ。
*16 Google Quantum AI、Suppressing quantum errors by scaling a surface code logical qubit、
Nature、Vol 614、23 February 2023、pp.676-682 https://www.nature.com/articles/s41586-022-05434-1 
*17 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/22/2209-01.htm
*18 https://www.jst.go.jp/pr/announce/20220930-2/index.html
*19 同名の論文が、natureに投稿された(23年3月)。 https://www.nature.com/articles/s41586-023-05782-6
*20 Harry Levine et al.、Demonstrating a long-coherence dual-rail erasure qubit using tunable transmons、https://arxiv.org/pdf/2307.08737.pdf
 尚、上記論文は、24年3月20日に査読付き論文として、Physical Review Xにて公開された(オープンアクセス) → https://journals.aps.org/prx/abstract/10.1103/PhysRevX.14.011051
*21 Yue Wu et al.、Erasure conversion for fault-tolerant quantum computing in alkaline earth Rydberg atom arrays、https://www.nature.com/articles/s41467-022-32094-6
Supplementary Informationは、https://static-content.springer.com/esm/art%3A10.1038%2Fs41467-022-32094-6/MediaObjects/41467_2022_32094_MOESM1_ESM.pdf
*22 Shuo Ma et al.、High-fidelity gates with mid-circuit erasure conversion in a metastable neutral atom qubit、https://arxiv.org/pdf/2305.05493.pdf
*23 https://event.phys.s.u-tokyo.ac.jp/physlab2022/posts/17/
*24 萩原学、特集B 誤り訂正技術Ⅰ ~基礎編~ 2章 誤り訂正符号の例と将来展望、映像情報メディア学会誌 Vol.70,No.4,pp.567-570(2016)、https://www.jstage.jst.go.jp/article/itej/70/7/70_567/_pdf
*25 M. Grassl & Th. Beth、Codes for the Quantum Erasure Channel、https://arxiv.org/pdf/quant-ph/9610042.pdf
*26 設楽智洋・越野和樹、超強結合~深強結合領域における共振器量子電磁力学、日本物理学会誌 Vol.78, No.3, 2023, pp.125-133
*27 Sangkha Borah et al.、Measurement-based estimator scheme for continuous quantum error correction、https://journals.aps.org/prresearch/pdf/10.1103/PhysRevResearch.4.033207 
*28 https://physinfo.fr/artemis/
*29 https://phys.org/news/2022-09-erasure-key-quantum.html もっとも、消失誤りを使った量子誤り訂正に関する研究がなかったわけではない。例えば、東芝(後藤隼人氏)による特許(2009年)がある。https://patents.google.com/patent/JP4786727B2/ja
*30 Dolev Bluvstein et al.、Logical quantum processor based on reconfigurable atom arrays、https://www.nature.com/articles/s41586-023-06927-3
*31 Minh-Thi Nguyen et al.、Quantum Optimization with Arbitrary Connectivity Using Rydberg Atom Arrays https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.4.010316 
*32 Gurobi Optimizerは、数理最適化の最新技術を取り入れた、最高性能の線形/整数計画ソルバーらしい。カバーしている範囲は、「線形計画、混合整数線形計画、二次計画、二次制約、混合整数二次計画、混合整数二次制約、混合整数非凸二次制約」ということである。出典:https://www.octobersky.jp/products/gurobi
*33 https://www.keio.ac.jp/ja/press-releases/files/2023/12/11/231211-1.pdf
*34 https://www.linkedin.com/posts/qubit-pharmaceuticals_press-release-hyperion-1-activity-7138176101075296258-kK65
*35 SHUNYA KONNOet al.、Logical states for fault-tolerant quantum computation with propagating light、https://www.science.org/doi/10.1126/science.adk7560
*36 Kan Takase et al.、Gottesman-Kitaev-Preskill qubit synthesizer for propagating light、https://www.nature.com/articles/s41534-023-00772-y
*37 福井浩介他、最近の研究から| 光の連続性を活用した量子誤り耐性向上手法、日本物理学会誌 Vol.74, No.10, 2019,pp.720-726、https://www.jstage.jst.go.jp/article/butsuri/74/10/74_720/_pdf
*38 武田俊太郎、解説| 光量子コンピュータの新時代 ループ型を中心として、応用物理 第92巻 第4号(2023)、pp.214-219、https://www.jstage.jst.go.jp/article/oubutsu/92/4/92_214/_pdf
*39 https://www.nict.go.jp/quantum/topics/4otfsk00000bfwmv-att/Quantum_cat_story.pdf
*40 Demid Sychev et al.、RESEARCH ARTICLE |Generating and breeding optical Schrödinger’s cat states、FEBRUARY 28 2018、https://pubs.aip.org/aip/acp/article/1936/1/020018/739390/Generating-and-breeding-optical-Schrodinger-s-cat
*41 設楽智洋・越野和樹、解説| 超強結合~深強結合領域における共振器量子電磁力学、日本物理学会誌 Vol.78, No.3, 2023,pp.125-133、https://www.tmd.ac.jp/artsci/physics/ikuzak/2023buturi.pdf
*42 和久井健太郎、解説 光量子計算機研究の持続的発展のために| 非ガウス型量子操作によるシュレーディンガーの子猫状態の生成、光学37巻12号(2008)、pp.712-715、https://annex.jsap.or.jp/photonics/kogaku/public/37-12-kaisetsu7.pdf
*43 |博士論文|芹川 昂寛、高周波光サイドバンドにおける非ガウス型状態の研究、https://repository.dl.itc.u-tokyo.ac.jp/record/2001996/files/A35844_abstract.pdf
*44 Sergey Bravyi et al.、High-threshold and low-overhead fault-tolerant quantum memory、https://www.nature.com/articles/s41586-024-07107-7#content
*45 藤田八郎、漸近的に良い連接量子符号の構成、https://www.i.u-tokyo.ac.jp/coe/report/H17/21COE-ISTSC-H17_4_5_3.pdf
*46 杉本宏行、Error marginのある量子状態の識別問題、https://apphy.u-fukui.ac.jp/~nucleus/sugimotoThesis09.pdf
*47 藤井啓祐、岩波 科学ライブラリー289 驚異の量子コンピュータ-宇宙最強マシンへの挑戦、岩波書店、2019
*48 R. Raussendorf et al.、A fault-tolerant one-way quantum computer、https://arxiv.org/pdf/quant-ph/0510135.pdf
 [*47]に、[*48]は(藤井先生が)学部4年のときに公開された、とある。故に、2005年公開で間違いない。
*49 徳永裕己、特集|量子コンピュータ 量子コンピュータの誤り訂正技術ー物理に即したトポロジカル表面符号ー、情報処理 Vol.55 No.7 July 2014、pp.695-701、https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=101754&file_id=1&file_no=1
*50 MORE QUANTUM COMPUTING WITH FEWER QUBITS? MEET OUR NEW ERROR-CORRECTION CODE、https://alice-bob.com/blog/more-quantum-computing-with-fewer-qubits-meet-our-new-error-correction-code/
*51 久保田周治、特集B 誤り訂正技術Ⅱ~応用編~ 第5章無線LANの誤り訂正、映像情報メディア学会誌 2016 年70巻9号、pp.764-769、https://www.jstage.jst.go.jp/article/itej/70/9/70_764/_pdf/-char/ja
*52 内川浩典、解説論文 低密度パリティ検査符号(LDPC符号)ーRobert G. Gallager先生の2020年日本国際賞受賞に寄せて、電子情報通信学会 基礎・境界ソサイエティFundamentals Review 2021 年14巻3号、pp.217-228、https://www.jstage.jst.go.jp/article/essfr/14/3/14_217/_pdf/-char/en
*53 Nikolas P. Breuckmann & Jens Niklas Eberhardt、Quantum LDPC Codes、https://arxiv.org/pdf/2103.06309.pdf
*54 村山立人、[1998年度修士論文]低密度パリティ検査符号の統計力学的解析、物性研究72-6(1999-9)、pp.876-901、https://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/96674/1/KJ00004707668.pdf
*55 井坂元彦、電子情報通信学会『知識の森』1 群(信号・システム)2編(符号理論)6 章 ターボ符号・LDPC 符号、https://www.ieice-hbkb.org/files/01/01gun_02hen_06.pdf
*56 Zunaira Babar et al.、Fifteen Years of Quantum LDPC Coding and Improved Decoding Strategies、https://ieeexplore.ieee.org/document/7336474
*57 Diego Ruiz et al.、LDPC-cat codes for low-overhead quantum computing in 2D、https://arxiv.org/pdf/2401.09541.pdf

*A-1 Pavel Panteleev and Gleb Kalachev、Asymptotically Good Quantum and Locally Testable Classical LDPC Codes https://arxiv.org/pdf/2111.03654.pdf
*A-2 Toni Annala et al.、Topologically protected vortex knots and links https://www.nature.com/articles/s42005-022-01071-2
*A-3 Googleのチームは、22年11月、マヨラナ・エッジ・モードを超伝導量子ビットで初めて実現した、と発表している(https://www.science.org/doi/10.1126/science.abq5769)。Jordan-Wigner変換を用いて、Kitaevが考えたモデルを、量子コンピュータにマッピングした。

【参考資料】
▪長田有登・山崎歴舟・野口篤史、Q-LEAP量子技術教育プログラム 量子技術序論、2021年3月 (https://www.sqei.c.u-tokyo.ac.jp/qed/QEd_textbook.pdf) 
▪B. Royer et al.、Stabilization of Finite-Energy Gottesman-Kitaev-Preskill States (https://arxiv.org/pdf/2009.07941.pdf)
▪Alec Eickbusch et al.、Fast Universal Control of an Oscillator with Weak Dispersive Coupling to a Qubit(https://arxiv.org/pdf/2111.06414.pdf)
▪Kyungjoo Noh et al.、Low-Overhead Fault-Tolerant Quantum Error Correction with the Surface-GKP Code (https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.3.010315)
▪John Preskill、Lecture Notes for Ph219/CS219: Quantum Information Chapter 3 (http://theory.caltech.edu/~preskill/ph219/chap3_15.pdf)


お問い合わせ
  

TOP