MerchantBank Consulting
サブページ画像

量子誤り緩和QEM及び量子誤り訂正QECを敷衍してみた

■目次■ 
 Ⅰ 量子誤り緩和策を実験で比較した論文(2022年10月13日)   ✚量子誤り緩和を用いることで、量子計算は・・・(23年6月15日)
 Ⅱ 損益分岐点を越えたことを示唆する実験結果を得たと主張する論文(2022年11月16日)
 Ⅲ 量子誤り訂正符号に最適化されたハードウェア設計に関する論文(22年11月11日)
 Ⅳ 量子誤り訂正符号において、サイズによる性能スケーリングが存在することを実証したと主張する論文(23年2月22日)
 Ⅴ トランズモンベースで”消失”量子誤り訂正を成功させた、と主張する論文(23年7月19日) ✚OQCのデュアルレール符号化(25年6月18日)
 Ⅵ 誤り耐性汎用量子計算に至るスケールアップへの道筋をつけた、と解釈できる論文(23年12月6日) 若干の追記あり
 Ⅶ 伝搬光でGKP量子ビットを生成したと主張する論文(24年1月18日)
 Ⅷ 表面符号に花束を:ハードウェア効率の高いqLDPC符号を発見した主張する論文(24年3月27日)
  Ⅷ-0.5 IBMは、自転車に乗って、天下を鳥にいく?(25年6月3日)
  Ⅷ+1 qLDPC符号用リアルタイム復号器を提案した論文(25年6月2日)
  Ⅷ+2 ハッシング限界に迫るqLDPC符号(25年9月30日)
 Ⅸ AlphaQubitは、リバーレーンに勝てるか?(24年11月20日) ✚❚ちょい足し1❚ 復号|AI49C(25年12月2日) 
   ✚❚ちょい足し2❚ 中国がグーグルに追いついた(25年12月22日) 
 Ⅹ カラー符号で符号距離スケーリング他を達成(24年12月18日)
 Ⅺ モジュラー・アプローチに適したQEC符号とは?(25年1月23日)
 Ⅻ 消失量子誤り訂正に連なるtesseract符号(25年5月28日)
━━━━━━━━━━━━━━━━━━
〖補遺1〗 表面符号がスケーリングする(24年12月9日@nature)及び〖補遺2〗猫もスケールする!(24年9月23日@arXiv)
Appendix 3 初期状態準備で損益分岐点を超えたと主張する論文(24年4月4日@arXiv)
Appendix 5 ユニタリー2デザインがQEMに指数コストを発生させる?(24年7月25日@arXiv)
Appendix 6_1 リバーレーンのレポート(24年10月)6_2 リバーレーンのレポート(25年11月) 
Appendix 7 論理魔法状態蒸留を実証(24年12月20日@arXiv)Appendix 7+0.5 高性能の魔法状態準備プロトコル(25年6月17日)
Appendix 8 QEC✖機械学習・深層学習(24年12月29日@arXiv)
Appendix 9 マイクロソフトの誤り耐性アーキテクチャ(25年6月18日@arXiv)
Supplement Ⅰ 分散量子コンピューティング(25年2月5日@nature)
Supplement Ⅱ ノイズ・バイアスを保存する量子ビット・ゲート(25年8月1日@arXiv)
❚ 余 談 (長い・・・)❚
其の零・・・
 (24年を起点として)過去3年間の主要な研究のブレークスルー by Riverlaneは、こちらを参照。
其の壱・・・
 量子誤り訂正(QEC)に関して、とある専門家界隈で重要(as of 24年7月9日)と目されている論文等は、以下である。
  ① ETHZ†1、Realizing repeated quantum error correction in a distance-three surface code(2021年12月7日@arXiv→22年5月25日@nature)、
  ② Google、Suppressing quantum errors by scaling a surface code logical qubit(2022年7月20日@arXiv→23年2月22日@nature)、
  ③ Quantinuum、Implementing Fault-tolerant Entangling Gates on the Five-qubit Code and the Color Code(2022年8月3日@arXiv)、
  ④ イェール大学、Scalable Quantum Error Correction for Surface Codes using FPGA(2023年5月15日@arXiv)、
  ⑤ ハーバード大学・QuEra、Logical quantum processor based on reconfigurable atom arrays(2023年12月7日@arXiv→23年12月6日@nature)、
  ⑥ Alice&Bob、LDPC-cat codes for low-overhead quantum computing in 2D(2024年2月6日@arXiv→25年1月26日@nature)、
  ⑦ IBM、High-threshold and low-overhead fault-tolerant quantum memory(2024年2月21日@arXiv→24年3月27日@nature)、
  ⑧ MS†2・Quantinuum、How Microsoft and Quantinuum achieved reliable quantum computing(2024年4月3日@MS社のBlog)。
†1 スイス連邦工科大学チューリッヒ校、†2 米マイクロソフト社 
 本サイト・本稿に、①は無し(古い)。②は、[*16]でこちらを参照。③は[*11]として引用。④も無し。⑤は、[*30]でこちらを参照。⑥は、[*50](公式ブログ)及び[*57]として引用。⑦は、[*44]でこちらを参照。⑧は、こちらを参照。個人的(?)には、「消失量子誤り訂正符号」を扱った論文が、最重要だと考えている。表面符号が絶対王者から陥落し、低密度パリティ検査符号(qLPDC)が次期王者と見做されているが、個人的(?)には、消失量子誤り訂正符号🖌本命だと思っている(消失量子誤り訂正符号の量子誤り訂正に対するアプローチは、キラー・クイーン第3の能力「バイツァ・ダスト(bite the dust)」をイメージすると分かり易い)。なお、どちらも古典誤り訂正符号にインスパイアされているという意味では、共通している。
🖌 米NSF(国立科学財団)は量子技術の開発を加速するための野心的な取り組みとして、6つのプロジェクトを開始した(24年12月16日)[*73]。その1つが、「量子優位性のための消失量子ビットと動的回路」。イェール大学が率いて、バージニア工科大学、メリーランド大学、プリンストン大学、ノースカロライナ農業技術大学、RTXテクノロジー研究センター、Quantum Circuits、Nvidia、クオンティニュアム、JPモルガン・チェース、AWSが参加する。
其の弐・・・
 マッキンゼー・デジタルのQuantum Technology Monitor(2024年4月)[*58](ちなみに、カバーtoカバーで103頁ある)は、量子コンピューティングのTechnological breakthroughs(のソース)として『「消失量子誤り訂正符号」を扱った論文と、⑤、⑥、⑦、⑧』の5つを上げている(つまり、全てQEC関連である)。ボストン・コンサルティング・グループのThe Long-Term Forecast for Quantum Computing Still Looks Bright(24年7月18日)[*60]は、⑤、⑥、⑦、⑧を上げている(のみで、エッジがない)。
 なお、[*58]における消失量子誤り訂正符号の記述はミスリーディングの可能性がある。AWSが、トランズモン・ベースの量子ビットで消失量子誤り訂正符号を実現したことは事実(論文は[*20])であるが、誤解の可能性が2つある:㈠「消失量子誤り訂正符号は、超伝導方式の量子ビットでのみ実現できるわけではない」。最初に実現したのは中性原子方式の量子ビットで、米イェール大他の研究者による(論文[*21]は、22年8月9日に公開)。[*20]は、[*21]をトランズモンで実現しましたという論文。なお米Quantum Circuitsもトランズモンで、消失量子誤り訂正符号を実現している[*59]。㈡消失量子誤り訂正符号を使っても、「超伝導方式がパッとしない」ことに変わりはない(と思っている)。
其の参・・・
 学術的には、スクランブリング(量子情報の非局所化(非局在化とも言う))の性質を有するSachdev-Ye-Kitaev(SYK)模型(マヨラナ・フェルミオンがランダム相互作用する模型)を量子誤り訂正に活用するというトピックスがある。しかし、そこまでは必要ないだろう。👉 ちなみに、理研・慶大及びクオンティニュアムは、周期駆動系(を模した量子回路)で、スクランブリング状態を準備できることを実証した([*89]@Physical Review Research、25年4月10日)。
其の肆・・・
 誤り耐性量子計算を射程とすると、量子誤り訂正符号の論点には少なくとも、以下が存在する(と思われる):①しきい値、②損益分岐点、③符号化率、④スケーラビリティ/符号距離スケーリング、⑤復号まわり(速度と精度)、⑥論理誤り率、⑦現実的なノイズへの対応、⑧(量子メモリ実験を越えて)量子論理ゲート操作に対する量子誤り訂正、⑨接続性・モジュール性、⑩魔法状態準備まわり。
其の伍・・・
 カリフォリニア工科大学のジョン・プレスキル教授は、Beyond NISQ: The Megaquop Machine[*112](25年3月12日@arXiv)において、メガQuOps†3達成が期待できる量子誤り訂正プロトコルとして、以下を提示している(ただし表記は、行間を補間した上での表記である):
 ㊀ボソニック符号(猫量子符号、GKP符号)、㊁消失誤り変換を利用する量子誤り訂正符号。㊁の例として、デュアルレール符号化を取り上げている。
†3 QuOps=無謬量子演算。ちなみに英リバーレーン(量子誤り訂正周りのS/Wスタートアップ)は、「古典超えを示すには、量子優位性などという曖昧な概念は不要。QuOpsを使えば良い」と主張している。

Ⅰ 量子誤り緩和策を実験で比較した論文 
 Unitaryファンド[*1]、スイス連邦工科大学ローザンヌ校及びゴールドマン・サックスは、「量子誤り緩和(QEM)技法の効果を評価した」論文をarXivにて公開した(2022年10月13日付け)[*2]。なおQEMを理論的に幅広くレビューした論文としては、例えば[*3]がある(ver.1は22年10月付け。最新のver.3には、Dated: January 1,2024とある)。

【1】効果を評価したQEM技法
 QEMとしては、代表的な技法である、ゼロノイズ挿入(ZNE)[*4]と確率的誤りキャンセル(PEC)が選択されている。QEMは、mitiqを用いて実装されている。
 ZNEについては、さらに、線形外挿とリチャードソン外挿とに細分されている。当該論文では、線形外挿を行ったZNEはZNE(L)と表記されている。リチャードソン外挿はZNE(R)である(右と左のL、Rではない)。従って、3パターンのQEMが評価対象となっている。
 PECについては2つの単純な仮定が置かれている。
 i) 1量子ビットゲートの誤差を無視する。
 ii) 全ての2量子ビットゲートには、(局所)脱分極ノイズ[*5]を想定する。

【2】ハードウェアとテストベッド
 評価は、合計5種類のハードウェア及び2種類のテストベッドに対して行われた。ハードウェアは、超伝導トランズモン方式((1)IBM Q Limaと(2)Rigetti Aspen-M-2)とトラップイオン方式((3)IonQ Harmony)の量子ゲート方式量子コンピュータに加えて、ノイズあり量子コンピュータ・シミュレータが取り上げられた。量子ビット数nは、(1)では3と5、(2)と(3)では3である。
 シミュレータは、(4)2量子ビットゲート実行後に1%の脱分極ノイズ[*6]を想定するシミュレータと、(5)IBMの量子コンピュータにおける誤り率を、そのままエミュレートするシミュレータ、の2種類である。ちなみに誤り率は、a. 1量子ビットゲートの平方根Xゲート誤り(10-4のオーダー)、b. 平均CNOTゲート誤り(10-2のオーダー)、c. 読み出し誤り(10-2のオーダー)、のそれぞれに与えられている。
 そして、テストベッドは、ランダム化ベンチマーク回路(RB回路)と、ミラー回路が選択された。

【3】評価指標μ
 QEMの効果は、①QEMを行わずに得た可観測量(observable)の期待値、②QEMを行って得られた可観測量の期待値、それぞれと③ノイズのない期待値との平均二乗誤差(RMSE)で評価する。{①,③}のRMSEと{②,③}のRMSEとの比(すなわち、RMSE(①、③)/RMSE(②、③))を当該論文では、改善係数μと呼んでいる。μ>1であれば、QEMの効果があるということになる。

【4】結果
 『ハードウェアによって、QEMの効果が異なる』点が面白い。QEMの効果は、ほとんどの場合、(4)が一番高い。(1)IBMは、ほとんどの場合、μ≧1である。これはn=3でもn=5でも変わらなかった。一方(2)と(3)は、ZNE(R)とRB回路の組み合わせにおいて、ほとんどμ<1であった。(2)は、ほとんどの場合でμ≦1であり、QEMは有効でなかった。(3)は、ZNE(L)においては、有効であった。
 PECは、ZNEに比べて有効ではなかったが、使用しないよりは使用した方が良かった。
 (5)では、n=12量子ビットでのシミュレーションを行っている。μ≧1であり、nが大きくなってもQEMが有効であることを確認したとしている。また、全てのケースで、RB回路のμがミラー回路のμよりも大きいという結果が得られた。

【5】今後の課題
 以下のような、今後の課題(と反省)を上げている。
 ◆ QEM技法は、わずかに2種類である。
 ◆ 量子コンピュータでは最大5量子ビットまでしか、カバーできていない。
 ◆ テストベッドはランダム回路のみであり、構造化回路をカバーしていない。
 ◆ 複数のQEMを組み合わせた場合をカバーしていない。

Ⅱ 損益分岐点を越えたことを示唆する実験結果を得たと主張する論文 
【1】概要
 米イェール大と加シャーブルック大の研究者が、ボソニック符号の一つであるGKP(Gottesman-Kitaev-Preskill)符号を使って、「損益分岐点を越えたことを示唆する実験結果を得た」と主張する論文を発表した(2022年11月16日)[*7,*19]。GKP符号は、(言わずもがな)有限エネルギーGKP符号である。
 損益分岐点(break-even pointの”正式な”和訳。管理会計上の用語ではない)を越えるとは、量子誤り訂正符号を使った量子計算を実行することで、誤りが(蓄積されることなく、むしろ)減ることを意味する。つまり、誤り耐性‖文言‖量子計算を保証する。著者達は、この実験研究の肝を『稀に発生する大きなエラーを無視することなく、頻繁に起こるエラー訂正を優先的に行うことで、誤りを効率的に除去』するところ、と述べている。
 リアルタイム強化学習を使っているところが面白い(機械学習・強化学習の活用自体は、本研究のオリジナリティではない)。強化学習モデルには、Proximal Policy Optimization(PPO)[*8]を使用している。ゲインが最大になるように、パラメータ付QEC(量子誤り訂正)回路の各種パラメータ推定する。ゲインが1を越えると、損益分岐点越えである。
‖文言‖ 誤り耐性
 論理操作中に、 量子誤りが論理量子ビット間で伝播しない場合、誤り耐性と言われる。

【2】セットアップ
 量子誤り訂正回路(QEC回路)は、①制御用の補助量子ビットと②超伝導共振器との結合系である[*9]:①=(タンタル・ベースの)超伝導トランズモン量子ビット。②=(アルミニウム・ベースの)超伝導共振器。QEC回路は、2つのユニタリーゲートU0とUbに分解(コンパイル)される。メインはU0であり、Ubは調整や補償を担うユニタリーゲートである。
 QEC回路にGKP符号を適用する場合、QEC回路は、変位演算子と回転演算子の組みで構成する。変位演算子は、真空状態|0⟩を平行移動させて、一般のコヒーレント状態|β⟩へ変化させる。GKP符号は、変位演算子Dを使って、小さい変位の重ね合わせで誤り訂正を行う、誤り訂正符号方式である。GKP符号においては、QEC回路を、どのような変位演算子と回転演算子の組み合わせで表現するか、というデザイン・ルールを、プロトコルと呼ぶ。本研究では、QEC回路=U0+Ubで、small-Big-small(sBs)プロトコルを採用している。sBsプロトコルについては、再度【3】で取り上げる。
 エラーは、補助量子ビット・共振器ともに、Amplitude-dampingエラー[*10]と、白色雑音Dephasingエラーを想定している。Depolarizing(脱分極)エラーは考えていない。ちなみに、GKP符号は、Amplitude-dampingエラーと相性が良いとされる。

【3】sBsプロトコルについて
 U0を、変位演算子と回転演算子で表現する、あるいは(トロッター)分解する、主要なプロトコルは、主に3つある。sBsプロトコル、Big-small-Big(BsB)プロトコル、そしてSharpen-trim(ST)プロトコルである。歴史的には、まずSTが提案された。STは1次のトロッター分解で、2つのステップで構成される。sBsとBsBは、2次のトロッター分解である。STは、sBsとBsBを組み合わせることで、表現できる。
 本研究では、正確には、sBsプロトコルの修正版が使われている。U0を、echoed制御変位(Echoed Controlled Displacement)演算子(ECD演算子)と量子ビット回転演算子の組に分解している。制御変位演算子の改良版であるECD演算子は、変位演算子Dを使って、
        ECD=D(β)|e⟩⟨g+D(-β)|g⟩⟨e| 
で定義される。ここで、|g⟩は補助量子ビットの基底状態、|e⟩は補助量子ビットの励起状態を表す。
 量子ビット回転演算子Rφ(θ)は、
        Rφ(θ)= exp[-i(θ/2)(cos ϕσx + sin ϕσy)] 
で表される(σは、パウリ演算子である)。

【4】ゲイン(利得) 
 共振器{0,1}の減衰係数Γ{01}とGKPの減衰係数ΓGKPの比をゲインとする。Γ{01}GKP= 2.27 ± 0.07で、1を大きく越える。Γ{01}は、Γ{01}= (1/T1 + 2/T2)/3で計算している。ここで、T1は、エネルギー緩和時間であり、T2は、位相緩和時間である。式に数値(T1=610μs、T2=980μs)を代入すると、Γ{01}=(815 µs)-1が得られる(論文オリジナルでは(800μs)-1となっている)。
 一方ΓGKPは、ΓGKP=(1/TX+ 1/TY+ 1/TZ)/3で計算している。 ここでTX、TY、TZは論理パウリ固有状態の寿命である。寿命は以下のように計算してると思われる:初期状態に戻すという(ランダム化ベンチマーク回路と同じ)論理演算にQECを適用する。初期状態に戻れば成功、戻らなければ失敗とカウントする。論理演算のサイクル時間に成功確率をかけると、平均寿命とコンパラな値が得られるだろう。計算式に、本実験で得られた数値(TX = TZ = 2.20 ± 0.03 ms、TY = 1.36 ± 0.03 ms)を代入すると、ΓGKP = (1.82 ms)-1が求められる。結局、Γ{01}GKP =2.24となる (オリジナルでは、2.27 ± 0.07)。1を大きく越えているので、損益分岐点越えと主張している。

【5】まとめ
 (1) 課題としては、以下が上げられている:補助量子ビットの位相反転誤差に対して設計上、誤り耐性を有しているが、ビット反転に対しては、対象外。また脱分極ノイズも考慮されていない。
 (2) この研究は、{①強化学習を用いたパラメータ推定コントローラ、②超伝導共振器と超伝導量子ビットで構成されるQEC回路、③GKP符号}という座組を用いて、損益分岐点を越える兆候を捉えた、という内容である。そもそも、それで良いのか?という疑問が湧く。例えば、米Quantinuumが22年8月4日に発表した論文[*11]では、SPAM演算ではあるが、CNOTゲートを使って、損益分岐点越えの兆候が見られたと述べている(彼らは、量子誤り訂正符号として、カラー符号を使っている)。2量子ビットゲートを使った、意味のある演算で、損益分岐点を越える結果が求められるように思う。
 (3) なお前述したように、量子誤り訂正に強化学習を活用すること自体は、本研究のオリジナリティではない。少なくとも、『量子誤り訂正に必要な物理的リソース低減を目的に、強化学習を使用したリアルタイム・ニューラルネットワークを組み込んだ量子コントローラを開発する』Artemisプロジェクトが始動している(22年4月から3年間)。このプロジェクトは、学術界及びスタートアップが主導している。スタートアップとは、①仏のH/WベンダーAlice&Bobと、②イスラエルのS/WベンダーQuantum Machinesである。①は、ボソニック符号として、猫符号を使っている。②は、古典コンピュータと量子コンピュータが最適なバランスで協業できる環境を構築することを目指している。

Ⅲ 量子誤り訂正符号に最適化されたハードウェア設計に関する論文 
【1】概要
 米Rigetti Computing(超伝導方式の量子コンピュータを開発している新興企業)と米大手投資銀行ゴールドマン・サックスは、金融アプリケーション(デリバティブの価格評価)に必要な規模で、物理的なオーバーヘッドを適度(15%減)に削減可能と推定される、量子誤り訂正デザインを提案した(22年11月11日、arXivにて論文[*12]を公開)。
 [*12](以下、本論文)では、このデザインを、ハードウェア最適化パリティ(Hardware Optimized Parity:HOP)デザインと呼んでいる。HOPデザインは、「1つの量子ビットが、非対称の調整可能なカプラを介して、最近接結合された正方形に配置された平面トランズモン」に基づいている。
 なお『標準』とは、典型的な表面符号アーキテクチャを使用した場合を指している。

【2】HOPゲート、HOP表面符号及びHOP回路
 以下、HOPデザインを構成する、HOPゲート、HOP表面符号、HOP回路について説明する。
(1) HOPゲート
 量子ゲートは、マルチ量子ビットゲートである。イオントラップ方式のマルチ量子ビットゲートであるMølmer-Sørensenゲートに触発されているようである。具体的には、単一の5量子ビットもつれゲート(HOPゲート)である。1つのスタビライザー量子ビットと、結合強度が等しい4つのローカルデータ量子ビットとの、分散ZZ相互作用によって、5量子ビットのHOPゲートを実現する(なお、HOPゲートのメカニズムには、熱放散に対するシステム設計の考慮事項も含まれている)。
 HOPゲートでは、4つのデータ量子ビットのパリティチェックを、1回の操作で行うことができる。その反面、標準回路で可能だった、全てのパリティチェックを並列で実行する機能は失われる。エラーモデルを正当化するtwirling[*13]ステップを含めるために、各マルチ量子ビットゲートの前後に余分な時間も必要となる。本論文では(典型的なゲートモデル構成では)、HOPゲート時間は100nsと推定されている。
(2) HOP表面符号とHOP回路
 HOPデザインにおける表面符号はHOP表面符号と呼ばれる。HOP ゲートに基づいて最適化されたパリティチェック(シンドローム測定)回路は、HOP回路と呼ばれる。
 本論文では、HOP表面符号について、次の3つを発見したとする:❶HOP表面符号のフォールト・トレラントしきい値は、標準表面符号で推定されるしきい値の約1.5倍、❷CNOTスケジュールを最適化した標準表面符号と同じ数のエラーを訂正しない、❸標準表面符号と比べて、大きな時空間リソースを必要としない。❷にも関わらず、❶のために「デリバティブのプライシングに必要な規模で、物理的なオーバーヘッドを15%削減可能」と推定している。

【3】誤り訂正シミュレーション
(1)エラーモデル
 誤り訂正をシミュレートするために本論文で使用する、回路レベルのエラーモデルは、以下の通り:任意の単一量子ビットゲートの後に、強度p1 = p/10 の単一量子ビット脱分極チャネルが続く。ここで、pは、エラーモデルを特徴付ける単一のパラメーター。補助量子ビットの準備と測定は、確率ppm = p/2 で失敗する。準備の失敗は、意図したものと直交する状態の準備を引き起こす。測定の失敗は、測定結果を反転させる。
 標準回路の場合、2量子ビットゲートの失敗率 p2は、「2量子ビット ゲートを使用して、完全な単一パリティ チェックを実行するプロセスの忠実度」が、「 5量子ビット HOP ゲートを使用して、パリティ チェックを実行するプロセスの忠実度」と等しくなるように設定する。これにより、HOP ゲートからの重みの高い相関エラーの影響を、2量子ビットゲートの失敗によって引き起こされる重みの低いエラーと比較して特徴付けることができる。
(2) シミュレーション・セッティング
 Stim[*14]を使用して、シンドローム測定回路で障害パターンとそれに関連するシンドローム パターンのモンテカルロ サンプルを生成する。 サンプルごとに、PyMatching[*15]を使用して Python で実装された最小重み完全一致デコーダーに結果をフィードし、デコーダーの修正が論理エラーの原因であるかどうかを記録する。
 シミュレーションの結果は、HOP回路のしきい値=約 1.25×10-3、標準回路のしきい値=約 0.79 × 10-3(約1.58倍)であった。
(3) リソース推定
 量子優位性が得られる、デリバティブの価格を評価する量子アルゴリズムを実行するには、およそ 1010の論理演算が必要である。業界でコンセンサスが得られている、合理的な仮定の下で、10−10という、論理誤り率を達成することを目標とする。目標達成に十分な距離の表面符号を実装するために、必要な物理量子ビット数と時空間量の2つのリソースを、標準方式とHOP方式で比較した(時空間量とは、物理量子ビット数と論理エラー訂正サイクルを完了するのに必要な時間ステップの積で定義される)。結果は、以下の通り。
 ❶標準表面符号を使用した場合よりも、小さな距離のHOP表面符号を使用して、目標誤り率を達成できる。❷ 時空間量については、物理エラー率が高い場合には、2つの方式は比較的均等にマッチするが、物理エラー率が低い場合には、標準方式が有利である。

【4】まとめ
 膨大な量子ビット数が必要とされる中、現時点で、15%の削減は、あまり響かないかもしれない。著者もそう思ったのか、二の矢を用意している。
 『HOP ゲートを実行する場合、全てのDC 電流バイアスは、ツイストペア(TwP)超伝導ワイヤを介して伝送できる。これだけでも、2量子ビット信号の希釈冷凍機の(最も冷たいステージでの)受動熱負荷が1/100に減少する。さらに、高速の2量子ビットゲート・パルスから、アクティブな熱負荷を排除することで、総熱収支をさらに10% を改善できる。物理量子ビットの数を 2 倍にしながら、同じ熱フットプリントを維持することが、HOP ゲートの主要な動機であることが証明される可能性がある』。
 超伝導量子ビットが耐誤り量子コンピュータのモダリティとして選ばれない未来を想定すると、これもそれほど響かないかもしれない。

Ⅳ 量子誤り訂正符号において、サイズによる性能スケーリングが存在することを実証したと主張する論文
【1】概要
 Google(Quantum AI)の研究者による「量子誤り訂正の性能が量子ビット数の増加とともに向上することを実験的に示した」と主張する論文[*16](以下、本論文)がnatureにて公開された(23年2月22日。arXivには22年7月投稿)。
 日本経済新聞(2月23日朝刊15面)にも、すかさず登場した:量子計算機「最大の課題」 エラーの克服へ道筋 グーグルが研究成果 

【2】セットアップ
(1) ハードウェア
1⃣『単一量子ビットゲート=回転ゲート、2量子ビットゲート=制御Z(CZ)ゲート。初期化(リセット)、測定』を、72個のトランズモン量子ビットと121個の調整可能カプラを持つ、シカモア(Sycamore)デバイス上に実装した。つまり、ユニバーサル(汎用)❚補足❚ゲートを備えた、汎用(万能)量子計算が実行可能な環境を構築した。量子ビットは(境界を除いて)、4つの最近傍量子ビットに結合している。なお、平均コヒーレンス時間は、T1=20μs、T2=30μsである(T2の測定シーケンスは、Carr-Purcell-Meiboom-Gillパルスシーケンス)。
2⃣ サイクル時間は、回転ゲート=25ns、CZゲート=34ns、リセット=160ns、測定=500ns、を含めて921ns。つまり、データ量子ビットのアイドリングが支配的なエラー源となることが予想される(ので、下記DDゲートを加えているのだろう)。
3⃣ スタビライザー回路には、意図しない量子ビットの周波数シフトを補正するための位相補正や、量子ビットがアイドル状態のときの動的切り離し(DD)ゲートなどの変更が加えられている。
❚補足:ユニバーサルとは・・・❚ 
 ユニバーサルとは、「任意の」ユニタリ演算(子)を実行できるという意味である。もう少し丁寧に言えば、少数の基本的なユニタリ演算子を組み合わせることで、「任意の」ユニタリ演算子を(しかも、任意の精度を持つように)合成できる、という意味である。量子コンピューターにおいてユニタリ演算子は、量子ビット・ゲートという形で物理実装されるから、量子コンピューターの文脈ではユニバーサル・ゲートという文言が現れる。あるいは複数の組という意味で、ユニバーサル・ゲート・セットという文言が現れる。ユニバーサルの和訳として、「汎用」あるいは「万能」が用いられる。万能は、チューリング・マシンの議論において現れる「計算の万能性」から、文言を継承している(のだろう)。
 量子計算における「計算の万能性」は、全ての量子アルゴリズムが実行できるという意味になる。その意味では、クリフォード・ゲート・セットで十分である(ソロベイ・キタエフの定理)。ただ、少しややこしいことに、量子計算は古典計算に比べて"速く"計算できないと、意味がないと見做されている。ここで"速く"とは、古典計算対比で、多項式加速を超える計算時間の高速化が得られる状態を指す。そして、クリフォード・ゲート・セットでは、多項式加速を超える高速化は得られないことが知られている(ゴッテスマン・ニルの定理)。従って、量子計算の文脈におけるユニバーサルとは、本来の「計算の万能性」という意味を少し拡張して、万能計算+古典計算よりも"速く"計算できる状態を指している。その意味で「汎用」で適当かは分からないが、その意味で「汎用」という日本語を当てたい(という気持ち)。
 より世俗的に、「クリフォード・ゲートと非クリフォード・ゲートの双方を実行できる状態を、汎用」と規定することもある。

(2) 符号、復号とノイズ
1⃣ 距離5と距離3の表面符号を実装している。❶25データ量子ビット+測定用の24補助量子ビット=49量子ビットの距離5表面符号、及び❷9データ量子ビット+測定用の8補助量子ビット=17量子ビットの距離3表面符号、を(1)のハードウェア上で実装した。以下、距離5の表面符号を距離5、距離3の表面符号を距離3と略する。
2⃣ 2種類の復号アルゴリズムを採用している。具体的には、❶信念伝播法(※1)と、最小重み完全一致(MWPM)(※2)の組み合わせ「信念マッチング復号アルゴリズム」及び、❷近似最尤復号アルゴリズムである「テンソルネットワーク復号アルゴリズム」を採用している。なお、検査演算子は(言わずもがな)パウリ演算子である。
※1・・・Belief Propagation。確率伝播法とも言う(伝搬は、伝播の誤読に起因する誤字であるらしい)。確率推論のための近似アルゴリズムの一つ。BPは、量子低密度パリティ検査(qLDPC)符号などの、疎なパリティ検査行列を持つ量子符号に特に効果的とされる。アルゴリズムの反復的な性質により、局所的な情報を活用することで、量子誤りの確率的な推定値へ収束することを可能にする。つまり、計算効率が向上する。このため、正確な復号が計算上不可能な大規模量子システムに適している、とされる。
※2・・・検査演算子の測定結果から、誤りが発生した量子ビットを推定する一般的なアルゴリズム。MWPMは、「格子内の量子ビット間の局所的な相互作用を活用」する。このため、表面符号に特に適している、とされる。
3⃣ ノイズは、脱分極ノイズを適用している。非現実的であるが、シミュレーション上は一般的なノイズである。

【3】シミュレーション結果
(1) 比較方法
 検出率及び誤り率が比較対象。距離5の論理量子ビットを、4つの「距離3の論理量子ビットで構成されるサブグリッド」の平均と比較する。 

(2) 検出率
1⃣ 本論文では、シンドローム測定において誤りイベントを検出する確率=検出率を、5万個の実験インスタンスで測定している。❶重み4(つまり、測定量子ビット×1+データ量子ビット×4)スタビライザーの場合、平均検出率は、距離5表面符号で(0.185±0.018)%、距離3表面符号で平均(0.175±0.017)%であった。❷重み2スタビライザーの場合、距離5では(0.119±0.012)%、距離3では(0.115±0.008)%。
 この結果を受けて、本論文では「符号距離間の相対的な整合性は、格子を大きくしても、誤り訂正時の誤り率を、実質的に増加させないことを示唆している」と結論している。
2⃣ 平均検出率は、25サイクルの間に距離5で12%、距離3で8%の相対的な上昇を示し、典型的な特性上昇時間はおよそ5サイクルであった。
 本論文では、この上昇の理由を「データ量子ビットが非計算励起状態にリークしたため」と分析しており、「データ量子ビットのリーク除去技術が、この上昇を軽減するのに役立つ」と予想している。また、「距離5表面符号における検出率の上昇は、より多くのゲートと測定を同時に行うことによる、浮遊相互作用やリークの増加によるものである」と推論している。

(3) 誤り率
1⃣ 本論文では、論理量子ビットゲートにおいて誤りが発生する確率=誤り率の測定において、リークや高エネルギーイベントのポストセレクションは行っていない。
① テンソルネットワーク復号アルゴリズムを用いた場合。1サイクルあたりの論理誤り率は、距離5= (2.914 ± 0.016)%、距離3= (3.028 ± 0.023)% 。相対誤差が約4%減少している。
② 信念マッチング復号アルゴリズムを用いた場合。1サイクルあたりの論理誤り率は、距離5=(3.056 ± 0.015)%、距離3=(3.118 ± 0.025)%で、相対誤差が約2%減少している。
2⃣ 本論文では、「論理誤り率が50%に近づくと、リークの蓄積によって距離5の性能が距離3よりも速く劣化する可能性がある。原理的には、距離5の論理性能は、物理誤り率が低下すると、距離3よりも速く向上するはず」と述べ、実証している。具体的には、アイドリングなどを最適化することで物理誤り率を改善し、”物理誤り率が低い”場合は「距離5の論理性能が、距離3よりも速く向上する」ことを示した。
3⃣ さらに本論文では、どの誤り発生源が支配的かをシミュレーションしている。その結果、❶CZゲート由来が45%、❷DDゲート由来が20%程度(❶+❷でおよそ2/3)であることが示されている。測定、リーク、回転ゲートでの誤りは、相対的に小さい(DDゲートはextraなので、評価が難しい?)。

【4】結論
(1) 本論文の結論は、❶ならば❷である:❶物理誤り率が低い。❷量子誤り訂正の性能は、量子ビット数の増加とともに向上する。
(2) 本論文の意義1は、物理誤り率が(十分に)低ければ、「量子誤り訂正符号において、サイズによる性能スケーリングが存在する」と期待できる、と示したことであろう。例えば、あるサイトには、『符号自体が長くなったらエラーを起こすbit の期待値が比例して増えてしまうから、意味がないのではと考える人がいるかもしれません。しかし、実際には、訂正可能ビット数の増加によるエラー率の減少は指数的であるため、それは問題になりません。』とあるが、実際は、もう少しナイーブな議論が必要であることを示している。
 ただし、物理誤り率が低いとは、定量的に、どの程度か?を明示できていない。『「少なくとも、部品性能を20%」、「実用的なスケーリングを達成するためには、それ以上に大幅に」向上させる必要があると推定される』と述べられているだけである。
 さらに、以下のように続く:『これらの予測は単純化されたモデルに依存しており、最終的に望ましい論理性能を実現するためには、より大きな符号サイズとより長い期間をテストして、実験的に検証する必要がある』。つまりは、まだよく分からない、というレベルである。
 本論文では、CZゲートが支配的な量子誤り発生源と名指しされているが、2量子ビットゲートの忠実度を向上させることの重要性は、広く認識されている。東芝は、ダブル・トランズモン・カプラで、2量子ビットゲートで忠実度99.99%を(シミュレーション上は)達成できる、と発表している(22年9月)[*17]。いずれにしてもカプラは、超伝導方式で誤り耐性量子計算を実現させる、クラウンジュエルかもしれない。なお、本論文のプレプリントがarXivに投稿されたのは22年7月なので、キャッチ出来なかったのだろう。
(3) 本論文の意義2は、物理誤り率を低下させても、新たな量子誤り発生源との戦いがあることを明示したことにあるだろう。それは、❶脱分極ノイズが想定していないタイプのYエラー、❷バーストエラー、である。
 ❶に対しては、本論文がパウリ+と呼ぶシミュレーションで、比較的精度良く捕捉できることを示している。❷に対しては、「宇宙線の衝突のような、相関性の高い誤差を発見し緩和することは、今後の重要な研究分野である」と述べている。なお、バーストエラーに関しては、低オーバーヘッドで推定する手法が開発されている(22年9月30日、九大・東大)[*18]。これも昨年9月なので、間に合わなかったのかもしれない。

【5】考察
(1) 「量子誤り訂正符号において、サイズによる性能スケーリングが存在するか」議論の前に、「そもそも(トポロジカル表面符号で)損益分岐点は実現できるか」議論が、曖昧・不明確と思われる(理屈の上では実現できると考えられているが、実機上で本当に実現できるかが曖昧・不明確)。GKP符号で損益分岐点を越えたと主張する論文は、上部のⅡを参照。
👉 米イェール大学とグーグル(Quantum AI)は、qutrit(⋍3準位系量子ビット)とququart(⋍4準位系量子ビット)の両方において、GKP符号を使って、損益分岐点を越えたと主張する論文を発表(25年5月14日)[*92]。
(2) また、「距離5と距離3の比較が、信頼できるのか?」について、議論の余地はないのだろうか。
(3) トランズモン量子ビットに、符号サイズによる性能スケーリングが存在しても、どこかでピークアウトするかもしれない。つまり、丁度良い符号サイズ(距離)というものが、存在するかもしれない。それが判明すると、色々な意味で有用だと思われる。

Ⅴ トランズモンベースで”消失”量子誤り訂正を成功させた、と主張する論文

【0】はじめに
 AWS他の研究者は、トランズモンベースの消失量子ビット🐾1を使った量子誤り訂正を成功させた、と発表した(arXivにて23年7月19日公開論文[*20]公開)。本稿では以下、消失量子ビットによる量子誤り訂正を『消失量子誤り訂正』と呼称する。消失量子誤り訂正は、米イェール大他の研究者によって、中性原子方式で最初に実施されており(22年8月9日論文[*21]公開)、[*20]はその超伝導方式版と考えられる。
 以下では、論文[*20](以下、本論文)に[*21]及び[*22]を織り交ぜて、この新しい量子誤り訂正方式について整理する。
🐾1 本論文における消失量子ビットは、デュアルレール量子ビット、と呼ばれる。量子誤りを消失量子誤りに変換する「消失誤り変換」を実装する1つの方法が、デュアルレール量子ビットを使ったデュアルレール符号化である。
🛡 追加情報1 🛡
 デュアルレール量子ビットを採用している米Quantum Circuits(モダリティは超伝導)は、Aqumen Seekerと呼ぶ8量子ビットの量子プロセッサーを発表した(24年11月19日)[*63]。「量子ビット数、少なっ!」と思われるかもしれないが、これは、該社が「量子ビット・サイズをスケールアップさせる前に、リアルタイム量子誤り訂正を機能させることに注力している」からである。なお、該社は米イェール大学のスピンアウト・スタートアップ。24年8月にシリーズBでUS$60milを調達した。同ラウンドに加わった、米名門VCセコイア・キャピタルは、デュアルレール量子ビット=消失量子ビットを使った量子誤り訂正方式を評価した、と報道されている。

🛡 追加情報2 🛡
 デュアルレール量子ビットの利活用は、アカデミアでは米イェール大学が主導している。スタートアップでは、イェール大学発スタートアップである米Quantum Circuitsが使っていることは、よく知られている。他では本稿で示したようにAWSも採用している。そこに新顔(?)が加わった→英Oxford Quantum Circuits(OQC、モダリティは超伝導)も、デュアルレール量子ビット(デュアルレール符号化)を使用する量子誤り訂正を採用している。25年6月18日に、「デュアルレール符号化を用いて、固定周波数マルチモード・トランズモン量子ビットにおける量子誤り検出論理量子ビットの符号化を実証した」と主張する論文[*111]をarXivにて公開した。定量的な結果として、「論理状態のビット反転率と位相反転率が、物理状態よりも1桁以上低い🐾4ことを示した」と主張する。言わずもがなであるが、量子メモリ実験に対して誤り率を算出している。すなわち論理状態を準備し、適当なアイドル時間を設定した後に測定を行って、ビット反転率と位相反転率を計算している🐾5
 [*111]は、そもそもトランズモン量子ビットの構成が異なる。3つの超伝導島と2つのジョセフソン接合から構成されるマルチモード(正確には2モード)トランズモンを量子ビットとして用いる。Dモード🐾2とQモード🐾3の2モード・トランズモンなので、ダイモンと呼ばれる。[*111]では、DモードとQモードというエネルギー準位構造における2個の励起部分空間に、論理量子ビットを符号化することにより、デュアルレール符号化を実装する。故に、デュアルレール符号化のアーキテクチャも異なる🐾6。OQCのアーキテクチャは、以下の長所を持つと主張している:ガルバニック・カップリング🐾7はなく、磁束調整も不要。さらに、デバイス、制御回路、および読み出し回路について、ハードウェア効率が実証されたOQCのアーキテクチャ(同軸アーキテクチャ)を踏襲している(ので、ハードウェア効率が高い)。
 OQCのデュアルレール符号化には、さらに、次のような長所がある(と主張している):従来の量子ビットを使った場合、コヒーレンスは遷移周波数の変動に敏感である。ダイモンを使うOQCの場合は、離調の変動の影響を受ける。つまりQモードの遷移周波数とDモードの遷移周波数の差に感度を持つ。つまり、QモードとDモードの両者に変動を引き起こすノイズ源に対しては、コヒーレンスに関する感度は低下する(はずである)。一方、片方のみに影響を与えるノイズ源には敏感になる。そのようなノイズ源として、周波数依存の制御電子機器のノイズ、が上げられている(他にも存在することは、間違いない)。
🐾2 Dは双極子DipoleのDである。
🐾3 Qは、四極子QuadrupoleのQである。
🐾4 ビット反転率は48倍改善。位相反転率は、11倍改善した。
🐾5 [*111]では論理誤りとして、ビット反転誤り、位相反転誤りに加えて、「ラムゼー・コヒーレンス(、というものがあるらしい)」を考えている。2準位系で、基底状態と励起状態の位相が周期的に回転し、最終状態が基底状態と励起状態の間を周期的に変動して(減衰して)いく現象を、ラムゼー干渉と呼ぶ。この周期的変動の減衰から"計算した"減衰率を([*111]では)、ラムゼー減衰率と呼んでいる。ラムゼー減衰率に関しては、4倍の改善しか達成されていない。その理由の解明は、今後の課題とされてる。
🐾6 デュアルレール符号化のアーキテクチャは、共振器を2つ用意するアプローチと、量子ビットを2つ用意するアプローチに大別される。超伝導量子ビットは、主にトランズモンが採用される。[*111]の場合、量子ビットが2つではなく、モードが2つである。
🐾7 共通の電流経路を介した2つの回路の結合。

【1】本論文他の主張
(1) 本論文は、以下を主張する:
 トランズモン・ベースの消失量子ビットが十分機能することを示した。
(2) [*21]は、以下を主張する。
 消失量子誤り訂正で、❶論理誤りしきい値が大きく増加し、❷誤り訂正におけるハードウェア効率が高まる。

【2】事前整理
(1) 背景
 消失量子ビット、について説明(定義)する前に、消失量子誤り訂正を採用するモチベーションを明らかにしよう。それは【1】でも述べたように、ハードウェア効率が高い(英語では、hardware-efficient)量子誤り訂正方式を構築したい、ということである。つまり、量子誤り耐性(フォールト・トレラントな)量子コンピューター(FTQC)のリソース・オーバーヘッドを、大幅に削減したい、というのが動機である。
 ほとんどの物理量子ビットは、量子ビットで張られるシステム空間内で発生する検出不可能な誤りを発生させる。一方、消失量子ビットは、主な誤りが、計算部分空間からのリーケージ(漏れ)であり、リアルタイムで(控えめに言うと、高速に)検出できる。計算部分空間からのリーケージが消失誤りであり、消失誤りは、効率的に訂正できる。このため、誤り訂正しきい値が高くなり、論理誤り率が低下する。なお、消失誤りについては、下記(3)1⃣で、システム空間と計算部分空間は(3)2⃣で、説明する。
 補足的に述べると、消失量子ビットの実装は、中性原子/トラップイオン/超伝導量子ビットを含む、いくつかのモダリティで提案されていたが、中性原子で最初に実装された。

(2) ハードウェア効率が高い量子誤り訂正
  ハードウェア効率が高い量子誤り訂正と言えば、ボソニック符号を用いた誤り訂正が、すぐに思い浮かぶ。GKP符号であり猫符号である。ボソニック符号は、基本的に調和振動子である超伝導共振器を使うことで、”多数”のエネルギー準位によって形成される大きな状態空間を、誤り訂正に使う。つまり、ハードウェア(量子ビット)ではなく、共振器内の”多数”のエネルギー準位を誤り訂正に使うことで、 ハードウェア的高効率を達成する。
 もっとも、消失量子誤り訂正の文脈で共振器を捉えると、次の性質が重要である:「共振器内のデコヒーレンスは、光子損失によるエネルギー緩和(T1減衰)が支配的で、位相緩和(T2減衰)がほぼ無視できる」。同じボソニック符号である猫符号では、光子損失に対し、ビット反転誤りが(指数関数的に)抑制されて、位相反転誤りが支配的になる。光子損失は消失に他ならない。ボソニック符号は、他の量子誤りを抑制(誤り抑制)することで、特定の量子誤りを支配的にしている。これは、消失量子誤り訂正と、思想を共有している。
 以下では、消失量子誤り訂正は、ハードウェア効率が高い量子誤り訂正と思想を共有している、というフンワリした内容を越えて、「消失量子誤り訂正は、従来の方法に比べて、ハードウェア効率が高い」ことを示していく。
 なお消失誤りは、あるサイト[*23]では「扱いが難しいエラー」として紹介されている(もちろん、それは正しい!)。そういった量子誤りを使った、誤り訂正が容易である、というところが面白い。

(3) 消失誤り
1⃣ まず、消失誤りについて定義する。消失誤り(英語では、erasure error)は元々、古典的符号理論(符号化理論とも言われる、誤り訂正符号の理論)において考慮されていた誤りで、「0か1か”判別不能な”シンボルが、どの位置にあるか、分かっているエラー」[*24]である。削除誤り、挿入誤りといった誤りと同列に論じられていた。量子計算の文脈では、「適当な測定(による失敗情報)によって、誤りが起きた位置を特定できる誤り」と表現できるだろう。消失誤りは、古典設定と量子設定の両方で、脱分極エラーよりも、修正(訂正)がはるかに簡単である[*21]。
 重要なことは、「誤りが起きた位置を特定できる」ということは、その「誤りを生じさせた量子ゲートも特定できる」ということである。誤りを生じさせた量子ゲート操作を、改めて行うことで、誤り訂正が"リアルタイム"に実行できる。ここまでの説明で"リアルタイム実行"に肚落ちするには、情報不足であり、やや論理の飛躍を感じるかもしれない。とりあえず、「量子誤りの検出が速い(リアルタイムで検出できる)&量子誤り訂正が容易」という情報から、ふわっと納得しよう。
2⃣ 天下り的に、数学的な表現を補足する[*25]。量子ビットで張られるシステム空間(もちろん、数学的に言うと、ヒルベルト空間)には、 システムの望ましくない時間発展によって、誤りが追加発生する。誤りが消失誤りの場合、結果としてシステム空間は、互いに素な部分空間(計算部分空間とその直交補空間)に直和分解される。消失誤りは、直交補空間にリーケージし、直交補空間で検出される。この表現を用いると、消失量子誤り訂正は、従来手法に比べて大きな利点を持っている、という主張に納得できるだろう。

(4) 消失量子ビットと消失量子誤り訂正
1⃣ 消失量子ビットを、どうやって構成するかは【3】で扱うので、ここでは、脇におく。さらに、木で鼻を括ったような定義をすると、消失量子ビットとは「量子計算実行中に生じる(主な)量子誤りが、消失誤りである」ような、物理量子ビットである。消失量子ビットから生じる主な量子誤り(消失誤り)は、計算部分空間から直交補空間へのリーケージであり、リアルタイムで検出できる。
 要件定義をすると、消失量子ビットは、①計算部分空間内の残留誤りに対して、消失誤りの比率が高い、②計算部分空間内に追加の誤りを導入することなく、消失誤りを検出できる。
2⃣ 古典的符号理論において、ビット反転誤りと消失誤りには密接な関係がある、ことが知られている。例えば、「高々t個までのビット反転誤りを訂正できる符号は、その 2倍までの消失誤りを訂正できる」[*24]。少なくとも、「消失量子誤り訂正のために特殊な符号が必要、というイヤな状況には陥らない」。例えば、消失誤りに対して、表面符号を使うことができる。

【3】本論文及び[*21]における構成
(1) 消失量子ビットの構成
1⃣ 中性原子方式
❶ 消失量子ビット
 中性原子方式では、後述する超伝導方式と違って、回路構成的な工夫をすることなく、素材のポテンシャルのみで、消失量子ビットを構成できる。別の表現を使うと、追加ゲートや補助量子ビットを使わずに消失量子ビットを構成することが可能である。
 [*21]では、中性原子方式で(も)支配的な「2 量子ビットゲート誤り」に焦点を当てている。そして、2量子ビット ゲートの誤りの主因であるリュードベリ状態からの自然減衰を、検出可能な、消失誤りに変換する。具体的には、171Ybを用いた、準安定電子レベルの超微細状態で量子ビットを符号化する。この準安定量子ビットの符号化により、基底状態への遷移を引き起こす量子誤りを、回路の途中(計算途中)で検出することが可能になる。
 詳しく言うと、「リュードベリ状態が、イオンコアの分極率によって、光ピンセットに捕捉されたままになる」というアルカリ土類原子独特の特性を利用することにより、減衰するのを待つことで、(計算部分空間から直交補空間へ)リークした誤りを再捕捉して、検出することができる[*22]。誤りの位置を(高速に)検出することができるので、量子誤りは消失誤りに変換される。中性原子方式の消失量子ビットは、この準安定量子ビット、である。
 より詳しい説明を行うと、リュードベリ状態は、放射減衰(RD)を介して「低位リュードベリ状態 」へ、あるいは、黒体放射(BBR)を介して「近くのリュードベリ状態」 へ、T1減衰する。そして、RDを介して低位リュードベリ状態へ移行するRDイベントの”大部分”は、準安定量子ビット部分空間を経由することなく、(真の)基底状態に移行する。[*21]では、 BBRを介して近くのリュードベリ状態へ移行するBBRイベントの割合が61%、基底状態へのRDイベントの割合が34%、という現実的な例を上げている(この例では、直交補空間に漏れた誤りが、計算部分空間に戻り、計算部分空間で発生させる誤りは、全体の5%ということになる)。
 なお、[*22]では、準安定量子ビットの主な欠点としては、準安定状態の存続時間が有限であるため、追加のエラー チャネルが発生する、をあげている。
❷ 消失変換
 量子誤りが量子の放出を伴う場合、原理的には消失誤りを検出できる(検出については、後述)。つまり、中性原子方式では、用いる原子種と使用するリュードベリ状態を、適当に選ぶことで、量子誤りを(自然に)消失誤りに、変換できる。これが素材のポテンシャルである。[*21]に即した言い方をすれば2 量子ビットゲート誤り(2 量子ビットゲートの実装に使用されるリュードベリ状態からの減衰)は、自然に、消失誤りに変換される。消失誤りへの変換を、消失変換と呼ぶ。
 なお[*22]では、消失変換の割合を増やすための改善策をいくつか上げている:再ポンピング遷移の工夫、光イオン化を抑制するためのより長いトラップ波長、バックグラウンド損失を低減するため、より良い真空を使用する。

2⃣超伝導方式
 中性原子方式の[*21]では2 量子ビットゲート誤りであったが、本論文では、1量子ビットゲート誤りに焦点を当てている。超伝導方式において、消失量子ビットの構成をイメージするために、共振器量子電磁力学(共振器QED)を使った量子ビットをイメージすることが有用と思われる。本論文における消失量子ビットは、一対の共振結合トランズモンで構成されるデュアルレール量子ビットと、補助量子ビットで構成される。
 デュアルレール量子ビットの論理部分空間は、|01⟩と|10⟩の混成された対称状態と、非対称状態で構成される。この符号化により、トランズモンのT1減衰が、|00⟩ 状態へのリーケージとして、消失誤りに変換される。重要な点は、|01⟩ と |10⟩ の間の”強い”共振結合が、(構成要素である)トランズモンに対する周波数ノイズを抑制することである。ここにも、「深強結合領域では、いくつかの散逸チャネルが抑制されて、特定チャネルによる散逸が支配的になる」[*26]という、共振器QEDとのアナロジーがある。このノイズ抑制により、位相緩和に起因する誤りが(T1減衰の1/40に)抑制され、主な量子誤りは、エネルギー緩和に起因する消失誤りになる。
 なお、デュアルレール量子ビットの利点として、①特定周波数ではなく、広範囲の周波数で動作できる、②ノイズ抑制が受動的であるため、ゲート構成を複雑にしない、が上げられている。欠点として、⓵標準トランズモン・アーキテクチャよりも複雑、⓶追加の制御ラインが 1 つ必要、が上げられている。

(2) 消失検出
 消失誤りは、光量子ビットでは、自然に発生する。量子ビットが単一光子の偏光等で符号化されている場合、光子検出の欠如が消失の信号となり、消失誤りが検出できる。他方で、物質ベース量子ビットの誤り位置を検出する技術は、広く知られていなかった。
 中性原子方式では、準安定状態の量子ビットを乱すことなく基底状態への崩壊を検出するために、高速蛍光イメージングが用いられる。検出の忠実度は0.986 である。なお、消失検出できない誤りは、リュードベリ・ブロッケードにより強力に抑制され、検出可能な誤りの1万分の1未満である[*22]。
 以下、本論文に従って、超伝導方式の消失検出を説明する。量子計算実行中、システムが|00⟩(直交補空間)に減衰したかどうかを識別するために、定期的な消失検出が実行される。消失検出は、デュアルレール量子ビットが、直交補空間にあるか、計算部分空間(論理部分空間)に残っているかに応じて、補助量子ビットの分散シフトを利用することによって行われる。具体的には、補助量子ビットを共鳴励起する 540 ns のマイクロ波パルスと、それに続く340 ns の読み出しで構成される。消失検出のパフォーマンスを評価するための 3 つの指標がある。
❶ 誤検知エラー。誤りは発生していないが、消失誤りが発生したと、誤認識するエラー。
❷ 偽陰性エラー。消失誤りが発生しても、正しく認識されないエラー。
❸ 消失検出誘発横緩和。消失誤りが発生していない場合に、消失誤りを検出することによって引き起こされる、デュアルレール量子ビットの横緩和(T2減衰、英語ではdephasing)。
 なお本論文では、アイドリング中のデュアルレール量子ビットの主な誤りも、消失誤りであることを、確認している。

(3) パフォーマンステスト
 本論文では、2量子ビット ゲートと並行して消失検査が実行される、表面符号プロトコルを対象に、パフォーマンステストを行っている。消失検査エラーは、ゲートの実効エラーレートに追加され、消失検査がゲートよりも遅い場合には、消失検査に関連する時間により、追加の誤りも発生する。
 具体的には、ゲートあたり 1% の消失誤りと、ゲートあたり 0.1% のパウリ誤りに対して、ベンチマークを行っている。ちなみに、この誤り率のペアは、表面符号しきい値を十分に下回っている。
❶ 誤検知エラーの発生率は約 0.8% であった。これは、想定した消失誤り率1%とコンパラであり、要注意。
❷ 偽陰性エラーの発生率は 1.54% であった。偽陰性のケースで問題となるイベントは、消失誤りが発生したものの、消失検出時に認識されなかったために誤りが持続し、検出できないパウリ誤りに伝播するイベントである。そのようなイベントが発生する確率は、消失検査中の消失誤りの確率(〜 2.9%)に偽陰性率を掛けたものである。その値は、0.04% となり、想定したパウリ誤り率0.1% を下回っている。
❸ デュアルレール上でスピンエコー測定を実行し、各消失検査によって引き起こされる、横緩和を測定した。消失検出誘発横緩和の発生率は、0.1% 未満という保守的な上限が計算されている。想定したパウリ誤り率0.1%とコンパラであり、要注意。
 ❶と❸は黄色信号であるものの、本論文では、その解決に楽観的である。まず、消失検出総時間(540+340=880ns)について考察している。この時間は、2 量子ビットゲート・プロトコルの約200 nsよりも遅いため、ゲートあたり 大きな消失誤りに寄与する可能性がある、と指摘している。そして、より高速な消失検査は、より大きな分散結合と最適化された補助読み出し、または単一の対称的に結合された読み出し共振器を使用することによって実現できるため、解決が期待できると主張している。

(4) 魔法状態蒸留へのインパクト
 ゴッテスマン・ニルの定理とイースティン・ニルの定理から、(計算複雑性の意味での)量子優位性を達成するには、何らかの「特別なる打ち手」が必要となる。おそらく、表面符号を前提とした場合に、最も一般的な「特別なる打ち手」は、魔法状態の準備(正確には、蒸留プロセスを通して高忠実度の魔法状態準備)である。ここでは[*21]を基に、消失変換による魔法状態蒸留へのインパクトを整理する。
 魔法状態蒸留は、欠陥のあるリソース状態のコピーをいくつか使用して、より少ないコピーをより低い誤り率で生成する。これにより、量子ハードウェアの大部分が消費されることが予想されるが、入力された生の魔法状態の忠実度を向上させることで、オーバーヘッドを削減できる。
 [*21]は、消失変換により、「魔法状態蒸留など、汎用量子計算のためのよりリソース効率の高い誤り耐性のあるサブルーチンが実現できる」と主張する。消失が検出されたリソース状態を捨て去ることで、誤り率を下げることができる。具体的に、「消失変換を98%とすると、生の魔法状態の不忠実度が 1 桁以上減少し、魔法状態蒸留のオーバーヘッドが大幅に削減される」と試算している。

【4】シミュレーション結果とまとめ
(1) シミュレーション結果
1⃣ 中性原子方式[*21]
 消失変換することで、❶しきい値が大きく増加すること及び、❷誤り訂正におけるハードウェア効率が高まる、ことを示した。
❶  表面符号の回路レベルのシミュレーションの結果、脱分極エラーのしきい値0.937%に対して、消失誤りのしきい値は4.15% に、大きく増加する。
❷ しきい値付近の符号距離が大きくなり、同じ数の物理量子ビットの論理誤り率が、より速く低下する。
2⃣ 超伝導方式
 ❶デュアルレール量子ビットが消失量子ビットとして十分機能すること及び、❷消失検出が合格ラインであろう、ことを示した。
❶ 消失誤り確率は、2.19×10−3。残留誤り率は、5.06×10−5。消失ノイズバイアスは、40を超える(219/5.06≒43.28)。
❷ 誤検知エラーの発生率は約 0.8%、偽陰性エラーの発生率は 1.54%、 消失検出誘発横緩和の発生率は、0.1% 未満。

(2) 消失量子誤り訂正の特性(まとめ) 
① ノイズ抑制を行って、誤り訂正の対象を、特定の量子誤りに絞る。
② リアルタイム(高速)に、誤り検出を行う。
③ 誤り検出は、追加の誤りを惹起しない。
④ 消失誤りは、ほぼ、計算部分空間には戻らない。

(3) 消失量子誤り訂正は、なぜハードウェア効率が高いのか?(まとめ) 
① 誤り訂正における測定(シンドローム測定あるいはパリティ・チェック)のために、多くの量子ビットを配置する必要がない。
② リアルタイムに誤り検出して、訂正するから、しきい値は上がる。これは、ハードウェア要件を下げるので、ハードウェア効率はあがる。
 ②は、クオンティニュアムの量子誤り検出符号方式は、「誤りが検出されたら、その計算を破棄する」という手法と、ハードウェアのオーバーヘッドを小さくする発想が似ている。為参考:㊀リアルタイム量子誤り訂正を行うために、ハードウェア効率が高い測定を行うという研究[*27]、㊁量子誤り訂正に必要な物理的リソース低減を目的に、強化学習を使用したリアルタイム・ニューラルネットワークを組み込んだ量子コントローラを開発するプロジェクト(Artemisプロジェクト)[*28]。

【5】考察
(1) (消失量子ビットを使って)量子誤りを消失誤りに変換(変換)して、誤り訂正を行う(本稿では、消失量子誤り訂正と呼称)は『古典的符号理論から、量子誤り訂正に切り込む』という斬新なアプローチと考えられる。実際、「消失誤りは、古典コンピューティングでは、よく理解されているが([*21]で提案されるまで)研究者たちは、量子誤りを消失誤りに変換することを、考えていなかった」[*29]。まず中性原子で実現し、(本論文にて)超伝導でも実現した、というストーリーである。

(2) デュアルレール量子ビットのデコヒーレンスの要因(まとめ) 
 素材のポテンシャルのみで消失量子ビットを構成できる中性原子方式とは異なり、超伝導方式では、工夫を凝らさざるを得ない。元々、自由度の高さが、超伝導方式のメリットである。その一方で、最後のワンピースに欠けるといったデメリットもあるように思われる。工夫の末、所望の結果が得られるものの、それが他に影響を及ぼす。この悪循環は、量子系では致命的と思われる。何が言いたいかというと、超伝導方式による誤り耐性ゲート方式量子コンピュータの実現は、難しいのではないか、ということである。
 (付録が極めて多い)本論文では、付録MにMechanisms for dual-rail decoherenceとしてまとめてある。大きく分けると、3つある:フラックスノイズ、読み出し共振器内の光子の変動、2準位系(TLS)の寄生モード。フラックスノイズは、さらに1/fノイズと熱ノイズ(ジョンソンナイキスト ノイズ)に分けており、熱ノイズが最も支配的であると予想している。

Ⅵ 誤り耐性汎用量子計算に至るスケールアップへの道筋をつけた、と解釈できる論文
【0】はじめに
 米ハーバード大学、米MIT、米国立標準技術研究所(NIST)、米メリーランド大学及び米QuEra(中性原子方式量子コンピュータを開発しているスタートアップ)は、「誤り耐性汎用量子計算に至るスケールアップへの道筋をつけた」と解される論文[*30](以下、本論文)を発表した(23年12月6日@nature)。これは、過去の研究を積み重ねた結果と考えられる。👉 Physics World 2024 のブレークスルー・オブ・ザ・イヤーを受賞(https://physicsworld.com/a/two-advances-in-quantum-error-correction-share-the-physics-world-2024-breakthrough-of-the-year/)。
 この研究は、NISQデバイスによる最適化(ONISQ)プログラムを通じて、DARPA(国防高等研究計画局)、米国科学財団、および陸軍研究局によって支援されている。QuEraは、以前(23年10月23日)にもDARPAから助成金を受けている。助成対象は、Imagining Practical Applications for a Quantum Tomorrow(IMPAQT)programであり、その内容は、㊁「トランスバーサルな論理ゲートに基づく誤り訂正量子アーキテクチャ」である(㊀は割愛)。これは、ハードウェア効率的な量子誤り訂正方式の研究である。具体的には、トランスバーサル・ゲートを使うことで、論理回路を実装するために必要な物理的なリソースq*Nを1 桁削減できる可能性がある(qは量子回路の深さ、Nは量子ビットの数)。
〖蛇 足〗QuEraは、米ハーバード大、墺インスブルック大と共同で「リュードベリ原子配列が、幅広い最適化問題を、ハードウェア効率的に符号化できる」とする論文[*31]を発表している(23年2月14日@Physical Review X)。
❚追記❚
 トランスバーサルな論理ゲートを使って、ハードウェア効率的な量子誤り訂正を実現するという、同じカテゴリーに属する研究論文が発表された。具体的に述べると、英ユニバーサル・クォンタム🐾2、米グーグル及び、英サセックス大学の研究者は、「トランスバーサル論理CNOTゲートによって拡散される、相関エラーに対処するデコーダー(復号器)を開発した」という論文[*61]を発表した(24年7月30日@arXiv)。ハードウェア効率的の意味は、「格子手術を採用する論理CNOTゲートのvolume complexityがO(d3)」であるのに対してO(d2)を(シミュレーションで)実現した、という意味である。ここでdは符号距離。ざっくり言えば、論理量子ビットを構成するのに必要な物理量子ビット数が、O(d3)からO(d2)に減るという意味である(大したことない?)。格子手術を対象としていることからも分かるように、量子誤り訂正符号は、表面符号である。復号アルゴリズムは、最小重み完全一致(MWPM)アルゴリズム(PyMatchingを使用)。なおMWPMアルゴリズムは、「格子内の量子ビット間の局所的な相互作用を活用する」ため、表面符号に特に適しているとされている。
🐾2 トラップイオン方式の量子コンピューターを開発している英国のスタートアップ。英サセックス大学からのスピンアウト企業。

【1】ハードウェア効率 
 そもそも論であるが、誤り耐性汎用量子計算は、汎用量子計算を「誤り耐性方式」で行う必要がある。汎用量子計算とは、古典コンピュータが行える計算を全て行えるという意味である。つまり、量子アニーラのように、特定の計算しか実行できないという制約はない、という意味である。誤り耐性とは、量子計算実行中に発生する計算上の誤りが蓄積されることなく、正しく計算が行えるという意味である。誤解される事が多いが、古典コンピュータも、計算上の誤りが発生する。この誤りを適宜訂正することで、正しい計算であることを保証している。古典コンピュータとの違いは、「量子コンピュータでは、計算上の誤りが、複雑かつ極めて膨大という意味で厄介」、ということである。
 この量子コンピュータにおける「計算上の誤りが、複雑かつ極めて膨大」という短所は、量子スケールの物理を利用した演算では不可避である。(高速性に決して限定されない)量子計算の長所は、その短所と引き換えにもたらされる、と考えられる。これは、ノーフリーランチという意味で、膨大な学習可能パラメータ数によってもたらされる深層学習の柔軟性・表現力の豊かさが、超大量の学習データと莫大な電力消費と引き換えで得られることと、同じである。
 諦観論はさて置き、「計算上の誤りが、複雑かつ極めて膨大」という短所をクリアするために採用される戦法は、古典コンピュータに対する戦法と同じで、ハードウェア・リソースを大量投入するという手である。具体名を出せば、大量の物理量子ビットを使って、論理量子ビットを構成する、と表現される。量子状態は測定すると状態が変化する(固有状態は除く)ので、量子計算上の誤りも、直接測定することはできない。そこで、パリティ(偶奇性)チェックあるいはシンドローム抽出と呼ばれる、まどろっこしい方法を採用するしかない。また、量子計算上の誤りは、ビット反転しかない古典コンピュータとは異なり、ビット反転と位相反転の2種類が存在する(片方の誤りを圧縮する方法もある→猫符号)。そういった諸々の理由で、大量の物理量子ビットの「大量」は、古典的常識を越えた超大量をもたらす。
 小括すると、量子計算の長所の裏返しである短所をクリアするには、超大量の計算リソース(物理量子ビット)等が必要である。しかし困ったことに、この超大量は、コストや技術的理由から、非現実的である。そこで、ハードウェア効率という概念が生まれた。本論文の成果は、「ハードウェア効率が高い手法を積み重ねて」、「誤り耐性汎用量子計算の実現に道筋をつけた」という見方が可能である。

【2】改めて、本論文の解釈 
 何度も重複して述べている通り、本論文は、誤り耐性汎用量子計算の実現に道筋をつけた、と解釈できる。「道筋をつけた」の意味は、(1)「量子演算処理全体に関わるハードウェア効率を高めた」+(2)「ハードウェア効率の高い量子誤り訂正方式を実装した」ことで、誤り耐性汎用量子計算の蓋然性が上がった、という意味である。
 具体的に実現したことは種々あるが、中心的には、「損益分岐点を越えて」、「48 個の論理量子ビットと数百のもつれ演算による量子計算」と解釈できる。古典的には効率的にシミュレートすることが難しい計算を行った追記|🐾3。これまでは、2つの論理量子ビットと1つのもつれ演算に限定されていた(【5】(1)を参照)。なお、量子モダリティは、中性原子であり、本論文の成果を他の量子モダリティで、模倣するのは至難である(これは、他のモダリティで同じ成果を出せないという意味ではない。同じような枠組みでは、難しい、という意味)。
 上記(1)は、1⃣論理プロセッサの制御、2⃣量子ビット・シャトリング、3⃣ゾーン・アーキテクチャ、4⃣トランスバーサル・ゲートの適用、といった技術要素の成果である。上記(2)は、(1)をベースとした上で、5⃣3次元符号の適用、6⃣相関復号の適用、といった技術要素の成果である。以下、夫々について、述べる。
🐾3 IBM(Bravyiの名を見つけることができる!)及びIonQの研究者は、「48量子ビットの計算に対する振幅の計算に、わずか0.00257947秒しか要しない古典アルゴリズム」を報告している(24年2月5日@arXiv[*62])。古典アルゴリズムが、ざっと1,000倍速い。

【3】ハードウェア効率を高めるために適用された技術
1⃣ 論理プロセッサの制御 
 本論文における論理プロセッサ制御の要諦は、個々の物理量子ビットではなく、個々の論理量子ビットを制御する、という思想である。この目的を達成するために、量子誤り訂正操作の大部分において、論理プロセッサの物理量子ビットは同じ操作を実現すると想定されている。この仮定の妥当性は、超伝導素子のような人工原子では厳しい。この制御は、わずか数本の制御線で可能である。
 原理的には、十分に低い物理誤り率と十分な数の物理量子ビットがあれば、論理量子ビットを極めて高い忠実度で動作させることができる。つまり、物理量子ビットを”大量動員して”冗長性を担保することによって生成される論理量子ビットを使って、論理プロセッサ(QPU)を構築すれば、QPU上で大規模で有用なアルゴリズムを実行する道が開ける。しかし、この”大量動員作戦”が、量子コンピュータのスケールアップ(スケーラビリティ)に大きな制約を課している。
 多くの情報ビットに効率的にアクセスして操作できる現代の古典プロセッサとは異なり、量子デバイスは通常、各物理量子ビットに複数の古典制御ラインが必要となるように構築されている。例として、代表的な量子モダリティと見做されている、超伝導方式を考えてみよう。各超伝導量子ビット(物理量子ビット)には通常、2~3 つの制御信号が必要である。それらは、制御信号の伝達には、"物理的な”制御線が使われる。100万物理量子ビット(≃1000論理量子ビット)が要求される場合、200万~300万の制御線が必要になる。しかも、それは希釈冷凍機に収納しなければならない。このサイズは、収納スペースからも、発生する熱ノイズからも、非現実的と考えられている(ので、知恵が絞られてはいる)。このように、「物理量子ビットに複数の古典制御ラインが必要」アプローチは、物理量子ビット・プロセッサの実装には適しているが、論理量子ビットの制御には大きな障害となる。
 論理量子ビットに対して、数本の制御線で済むのであれば、100万物理量子ビット(≃1000論理量子ビット)に対して、数千本である。つまり(改めて計算するまでもないが)、ハードウェアが、およそ1/1000になる(ハードウェア効率が高い)。

2⃣ 量子ビット・シャトリング
 量子ビット・シャトリングは、どの物理量子ビットでも、別の物理量子ビットと相互作用することを可能にする。これが可能となるのは、光ピンセットで捕捉(トラップ)され輸送された中性原子量子ビットが、移動されても量子状態を維持するためである。これは、他の量子モダリティとは異なる特徴である。量子ビット・シャトリングにより、量子回路の作成が簡素化される(→3⃣ゾーン・アーキテクチャ)。
 光ピンセットには、空間光変調器(SLM)ピンセットと音響光学偏向器(AOD)ピンセットの2種類が用いられる。原子は行と列で移動し、行と列が交差することはない。任意の量子ビットの動きと順列は、AODピンセット内で原子を往復させ、必要に応じて AOD ピンセットと SLMピンセットの間で、原子を輸送することによって実現される。AODピンセットでの原子の自由空間シャトルには、忠実度のコストが、本質的にかからない(ただし、時間のオーバーヘッドを除く)。ゲート間の特徴的な自由空間移動時間は、およそ200 μsであり、AODからの音響レンズ効果は無視できると推定される。
 ピンセット間での原子の移動には、課題が生じるため、様々な工夫が凝らされている(が、割愛。本論文の「Methods」を参照)。
 ちなみに、「マイクロ波共振器を使って超伝導量子ビットを連携させる」というアイデアとして生まれた量子バスという概念がある。イェール大学のロバート・シェールコプ教授が最初に実証した。また、飛行量子ビットという概念がある。日立製作所は、シリコン量子ドット内の電子を伝搬させる(輸送する)「飛行量子ビット(日立は、シャトリング量子ビット方式、と呼んでいる)」方式で開発を進めていることを発表している(23年6月)。単電子ポンプで単一電子を抽出し、ポテンシャル障壁ゲートを電子シャッターとして機能させることで、電子輸送を実行する。

3⃣ ゾーン・アーキテクチャ
 古典コンピュータを参考にして、論理プロセッサ・アーキテクチャには、ゾーン化された設計が導入された。具体的には、ストレージ、エンタングル、読み出し、という3つのゾーンに分割された。ストレージ・ゾーンは、高密度量子ビット・ストレージに使用され、ゲートエラーのもつれがなく、コヒーレンス時間が長いのが特徴である。エンタングル・ゾーンは、並列論理量子ビット符号化、スタビライザー測定、および論理ゲート操作に使用される。読み出しゾーンでは、まだ動作中の計算量子ビットのコヒーレンスを乱すことなく、必要な論理量子ビットまたは物理量子ビットの中間回路読み出しが可能になる。このアーキテクチャは、光ピンセットに閉じ込められた個々の 87Rb(ルビジウム)原子のアレイを使用して実装されており、量子ビットのコヒーレンスを維持しながら計算の途中で動的に再構成できる。QuEraは原子種として、ルビジウムを使用している(仏Pasqalもルビジウムを使用。米Infleqtion(旧ColdQuanta)はセシウム、米Atomコンピューティングと独Planqcはストロンチウム。アカデミア(例えば、米プリンストン大/イェール大)では、イッテルビウムも使用)。
 ゾーン・アーキテクチャの効用を、具体的に、見てみよう。ゾーン・アーキテクチャを採用すると、例えば、制御信号のほとんどはエンタングルメント・ゾーンに集中する。このため、制御信号を大幅に増加させることなく、ストレージ・ゾーンの量子ビットの数を増やすことができる。また、量子回路中央の読み出しは、選択した量子ビットを、読み出しゾーンまで(約 100 μm 離れたところに)移動し、焦点を合わせたイメージング ビームで照射することで実行される。ちなみに、回路中央の画像は CMOS(もちろんComplementary Metal Oxide Semiconductor)カメラで収集され、リアルタイムの復号とフィードフォワードのためにFPGA(もちろんField Programmable Gate Array)に送信される。

4⃣ トランスバーサル・ゲート 
 本論文では、論理演算は、全てトランスバーサル・ゲートを通じて行われている。CNOTゲートが対象であれば、トランスバーサル・CNOTゲートということになる。
 トランスバーサルとは、物理量子誤りが論理量子誤りに広がらない(あるいは、「量子誤りが、量子回路全体に、制御不能に拡散しない」)という意味である。本論文(中性原子方式)のセットアップでは、同じ命令を持つ論理ブロックの物理量子ビットに対して、2次元音響光学偏光器(AOD)を使用して、同時に光を照射する。これは、演算が符号化ブロックの物理量子ビットに、独立して作用することを意味しており、 物理量子誤りが論理量子誤りに広がることを防いでいる。つまり、 トランスバーサルを実現している。
 広く知られている通り、汎用計算は、(“簡単には”)トランスバーサルに実装できない(ので、工夫が必要となる)。かつて、量子誤り訂正符号の本命視と目されていた表面符号などの 2次元符号は、非クリフォード演算を”簡単には”実行できない(Eastin-Knillの定理)。量子優位性を持つ量子計算は、クリフォード演算だけでは実行できない(Gottesman-Knillの定理)。非クリフォード演算は”簡単には”できないから、(蒸留することで忠実度を高めた)魔法状態を準備し、ゲート・テレポーテーションを実行することで、2次元符号を使った量子優位性を持つ量子計算が、やっと実行できる。ただし、魔法状態蒸留には、大量の物理量子ビットが必要となる。つまり、ハードウェア効率が低い。まとめると、2次元符号(表面符号)で、ハードウェア効率の高い量子優位性を持つ量子計算は、極めて難しい(というより、ほぼ不可能。という背景から、ハードウェア効率の高い量子誤り訂正として、ボソニック符号(猫符号、GKP符号等)というアプローチも存在する)。

5⃣ 3次元符号
 2次元符号とは、対照的に、3次元符号を使うと、非クリフォード演算をトランスバーサルに実現できる。従って、ハードウェア効率の低い(悪い)魔法状態蒸留が不要である(と理解している)。その代わり、アダマール・ゲートが、トランスバーサルには実装できない🐾1。本論文では、3次元符号、具体的には3次元[[8,3,2]]符号を適用する。なお、アダマール・ゲートとCCZゲート(controlled-controlled Z;制御制御Zゲート)だけで、汎用量子計算が可能となる。
 [[n, k, d]] 表記は、物理量子ビットの数 n、論理量子ビットの数 k、および符号距離 d を持つ符号を記述する。従って、[[8,3,2]]とは、物理量子ビット8、論理量子ビット3、符号距離2を持つ符号を意味している。符号距離dとは、量子誤り訂正符号が検出または訂正できる量子誤りの数である。符号距離は、有効な符号語(論理状態)間の最小ハミング距離、つまり最小の論理演算子の重みである。
 前述の通り、3次元符号を使うとアダマール・ゲートは、トランスバーサルには実装できない。そのための工夫が必要であるが、その詳細は記述されていない。ただ、それほどハードウェア効率を低下させることはないのだろう。なお、3次元符号の適用とアダマール・ゲートの実装を工夫することで、トランスバーサルに(つまり、誤り耐性)汎用計算を実行しても、論理量子ビットの状態準備は、誤り耐性ではない。測定も同様である。この影響は、「相関復号技術を使用することで、軽減可能である」と、本論文は主張している。
🐾1 全てのゲート操作をトランスバーサルに実行できる量子誤り訂正符号は、存在しない(Eastin-Knillの定理)。3次元符号の場合、CCZゲートはトランスバーサルであるが、アダマールゲートはトランスバーサルではない。

6⃣ 相関復号(Correlated Decoding)
 トランスバーサルCNOT演算中、物理CNOTゲートは、2 つの論理量子ビットに対応するデータ量子ビット間に適用される。これらの物理CNOTゲートは、決定論的な方法でデータ量子ビット間でエラー(量子誤り)を伝播する。制御量子ビットのXエラー(ビット反転量子誤り)は、ターゲット量子ビットにコピーされ、ターゲット量子ビットのZエラー(位相反転量子誤り)は、制御量子ビットにコピーされる。その結果、特定の論理量子ビットのシンドロームには、トランスバーサルCNOT演算を受けた時点で、別の論理量子ビットで発生したエラーに関する情報が含まれる可能性がある(→相関エラー)。
 これらの相関関係に関する情報を(逆に)活用し、アルゴリズムに含まれる論理量子ビットを、共同で復号することで回路の忠実度を向上させることができる。 量子誤りは、データ論理量子ビットから補助論理量子ビットに、意図的に伝播される。その後、データ論理量子ビットのシンドロームを抽出するために、射影測定される。
 測定されたシンドロームを前提として、最も可能性の高いエラーを見つける問題を解決することで、”相関復号”を実行する。「最も可能性の高いエラーを見つける問題を解決する」ために、まず、各物理誤りのメカニズムが、どのように、測定されたスタビライザーに伝播するかを説明する、論理アルゴリズムの記述に基づいて復号ハイパーグラフを構築する。ハイパーグラフの頂点はスタビライザーの測定結果に対応する。各エッジまたはハイパーエッジは、接続されているスタビライザーに影響を与える物理的なエラー メカニズムに対応し、エッジの重みはそのエラーの確率に関連する。
 次に、このハイパーグラフと各実験スナップショットを使用する復号アルゴリズムを実行し、測定値と一致する最も可能性の高い物理誤りを見つける。最も可能性の高い物理誤りを見つけるために、混合整数計画問題の最適解として符号化して、解く(最先端のソルバーであるGurobi Optimizer[*32]が使用された)。

【4】実際に実現したこと
 実現された(実証された)ことはいくつかあるが、中心的なことは『3 次元[[8,3,2]]符号を使用して、「228 個の2論理量子ビット・ゲート、48 個の論理 CCZ ゲート及び、もつれた最大48 個の論理量子ビットを持つ」計算的に複雑なサンプリング回路を実現し、損益分岐点を越えた』ことである。本論文によれば、トランスバーサルなCCZゲートは、物理量子ビットにTゲート(π/4回転の位相シフト演算を実行するゲート)とSゲート(π/2回転の位相シフト演算を実行するゲート)を使用することによって、実現できる(正確には、トランスバーサルな{CCZ, CZ, Z}ゲートを実現できる)。
 このセットアップは、クロスエントロピー・ベンチマークと高速スクランブリング(fast scrambling)の量子シミュレーションとで、物理量子ビットの忠実度を上回っていた。つまり、損益分岐点を越えた。

【5】まとめ、感想など
(0) 2020年に始まったDARPAのONISQプログラムは、組み合わせ最適化問題を、古典コンピューター(スパコン)よりも速く解くことで、量子コンピューター(NISQ)の利点実証を目指すプログラムである。 超伝導、イオン、中性原子など、さまざまなタイプの量子ビットが選ばれた。DARPA技術顧問は次のように語っている:「ONISQ プログラムが開始された 3 年前に、中性原子が論理量子ビットとして機能する可能性があると誰かが予測していたら、誰も信じなかったでしょう。よく研究されている超伝導やイオンとともに、あまり研究されていない量子ビットの可能性に賭けるのが DARPA のやり方である」。誰も信じなかったは別として、DARPAは、さすがである。
 実用的な問題ーONISQの趣旨を汲めば-組み合わせ最適化問題で、量子優位性が証明されると、面白い。48論理量子ビットであれば、実用的なレベルの組み合わせ最適化問題が、解けるのではないだろうか。量子回路によって誤り率は変わってくる(と考えられている)から、解くべき問題によって、損益分岐点を超えるか否かは変わってくる(はず)。故に、実用的な問題で試行して頂きたい。

(1) 損益分岐点越えという題材であれば、イオントラップ方式量子コンピュータを開発している米Quantinuumが22年8月に発表した論文[*11]がある。2論理量子ビットに対して、トランスバーサルCNOTゲートを使用して、損益分岐点を超えの兆候が見られたと主張した(量子誤り訂正符号は、カラー符号)。他には、米イェール大と加シャーブルック大による「Ⅱ 損益分岐点を越えたことを示唆する実験結果を得たと主張する論文」(GKP符号)やグーグルによる「Ⅳ 量子誤り訂正符号において、サイズによる性能スケーリングが存在することを実証したと主張する論文」(表面符号)がある。しかし『ハードウェア効率が高い⇒故に48論理量子ビットまで拡張できた』という点が、他例とは大きく異なる。

(2) 慶應大学・筑波大学は、43(論理)量子ビットの状態ベクトル型量子コンピュータ・シミュレーションを実行できるボードを開発した、と発表(23年12月11日)[*33]。FPGAと安価なSATAディスク(8TBを32枚直結)を利用して実現した。3時間程度で計算を実行でき、価格は400万円程度。なお、仏Qubit Pharmaceuticals(量子技術で創薬期間の短縮を目指すスタートアップ)と仏ソルボンヌ大学は、「40個の論理量子ビットに対する、正確な古典シミュレーションを成功させた」と発表(23年12月6日)[*34]したが、GPU128基を装備したスパコンを使用した。いずれにしても、48論理量子ビットは、シミュレート可能範囲ということではないだろうか。ただし、48論理量子ビットだとメモリは、4PiBになる。

(3) 中性原子方式は、消費電力が多い(古典コンピュータよりも電費が悪い?)ようであることは、実用化のネックになるかもしれない。またコスト(初期コスト、運転コスト、維持コスト)は、どの程度であろうか。

(4) そもそもAccelerated Article Previewということもあり、読みにくい。加えて、内容も難しいが、書きぶりが分かり辛い。

Ⅶ 伝搬光でGKP量子ビットを生成したと主張する論文
【0】はじめに
 量子コンピューターは、外界(熱浴)からの雑音等に弱い量子情報を使用して演算処理を行う。そんな脆弱な量子情報を保護する方法として、「量子情報を高次元ヒルベルト空間内の論理量子ビットとして、冗長的に符号化する」方法を選ぶことは、自然な発想である。なぜなら、それは古典コンピューターで行われている保護方法と同じだからである。しかし量子コンピューターを大規模化する(量子ビット数を増やして、大規模計算を実行可能にする)ことを考えた場合、この”冗長的符号化”は、大規模化の大きな壁となる。それは本質的には、量子情報があまりに脆弱過ぎて、その結果、冗長性の度合が「半端なくなる」からである。具体的には、(少なくとも)数百万の物理量子ビットを、高精度に制御する必要があると目されており、それは非現実的であると見做されている。
 そこで、必然的にハードウェア効率(を高める)という概念が、重要視されるようになった。冗長性の度合を減らすということである。ハードウェア効率が高い量子誤り訂正符号の一つとして、ボソニック符号と呼ばれる量子誤り訂正符号が知られている。ボソニック符号の代表例が、GKP(Gottesman-Kitaev-Preskill)符号である。
 東京大学は、高忠実度かつ高速にGKP符号を生成できたと主張する論文[*35]を発表した(24年1月18日@サイエンス)。以下では、本質的に同じであろうnpj(ネイチャー・パートナー・ジャーナル)で23年10月10日に公開された論文[*36](以下、本論文)について、要点を整理した。

【1】本論文の主張
 本論文では、スケーラビリティに優れた伝搬光にGKP量子ビットを符号化するプロトコルが提案されている。このプロトコル(ガウス型飼育プロトコルと呼ばれている)は以下の利点を有する、と本論文は主張している。
① 任意のGKP量子ビットの系統的で厳密な符号化が可能 
② 最小限のリソース使用で符号化が可能 
③ 高忠実度と高い成功確率で符号化が可能 
④ 損失に対する頑健性を備えている 

【2】事前整理
(0) そもそも論 
 本論文は、「光の連続量を使った測定型量子計算」を対象にしている。光は、正確には光ファイバー内を伝搬する通信波長の光(伝搬光)である。
0⃣ 光の連続量と測定型量子計算[*37] 
 古典的な光(当然、連続量)は複素振幅を使って表現できる。これは、形式上、量子的な光でも同様である。ただ、量子的複素振幅は演算子である、という違いがある(それが、先に”形式上”とした理由)。複素振幅は複素数で表現されているので、振幅を実部と虚部に分解することができる。実部と虚部は互いに直交しており、直交位相振幅と呼ばれる。実部、虚部それぞれが演算子であり、位置と運動量と同じ交換関係を満たす。従って、実部は「位置」成分、虚部は「運動量」成分とも呼ばれる。
 光を使った量子計算は、離散量を使う方式と連続量を使う方式に大別できる。連続量方式では、スクイーズド光(スクイーズされた光)†1が、代表的な”量子ビット”(言語矛盾を避けるために、正確にはqumodeと言う)として扱われてきた。その理由の一つは、量子もつれの生成が容易であるためであった。しかし、スクイーズド光では、量子誤り訂正が成立しない(誤りが蓄積し、計算が破綻する)という致命的な欠点があった。その欠点を解決したのがGKP符号である(→2⃣にて、後述)。
 光の連続量は、測定型量子計算にしか使えないわけではない。ただし、測定型量子計算の場合、初期状態として大規模な量子もつれ状態(リソース状態あるいはクラスター状態と呼ばれる)を作ってしまえば、あとは線形光学素子のみで汎用量子計算が実行できる(回路型量子計算†2で置き換えると、初期状態として魔法状態を作っておけば、クリフォード・ゲートのみで汎用量子計算が実行できるイメージ)。そのため、連続量を使う場合は、通常、測定型量子計算が第一選択肢となる。なお、測定型量子計算は、光以外でも可能である。
†1 振幅もしくは位相のいずれかにおける量子揺らぎを抑制することをスクイーズと呼ぶ。スクイーズされた光を、スクイーズド(squeezed)光と呼ぶ。
†2 測定型量子計算(一方向量子計算とも呼ばれる)と対比する場合、”通常の”量子ゲートを使った量子計算を「回路型量子計算」と呼ぶ(こともある)。

1⃣ ボソニック符号とGKP量子ビット [*37],[*38] 
 連続量に物理量子ビットの情報を埋め込む符号化を「ボソニック符号」と呼ぶ。連続量に埋め込むことで、補助量子ビットを大量動員して、論理量子ビットを構成するというハードウェア効率の低い力技を回避できると見做されている。ただ・・・連続量なんて、光だけでは?と一瞬思うが、共振器を用いることで他の量子モダリティでも、ボソニック符号を使うことができる。代表的なボソニック符号として、GKP符号がある。GKP量子ビットを使ったボソニック符号がGKP符号である。
 GKP 量子ビットは、ゴッテスマン†1、キタエフ†2及びプレスキル†3によって提案された量子ビットである。理想的には、GKP 量子ビットは「”振幅の異なる”、等間隔の位置固有状態の重ね合わせ」である。通常は、スクイーズされたコヒーレント状態の重ね合わせとして近似される。
 少し正確に言うと、GKP量子ビットの0状態と1状態は、複素振幅の実部=「位置成分」の偶数×√π(0状態)と、奇数×√π(1状態)に符号化された状態である。”振幅が異なる”とは、山の位置がズレているという意味である。具体的には√πだけ、山の(中心の)位置がズレている。GKP符号では、2つの位置固有状態(0状態|0˜Δ,κ⟩と1状態|1˜Δ,κ⟩)が符号語となる。ここでΔはスクイーズド光の分散(正確には、Δ2/2が分散)で、κは減衰関数の分散(正確には、κ2/2が分散)である。
 理想的にスクイーズされている(分散ゼロの)場合に、|0˜Δ,κ⟩と|1˜Δ,κ⟩は直交するが、理想的なスクイーズには無限のエネルギーが必要になる。従って、現実的には、非ゼロの直交していないGKP量子ビット(有限エネルギーGKP量子ビット、と呼ばれる)を考える。
†1 ダニエル・ゴッテスマン。スタビライザー符号、量子ゲートのテレポーテーションに関する研究が有名。ゴッテスマン・ニルの定理(クリフォード・ゲートのみで構成された量子回路は、古典コンピュータによる多項式時間でのシミュレートが可能)でも、その名を知られている。指導教官は、ジョン・プレスキル。
†2 アレクセイ・キタエフ。量子計算(量子情報理論)の世界では、ソロヴェイ・キタエフの定理(1量子ビットゲートとCNOTゲートがあれば、汎用量子計算が可能)で、その名が知られてる。物性物理の世界では、キタエフ模型(元々、トポロジカル量子計算を実現するモデルとして考案されたが、量子スピン液体を実現可能なモデルとして注目された)で知られている。
†3 ジョン・プレスキル。量子計算の世界では、量子超越性やNISQという言葉を考案したことで知られている。

2⃣ GKP符号 
 スクイーズド光で量子誤り訂正が成立しなかった理由は、複素振幅の実部=位置成分、虚部=運動量成分のどちらか一方だけしか離散化できない(原理的にできない)ため、離散化できない成分で量子誤りが蓄積するためであった。雑に言うと、GKP量子ビットは、位置成分のみを使って、位置成分と運動量成分を疑似的に構築することによって、量子誤り訂正を成立させている。
 誤り訂正方式という見方でGKP符号を説明すると、次のようになる:GKP符号は、変位演算子Dを使って、小さい変位の重ね合わせで誤り訂正を行う、誤り訂正符号方式である。

(1) 先行事例
0⃣ 課題の在処と解決策 
 GKP符号は、光以外のモダリティでも実現できる。トラップ・イオンや超伝導回路などの非線形システムでGKP 量子ビットを生成するのは比較的簡単である一方、生成された量子ビットを相互作用させるのは困難である。その理由は、量子ビットが物質または定在波として離れて局在しているためである。対照的に、光(伝搬光)では、GKP量子ビットの生成は困難([*39]では、量子物理学積年の夢とまで記述されている)だが、使用は簡単である。
 まとめると、光を使ったGKP量子ビットの作成が可能になれば、GKP符号を使った誤り耐性量子コンピュータの実現可能性が高まると期待される。GKP 量子ビットの生成を妨げる障害は、伝搬光における非線形性の欠如(弱さ)である。非線形性の弱さを回避する有望な方策は、光子検出器の非線形性を利用することである。そうすると、次の課題解決ステップは、光子検出器の非線形性をどのように利用するか、である。
 1 つのアプローチは、複数のシュレーディンガー猫状態の干渉とホモダイン測定を利用する猫量子飼育(quantum breeding)プロトコルである(「飼育」は、公式な訳語)。もう一つのアプローチは、ガウシアン・ボソン・サンプリングに基づく方法である。
† ホモダイン測定では、プローブ光(被測定光)と局部発振光(高強度のレーザー光)を半透過鏡で干渉させ、その出力光を 2 つのフォトダイオードで検出した上で差信号をとる。これにより、微弱な被測定光が高強度の局部発振光によって増幅され、室温下で SN 比のよい測定が実現できる。

1⃣ シュレーディンガーの猫状態と量子飼育プロトコル[*39],[*40] 
 本来の「シュレーディンガーの猫状態」は、微視的物体と巨視的物体の量子もつれ状態†1で、平均光子数|a|2が、|a|2≫ 1である場合を言う。|a|2≤1の場合は、「シュレーディンガーの子猫状態」と呼ばれる[*41],[*42]。量子光学の文脈では、より狭い解釈がなされている。量子光学における「シュレーディンガーの猫状態(以下、SC状態とする)」は、「位相が180°異なる(つまり逆位相)の2つのコヒーレント状態の重ね合わせ状態」として定義される。飼育プロトコルを説明するために、少し定量的な取り扱いをする。
 SC状態を、実振幅αのコヒーレント状態の正または負の重ね合わせとする。つまり、
      SC状態=|α⟩±|-α⟩ 
である。ただし簡潔にするため、正規化係数は省いた。光子を取り除く(光子減算†2)と、|-α⟩成分の前の符号が反転し、SC状態は、より振幅が大きな負にスクイーズされたSC状態に変換される。このように、SC状態の振幅を大きくすることを、量子飼育と呼ぶ。SC状態の振幅がより大きいということは、重ね合された2つの状態がより巨視的に異なることを意味する。それは、また非古典性がより大きくなることを意味する。
 このプロトコルの課題として、2つ上げられている。一つ目は、大量(O(102))の光子検出が必要となることである。2つ目は、量子飼育プログラムでは、特定の符号語しか生成できないことである。
†1 「放射性原子と猫」で思考実験した場合は、微視的物体と巨視的物体の量子もつれ状態を考えていることになる。死んだ猫と生きた猫の場合は、巨視的物体同士の量子もつれ状態になる。いずれにしても、巨視的物体との量子もつれ状態であることが、シュレーディンガーの猫状態の本質であった。
†2 光子減算(photon subtraction)は、光子を引き抜く(第二量子化の言葉を使えば、消滅演算子を作用させる)過程である。具体的には、スクイーズド光のごく一部を、ビームスプリッターによる反射で取り出し、その部分に、光子数検出を施すことで、ビームスプリッターの透過側の状態に変化を引き起こす。

2⃣ ガウシアン・ボソン・サンプリング 
  中国は、光を用いた量子計算で、2020年に量子超越性を達成した、と発表した。その対象が「ガウシアン・ボソン・サンプリング(以下、GBS)」であった。GBSは、アーロンソンとアルヒポフによって従来から提案されている量子優位性を検証する方法であり、実用性はないとされていた。前年(2019年)にグーグルは、超伝導回路(トランズモン)を用いた量子計算で量子超越性を達成したと発表した(その後、様々な異論が出た)。その対象は、ランダム量子回路サンプリングと呼ばれるもので、やはり実用性はない、とされている。GBSは、その後、実用性が見出された(分子振動スペクトルの計算、グラフ理論、ブロックチェーンのコンセンサス・アルゴリズムなど)。
 GBSに基づいてGKP 量子ビットを生成する方法は、リソース要件の点で飼育プロトコルよりも有利であると予想されている。具体的に言うと、光子検出器、シングルモード・スクイーズド状態、およびビーム・スプリッターのみで構成されるため、実験要件は最小限であると予想されている。課題は、GKP 量子ビット生成におけるパラメーターを、数値的に決定する必要があることである。この課題は、量子超越性を示すほど複雑であり、ターゲット状態を標準パウリ符号語に制限したとしても、エラー訂正能力が制限されるか、生成率が非常に低い解決策しか見つかっていない。

【3】本論文におけるオリジナリティ
(1) 概要 
 本論文では、非古典ガウス光であるスクイーズド状態に「コヒーレント分岐」と呼ばれる操作を繰り返すことで、GKP符号を作り出す。その操作は、ガウス型(ガウシアン)飼育プロトコルと呼ばれている。コヒーレント分岐は、変位したスクイーズド真空状態の重ね合わせを生成する。必要に応じて、ガウス包絡線(=減衰関数)を波動関数に乗じることによって、量子状態のエネルギーを減衰させる。
 なお、ガウシアン飼育プロトコルの"ガウシアン"は、ダブル・ミーニングであろう。一つ目は、ガウシアン飼育プロトコルが、既存手法である量子飼育プロトコルとガウシアン・ボソン・サンプリングの良いとこ取り、をしていること。二つ目は、(非古典)ガウス光を初期状態としていることである。

(2) 量子飼育プロトコルの課題に対する解決策→優位性
 改めて、量子飼育プロトコルの課題をあげると、⓵大量の光子検出が必要となること、及び⓶特定の符号語しか生成できないこと、であった。本論文のガウス型飼育プロトコルが、この課題を解決していることを示すために、ガウス型飼育プロトコルを量子飼育プロトコルに寄せてみよう。
 コヒーレント分岐は、「SC状態を生成する操作に、変位演算子を作用させる」操作と解釈できる。コヒーレント分岐を複数回繰り返すことで、GKP量子ビットを作り出す。量子飼育プロトコルも、SC状態の「干渉」を複数回繰り返して、GKP量子ビットを生成する。量子飼育プロトコルでは、繰り返しの度に、符号語の間隔が1/√2ずつ減少する。間隔が詰まって(指数関数的に)密になるため、光子検出数も指数関数的に増加する。一方、コヒーレント分岐では、SC状態に作用するのは、変位演算子である。つまり、符号語の間隔は高々、線形にしか縮まらないので、光子検出数も、高々、線形増加に留まる。 つまり、⓵は解決された。
 コヒーレント分岐は、分岐幅wで、SC状態を変位させることが出来るため、任意のGKP量子ビットを生成することができる。これで、⓶も解決された。

(3) GBSの課題に対する解決策→優位性
 GBSを使ったGKP量子ビット生成の課題は、パラメーター(物理的回路の構成)を数値的に決定する必要があるが、それが困難なことであった。これに対する解決策を本論文では、「(ガウス型飼育プロトコルは)一般化された光子減算による重ね合わせの生成と、量子非破壊相互作用と変位操作の可換性を考慮することで、目的の設定を効率的に明らかにできる」としている。
 加えて、ガウス型飼育プロトコルはGBSを使った方法よりさらに、ハードウェア効率が高い、とする。例として、標準パウリ符号語生成のような単純なケースでは、「GBSで通常想定される N(N + 1)/2ビーム・スプリッターの代わりに、最小限の数のビーム・スプリッター、具体的には N 個のビーム スプリッターのみを使用して GKP 量子ビットを生成できる」と主張している。

(4) 量子回路の簡略化 
 本論文では、ビームスプリッタ相互作用が、量子非破壊相互作用とスクイーズ作用に(一旦)分解される。量子非破壊相互作用は、エンタングルメント・ゲートを使うことで物理実装される。本論文では、エンタングルメント・ゲートの実装は、ハードウェア効率が低い(コストが高い)として、ブロッホ・メシアの定理を使って、さらに分解している。
 ブロッホ・メシアの定理とは、ガウス型操作は、(シュタインスプリング表現によって適当な真空状態の補助モードを加えた上で)、以下4つのユニタリ操作に分解することができる、という定理であり、この分解を「ブロッホ・メシア分解」と呼ぶ[*43]:㊀変位操作、㊁位相シフト操作、㊂ビームスプリッタ操作、㊃スクイージング操作。
 分かり易さというだけなら、エンタングルメント・ゲート→ビームスプリッタ+スクイージング・ゲート、スクイージング・ゲート→スクイーズド光+ホモダイン検出器、という分解表現の方が、分かり易いかもしれない。

【4】シミュレーションによる性能検証 
(0) セットアップ 
1⃣ シミュレーション実行環境 
  性能検証には、Xanaduの量子計算ソフトウェア「Strawberry Fields」を使用している。Xanaduは、連続量の光を使った測定型量子計算方式の量子コンピュータを開発しているカナダのスタートアップである。フォック空間における、最大55光子までのGKP量子ビット生成の数値シミュレーションを実行することで、検証を行った。
2⃣ 評価指標1 
 (1)符号語の検証及び、(2)任意のGKP量子ビットの検証における指標として、「成功確率、スクイージングレベル、忠実度」が採用されている。スクイージングレベルsは、GKP 量子ビットのしきい値(dB)で、スクイーズド光の分散Δ2/2と、s=10log10Δ-2という関係がある[*37](蛇足ながら[*37]の表記だとσ2=Δ2/2で、負号は対数の中で逆数となっている)。
 有限エネルギーGKP量子ビットは、符号語として用いる2つの位置固有状態が完全には直交しないので、量子ビット値の識別誤りが発生する。GKP量子ビットのしきい値とは、どの程度まで識別誤りが許容されるか、というしきい値である。誤りが蓄積して量子計算が破綻することを回避できる、しきい値(誤り耐性のしきい値)ということである。
 本論文では、しきい値として10dBが上げられている。ちなみに、[*37]では、10.5dBが上げられている。この値は、トポロジカル量子計算が実行できる識別誤り確率から推測した値である。しきい値が小さくなると、より多くの誤りが許される。
3⃣ 評価指標2 
 (3)光子損失に関する堅牢性では、ウィグナー関数W(x,p)の対数負度が、指標として採用されている(xは位置、pは運動量である)。ウィグナー関数が負であることは、非ガウス状態を意味する。非ガウス状態の存在は汎用量子計算及び量子誤り訂正に必要である。ウィグナー関数の負の部分の量を「負度」と呼ぶ。本論文では、対数表示の負度を採用している。具体的には、
     Wlog = log∫dxdp|W(x,p)|
を考え、しきい値0.2を採用している(0.2以上を要求)。

(1) 符号語の検証 
 GKP符号の符号語は、2つの位置固有状態|0˜Δ,κ⟩と|1˜Δ,κ⟩であった(参照【2】(0)1⃣)。ただし、ここでは、κ=Δとされており、符号語として0状態|0˜Δ,κ⟩が選択されている。設定条件は、光子検出数n = 6,10,16 、コヒーレント分岐の繰り返し回数N=2,3,4である。なお、分岐がN 回繰り返された後、減衰を実行して、ターゲット状態への忠実度を高めている。
 スクイージングレベルs(単位:dB)は、n=6の場合6.4(N=2)と6.9(N=3)。n=10では、8.6(N=3)、8.8(N=4)。n=16では10.3(N=3)と10.4(N=4)で、10.5dBを下回っているので、いい感じということになるだろうか(10dBは上回っている)。
 なお、成功確率は1.06×10-3~1.18×10-7、忠実度は99.6%~99.9%である。

(2) 任意のGKP符号の検証 
 続いて、任意の GKP 量子ビット α|0˜Δ,Δ⟩+ β|1˜Δ,Δ⟩ について検証を行っている。nは16に、Nは3及び4に固定されている。3つの魔法状態(α, β) = ❶(cos π/8, sin π/8)、❷(1/√2, exp(-iπ/4)/√2)及び❸(cos θ,sinθ・exp( -iπ/4))がターゲットとなっている。ただしθは、cos2θ = 1/√3を満たす。
 スクイージングレベルsは、❶10.2、10.6、❷10.3、10.5、❸10.3、10.5である(ここで、❶~❸とも、前者がN=3、後者がN=4である)。しきい値を10.5dBとすれば、全て収まっていると評価できるだろうか。
 なお、成功確率は、符号語に比べるとかなり低くなる:2.22×10-10~4.97×10-12。忠実度は、99.5%~99.8%である。

(3) 光子損失に関する堅牢性
 最後に、光子損失に対するガウス型飼育プロトコルの堅牢性を検証している。しきい値として0.2を採用し、n=6,10,16をとった場合、光子損失率は、9%未満、5%未満、3%未満である必要がある。 既に、光パラメトリック発振器で損失率3%未満が実現されている(ただし、世界記録)ため、n=16でも「GKP 量子ビット生成の損失要件は、現実的な難易度の範囲内にある」と結論している。

【5】感想 
(1) 光を使った誤り耐性量子コンピュータの実現に期待を抱かせる研究結果といえるのだろう
(2) 量子飼育プロトコルの改良に、変位演算子が大きな役割を果たしていると思うが、変位演算子が顕に現れる共振器を使ったGKP量子ビットの生成法を、光で実現した、という理解で良いのだろうか。
(3) [*36]では、GKP量子ビットを作成するために、シュレーディンガーの猫状態(SC)から始めているわけではないが、[*35]ではSCから始めているらしい。もっとも教科書的に言って、SCは、スクイーズド光×光子検出器で近似的に生成できるのだから、大きな違いはないのかもしれない。
† 現代化学2024年4月号(p.11)には、「今回実現されたGKP量子ビットのクオリティは、光を使った量子コンピュータの大規模化にすぐにつながる水準ではない(ものの・・・以下、略)」(京都大学大学院工学研究科 岡本亮准教授)とある。

Ⅷ 表面符号に花束を:ハードウェア効率の高いqLDPC符号を発見した主張する論文
【0】はじめに
 IBMの研究者は、「ハードウェア効率の高い、量子低密度パリティ検査(qLDPC)符号を発見した」と主張する論文(以下、本論文[*44])を発表した(24年3月27日@nature)。IBMは、発見したqLDPC符号をBB符号(bivariate bicycle†1符号)と呼んでいる†1.5。ただしBB符号は、猫符号やGKP符号といったいわゆるhardware efficientと形容される量子誤り訂正符号(ボソニック符号)とは異なる(もっとも、猫量子ビットを使ったLDPC符号もある→【5】(1)参照)。
 ここで極めて重要な事実は、IBMは発見しただけで、実装はしていない(正確には、実装できない)ことである。実装は『不可能ではない』というレベルであり、超伝導方式というモダリティの将来性が、厳しいことに変わりはないと思われる。
 
------- ❚注 釈❚ ---------- 
†1 為念・・・自転車とは無関係。cycleは、グラフ理論における閉路を意味している。
†1.5 IBMのブログ[*87]には、「qLDPC符号というコード体系に基づいているこのコードを私たちは『グロス符号』と呼んでいます」とある。※『』は便宜上、付け足した。

【1】本論文の主張
 本論文は、「表面符号では3,000 個を超える物理量子ビットが必要になる論理誤り率 10−7を、BB符号は288個の物理量子ビット数で達成できる」主張する。つまり、ハードウェア効率は、10倍以上向上したことになる。

【2】事前整理
(0) 量子誤り訂正の仕組み 
0⃣ 言葉及び表記のセットアップ(為念) 
㈠ 量子LDPC符号は、古典LDPC符号の量子版である。量子誤り訂正の文脈では、LDPCという”生の表記”が多いが、ここでは混乱をさけた上で簡便のため、量子LDPC符号をqLDPC符号と表記する。古典LDPC符号は、LDPC符号と表記する(CLDPCとは、しない)。
㈡ [[n, k, d]] 表記は、(量子的ではないという意味での古典的な)誤り訂正符号における(n,k,d)という表記のオマージュである。(n,k,d)において、nは符号長、kは情報長(あるいは情報記号数)、dは最小距離と呼ばれる。[[n, k, d]]において、nは物理量子ビットの数 、kは符号化された量子ビット(=論理量子ビット)の数、dは符号距離である。dは、量子誤り訂正符号が検出・訂正できる、量子誤りの数を表している。別の表現を使うとdは、有効な符号語間の最小ハミング距離、つまり最小の論理演算子の重みである。
㈢ (符号化率†2一定の下で)符号長を大きくしたとき、最小符号距離が、符号長に比例して大きくなる符号は、「漸近的に良い」符号と呼ばれる[*45]。
㈣ 「低密度」という用語について、まずは、LDPC符号の文脈で説明する。パリティ検査行列(※後述)の非ゼロ要素が少ない(疎な行列)場合、低密度と呼ばれる。なお低密度は、計算量を抑制しながら、性能を向上させるキモである。この説明は当然、qLDPC符号にも当てはまる。同じ意味ではあるが、量子誤り訂正(QEC)に寄せた言葉を使うと、次のようになる:パリティ検査演算子が少数の量子ビットのみに作用し、量子ビットが少数のパリティ検査にのみ参加する場合、(量子誤り訂正符号は)低密度と呼ばれる。
1⃣ 誤り訂正と量子誤り訂正の枠組み 
 量子誤り訂正の枠組みは、線形符号の枠組みを踏襲している。線形符号とは、データvを符号化する関数Fが、生成行列Gを使った線形写像、つまりF(v)=v×Gと表現できる符号を指す。
 量子っぽく書くと、符号化前の量子状態|v⟩が、生成行列(演算子)を使ってG|v⟩=|v’⟩と符号化される。符号化後の量子状態|v’⟩に、量子誤り演算Eが作用すると、E|v’⟩=|v’⟩+|e⟩となる。|e⟩は、量子誤りである。|v’⟩+|e⟩に対して、正作用素値測度(POVM)†3の要素である演算子を使った測定を行う。誤り訂正と量子誤り訂正の対比において、POVM(測定演算子)は、 古典線形符号におけるパリティ検査行列に相当し、パリティ検査行列Hから作ったパウリ行列により生成される。測定結果は、シンドロームs=H|e⟩であり、s≠0であれば、量子誤りが発生していることが認識できる†4
------- ❚注 釈❚ ---------- 
†2 量子誤り訂正符号の文脈では、符号化率=符号化された量子ビット(つまり、論理量子ビット)数/物理量子ビット数、である。超伝導量子ビット×表面符号だと、≃1/1,000と目されている。トラップイオン×表面符号だと、≃1/100とされる。ちなみに、加Photonic(H/W:モダリティ=シリコンスピン)は、自社開発のqLDPC符号「SHYPS」の符号化率を1/100と主張している。量子ビット間の非局所的な接続を活用することで、符号化率を低減させている(トラップイオンが、全結合が可能なモダリティであることと同じ理屈)。
 復号(アルゴリズム)は、|v’⟩+|e⟩から、|v⟩を求めるアルゴリズムである(|v’⟩でも良いはず)。
†3 POVMを数学的に定義すると、「和が恒等作用素になる正作用素の集合」となる。POVM測定を量子力学的に定義すると、「測定する物理系(着目系などとも呼ばれる)と補助系(しばしば、アンシラ(ancilla)と呼ばれる。具体的には、測定器など)を含めた全体系に対して行う射影測定」となる。
†4 POVM測定では、”わからない”を許容すれば(つまり、それが測定誤り)、量子状態を確実に識別できる[*46]。つまり、今のケースでは、”わからない”を許容すれば、{量子誤りが発生している、量子誤りが発生していない}は、確実に識別できる。

(1) 最強王者「表面符号」の誕生 
0⃣ しきい値定理 
 しきい値定理『量子コンピュータの部品となるあらゆるデバイス、状態初期化、量子演算、測定において、たとえノイズが含まれていたとしても、その大きさが”あるしきい値”よりも小さければ、計算結果の精度をいくらでも上げることができる』[*47]。
1⃣ 物理的に自然な制約が、最強王者「表面符号」を作った 
 (量子誤り訂正における)しきい値は、90年代には0.001%(10-5)程度と実現困難な水準であった。arXivにて2005年10月17日に公開された論文[*48]では、これが一気に1.4%に跳ね上がった†5。ノイズ(モデル)は脱分極ノイズで、測定型量子コンピュータに対して、表面符号を使った量子誤り訂正をシミュレートした結果である。現在も、脱分極ノイズ†6を前提としたシミュレーション結果により、しきい値は「およそ1%」†7と見做されている。
 このしきい値”爆上がり”によって、表面符号は、量子誤り訂正符号の最強王者に君臨することになった。この”爆上がり”の理由を掘り下げると、それは、物理的に自然な制約を課したお陰であった。その制約とは、「隣接した量子ビット間でのみ演算を行う」という制約である[*49]。相互作用は近いほど強い†8というのは物理的には自然な仮定である。故に、遠く離れた量子ビット間で演算を行うのは不自然で、近くの量子ビット間でのみ演算を行うのは理に適っている、という考えを基に、表面符号は構築された。
2⃣ 表面符号Pros&Cons 
 表面符号が最強王者である理由は、しきい値が比較的高いこと及び、最近傍相互作用のみを必要とする、である。この、”最近傍相互作用のみを必要とする”という表面符号の特徴は、ハードウェア実装上も好ましいと捉えられていた。それは、多くの量子コンピューティング・プラットフォームは、量子ビット間の忠実度が高い”長距離相互作用”を実行できないためである。
 しかし、”最近傍相互作用のみを必要とする”という特徴は、結局、スケーラビリティと両立できなかった†9。これは、ハードウェア効率を上げられなかったとも表現できる。結論を先取りすると、本論文は、20年余り量子誤り訂正を牽引してきた、”最近傍相互作用のみを必要とする”表面符号と、遂に、訣別する覚悟を示した(という意味では、エポックメイキングかもしれない)。
 ハードウェア効率を上げるアプローチには、猫符号やGKP符号と言った文字通り”hardware efficient”な量子誤り訂正符号を採用するというアプローチも存在する。それとは別に、qLDPC符号の範囲で、ハードウェア効率を上げるというアプローチも存在する†10。本論文は、そっちである。
3⃣ 表面符号を越えるための処方箋 
 表面符号の強さを、別の表現で確認してみよう。量子ビットの2次元配列に対して、局所的な操作(隣接する量子ビットのみを含む操作)を行いたい場合、最高の量子誤り訂正符号は、表面符号である[*50]。従って『表面符号と同程度のしきい値を保ったまま(qLDPC符号として)』スケールするには、この条件にチャレンジする必要がある。具体的には、離れたデータ量子ビットとパリティ検査量子ビット†11の間に、⓵余分な非局所演算(長距離演算)を導入するか、⓶量子ビットを3次元配列にする必要がある。本論文は、⓵を採用している。そして、それは茨の道であり、故に、現時点で実装が不可能である。
------- ❚注 釈❚ ---------- 
†5 [*48]には、量子誤りモデルに応じて(従前の、つまり[*48]以前の)しきい値は10-10~10-4の範囲である、と書かれている。
†6 非現実的な「脱分極ノイズ」で良いのか、という議論は当然ある。
†7 以下㊀、㊁(及び脱分極ノイズ)の仮定の下で、シミュレートした結果得られるしきい値は10.3%である:㊀X誤り(ビット反転誤り)と Z誤り(位相反転誤り)が独立して処理される。㊁最小重み完全一致(MWPM)に基づく復号アルゴリズムを使用する。ここから更に、(現実的な仮定である)ノイズの多い補助量子ビットで複数回のパリティ検査を行う等を仮定すると、しきい値は1%程度となる。
†8 グルーオンを媒介粒子とする強い相互作用は、例外。
†9 例えば[*50]では、超伝導方式を対象に「金額(エコノミクス)と消費電力」を取り上げて、表面符号にはスケーラビリティが欠如していることを示している。ただし、他モダリティでも結論は同じである。
†10 LDPC符号である(パリティ検査が低密度である)ことは、量子誤り訂正符号がスケールする必要条件である(十分条件ではない)。それは、以下㊀+㊁でなければ、量子誤りは際限なく蓄積してしまうからである:㊀パリティ検査が低密度。㊁符号長が大きくなるにつれて(物理量子ビットの数を増やすにつれて)、量子誤り訂正ラウンドごとに各物理量子ビットに対して実行される演算の数を制限する。LDPC符号の範疇でハードウェア効率を上げるというアプローチは、予見性が高いアプローチと言えるだろう。
†11 量子誤り訂正の文脈で、物理量子ビットを「機能」で分けると、データ量子ビットとパリティ検査量子ビットに分けられる。

(2) 表面符号の対抗馬としてのqLDPC符号
0⃣ 為念:LDPC符号[*51],[*52]
 LDPC符号は1960年代に提案†12されながら、計算機の能力不足により長らく、その真価が発揮できなかった(有効性を証明できなかった)という不遇の歴史を持つ。90年代後半にD.J.C.MacKay卿によって再発見され、2000年代には、シャノン限界に近い誤り訂正能力を持つことが知られるようになった。2009年には無線LANにおける誤り訂正プロトコルのオプションとして規定された。

1⃣ qLDPC符号を代替として検討する理由 
 表面符号に対する、ハードウェア効率が高い代替†13として、qLDPC符号を検討する理由は、いくつか考えられる。一つ目の理由は、”文字通り”ハードウェア効率の向上が見込めることが、明らかになったからである。明らかになったのは、つい最近と言える2020年のことであった。
 一定の符号化率と線形距離を持つLDPC符号が存在する。ここで線形距離とは、符号距離dと符号長nが、d ∝ nの関係にある(線形にスケールする)ことを意味する。従って、qLDPC符号でも線形距離が、当然期待された。しかし、その実現は困難を極め、長らく√n・polylog(n)の壁は、越えられないと考えられていた。表面符号は平方根距離(つまり、d ∝ √n)であるから、qLDPC符号にアドバンテージはなかったのだが、2020年に、その壁が乗り越えられた。その後、符号距離におけるqLDPC符号のアドバンテージは、徐々に伸びていき、現状(と言っても、レビュー論文[*53]の公開@arXivは2021年10月25日)、n1−α/2log(n)まで到達している†14。ここでαは、0≤α<1を満たす(α=0で線形距離であるが、[*53]ではn1−α/2log(n)を、ほぼ線形距離と呼んでいる)。
 二つ目の理由として、qLDPC符号はその設計において、LDPC符号の知見を活かせる、ことが上げられる†15。LDPC符号(and/or qLDPC符号)から、qLDPC符号を構築できるようにするさまざまな数学的なツールが充実した結果、符号距離アドバンテージに関する記録ラッシュが続いている[*53]。具体的には、ハイパーグラフ積、テンソル積、リフト積、バランス積といった積構造及びファイバー束による捩れ構造の導入、が上げられている。本論文のBB符号は、リフト積を使って構築されている(と理解している)。
 さらに、復号においても、LDPCの知見は活かされる。具体的には、信念伝播(BP)復号の転用である。LDPC符号で広く使用されている復号アルゴリズムは、タナー・グラフにおける反復メッセージ・パッシングに基づいており、信念伝播法(Belief Propagation:BP、あるいは確率伝播法)と呼ばれる。BP法を使った復号は、原理的には任意のqLDPC符号に適用でき、その単純さによりハードウェア実装に利点をもたらす。
 三つ目の理由として、復号の時間計算量を削減できることが上げられる。qLDPC符号は、優れた符号化率を実現するため、高速な復号が可能になる。さらに、qLDPC符号は簡略化された復号アルゴリズムを提供する。このため、qLDPC符号は単純な論理ゲートによって実装でき、複雑なプロセッサを必要としない。これは、システムへの熱放散が少なくなることを意味し、古典的な制御ハードウェアを量子ビットに近づけることができる可能性がある。
 四つ目の理由として、「シングル・ショット復号」が上げられる。スタビライザーの検査測定は、ノイズの影響を受ける(測定誤差が発生する)ので、信頼性を高めるために、測定を繰り返す必要がある。シングル・ショット復号とは、スタビライザー検査測定を繰り返す必要がないように、そのような測定誤差に対して堅牢性を示す特性を指す。

2⃣ qLDPC符号を避けたい理由 
 一方で、qLDPC符号を避けたい理由もある。それらが解消され、かつ、符号距離のアドバンテージが2020年以降続いているという事実を鑑みれば、qLDPC符号が最近注目を集めている理由が、肚に落ちるだろう。
 避けたい理由として、ハードウェア実装が難しい、ことが上げられる。このカテゴリーに属する問題として、①小さくすべき「スタビライザー検査に含まれる量子ビットの最大数」が、qLDPC符号では大きい、②物理量子ビットとその結合を空間内にどのように配置するか、③適切な測定スケジュールを見つける、が存在する。①は、スタビライザー検査を、より小さな検査に体系的に分割することで、解決できるようである。
 ②は、やや重いものの、解決可能である。qLDPC符号の平面埋め込みは一般的に不可能である。一方で、超伝導方式を含む多くの量子モダリティにとって、ハードウェア実装は平面レイアウトでのみ可能である(本論文では、「マイクロ波共振器で結合された超伝導量子ビットを使用したハードウェア実装において、課題をもたらす」と記されている)。
 一般論として、この課題は(グラフ理論における)「本型埋め込み(book embedding)」を使用することで、回避可能である。タナー・グラフ†16を使って説明すると、qLDPC符号のタナー・グラフは平面ではないが、グラフを平面部分に分割し、交差することなく1次元の線に沿って接続することが可能である。 グラフの頂点は線(背表紙)に沿って配置され、各辺(エッジ)には、その線を境界(ページ)とする半平面が割り当てられる。
 本論文では、別の解決策の可能性が提示されている(【3】(1)2⃣を参照)。
 ③は重いようである。スタビライザー検査を測定するには、つまりデータ量子ビットを測定に使用される補助装置に結合するゲートの順序を見つける必要がある(これは、スケジューリングと呼ばれる)。スケジューリングは、量子誤りが拡散しないようにするため効率的である必要がある。しかし、その決定は簡単ではないらしい。
------- ❚注 釈❚ ---------- 
†12 Robert G. Gallager(MIT名誉教授)が博士論文で提案した(ちなみに、[*52]では1963年のMITプレスが引用されている。[*54]では1962年の論文が引用されている)。Gallager名誉教授は、2020年に日本国際賞を受賞している。
†13 ややこしいことに、表面符号もqLDPC符号に属する。したがって、qLDPC符号ファミリーの中で、表面符号の代替案を探すという意味合いになる。
†14 [*53]では、新しい手法を導入しなければ、線形距離に達することは難しいとの見立てを示している。その上で、非可換(非アーベル)的な捩れの導入を提案している。
†15 実際は、LDPC符号の知見を転移することが難しかったり、転移すること自体不可能な知見もあるらしい。
†16 LDPC符号の構成や復号について検討する際には、パリティ検査行列から一意に定まる二部グラフを考えることがしばしば有用である[*55]。線形符号のパリティ検査行列に関する二部グラフを、タナー・グラフと呼ぶ。二部グラフ(bipartite graph)とは、頂点集合を2つに分割して各部分の頂点は互いに隣接しないようにできるグラフである。

【3】2変量2サイクル符号(BB符号)の詳細 
(0) 前説 
 qLDPC符号の設計においては、ハードウェア実装を念頭に置くことが重要である。また、全ての量子誤り訂正符号において、効率的な復号アルゴリズムに目途を付けておくことは重要である。一般的なスタビライザー符号の場合、最適な復号(誤りを元に戻す成功確率を最大化すること)が、#P完全であることが証明されている(!)。ただし、多くの場合、次善の復号アルゴリズムを考慮するだけで十分であるとされている。表面符号で例えると、最小重み完全マッチングである。
1⃣ 概要 
 本論文のBB符号は、LDPC符号を再発見したD.J.C.マッカイ卿他が考案した2サイクル符号を改良した符号である。2サイクル符号が単項式に基づいているのに対し、BB符号は二変量(bivariate)多項式に基づいている(ので、bivariateのBが加わって)BBと名付けられている。
 BB符号は、Calderbank-Shor-Steane(CSS)符号†17に分類されるqLDPC符号であり、パウリXとパウリ Zで構成される 6 量子ビット検査(スタビライザー)演算子のコレクションによって記述できる。BB符号の物理量子ビットは、周期的な境界条件を備えた 2 次元グリッド上にレイアウトできる。BB 符号の検査演算子は、幾何学的に局所的ではない。さらに、各検査は 4 量子ビットではなく 6 量子ビットに作用する。

(1) ハードウェア実装 
1⃣ グラフ構造 
 一般的な次数6のグラフは厚さ†18が3であるが、BB符号のタナー・グラフは、厚さが2である。このため、BB符号のタナー・グラフは、エッジ(辺)が互いに独立した 2 つの平面部分グラフに分解できる。
 厚さ2の量子ビット接続は、マイクロ波共振器で結合された超伝導量子ビットに適している。たとえば、結合器とその制御線の 2 つの平面層を、量子ビットをホストするチップの上面と下面に取り付けて、その 2 つの面を結合することができる。
2⃣ シンドローム測定(パリティ検査)
 (CNOTゲートで構成される回路によって実現される)シンドロームの測定時間は、測定回路の深さ、つまり重なり合わないCNOTゲート層の数に比例する。シンドローム測定中に、新しい量子誤りが発生し続けるため、回路深さは最小限に抑える必要がある。BB符号のシンドローム測定回路には、符号長に関係なく、CNOTゲート層が7 層だけ必要である。

(2) 復号アルゴリズム 
 端的に述べると、復号アルゴリズムは、ヒューリスティックス的に見出される。具体的には、信念伝播法(BP)と、順序統計量事後処理ステップ復号(OSD)を組み合わせたBP-OSDを回路ノイズモデルに適応させている。これには、オフラインとオンラインのステージが含まれる。
 オフライン・ステージでは、シンドローム測定回路と誤り率 p を入力として受け取る。個別の単一誤りごとに、スタビライザー形式を使用して回路を効率的にシミュレートし、誤り確率、測定されたシンドローム、および最終的な理想的なシンドロームを追跡する。
 オンライン・ステージでは、シンドロームのインスタンスを取得し、発生した可能性のある一連の量子誤りを特定する。オフライン・ステージの結果を使用すると、これを最適化問題として定式化することが可能で、BP-OSD によってヒューリスティックに解決することができる(らしい)。

(3) BB符号が達成する成果 
 BB符号は、表面符号の(量子誤り)しきい値とほぼ同じ、0.7%のしきい値を提供する。ここで、距離12のBB符号を使用して、12 論理量子ビットを符号化することを考える。物理的誤り率p は(妥当な水準である)、1× 10−3を仮定する。BB符号だと、わずか288個の物理量子ビット数で、論理誤り率 2 ×10−7が得られる(と本論文は主張する)。
 そして、同じことを表面符号で達成するには 3,000 個を超える物理量子ビットが必要になる(と本論文は主張する)。 つまり(本論文の主張を鵜呑みにすれば)距離 12のケースで、BB符号は表面符号と比較して、物理量子ビット数を10 倍強節約できる。
------- ❚注 釈❚ ---------- 
†17 qLDPC符号は、パリティ検査行列の大域的な構造に基づいて、CSS符号、非CSS符号、及びエンタングルメント・アシスト符号に分類できる[*56]。
†18 グラフの厚さとは、「いくつかの平面グラフを重ね合わせて、グラフを作る際に必要な、平面グラフの数」である。

【4】衝撃の事実及び、考察 
(0) アドバルーン 
 これまで長々と書いてきたわけだが、極めて重要な事実は【0】で既述した通り、現時点では、全く実装できないことである(つまり絵に描いた餅)。本論文では、「(BB符号実装に要求される)ハードウェア要件は、現在の超伝導量子コンピューティング・プロセッサでは、未だ満たされていない」と表現されている。そして、「解決するのが難しいが、不可能ではない」と形容する、技術的な課題3つを具体的に提示している。
❶ グラフの厚さが2であるアーキテクチャにおける、低損失の第2層の開発。
❷ 7 つの接続(6 つのバス†19と1つの制御線)に結合できる量子ビットの開発。
❸ 長距離カプラーの開発。

(1) ❶の解決策 
 次のように提示されている: IBM Quantum Eagle プロセッサー用に開発されたパッケージングに小さな変更を加えることが考えられる。最も簡単な方法は、追加のバスを量子ビットチップの反対側に配置することである。これには、結合バスの一部となる高 Q の基板貫通ビアの開発が必要となる。そのため、これらの基板貫通ビアが大きな望ましくないクロストークを導入せずに、マイクロ波の伝播をサポートできることを確認するための、集中的なマイクロ波シミュレーションが必要になる。
🖋考察🖋 実際は、これ一つ取り上げても、時間も費用も要する課題であろう。トータルで、コストダウンが計れるのか?という疑問も湧く。

(2) ❷の解決策 
 次のように提示されている: カプラーの数を4 つ(3 つのカプラーと 1 つの制御)である重い六角格子配置から 、7つに拡張する。本論文によると、これが意味することは、「過去数年間大規模量子システムで使用されてきたコアゲートである交差共鳴ゲートが今後の進路にはならない†20ということである」。
🖋考察🖋 これは超伝導方式を採用しているハードウェア・ベンダーにとって、由々しき事態であろう。過去の最大資産が座礁資産になるようなものである。IBMやグーグルのようなキャッシュリッチなベンダーであれば問題ないのかもしれないが、スタートアップにとっては、致命的ではないだろうか?
 また本論文には、「結合マップを 7 つの接続に拡張するには、マイクロ波モデリングが必要になる。一般的なトランズモンには、約 60 fF の静電容量があり、各ゲートはバスへの適切な結合強度を得るために約 5 fF であるため、トランスモン量子ビットの長いコヒーレンス時間と安定性を変えることなく、この結合マップを開発することは、基本的に可能である」と、微妙な表現が使われている。
🖋考察🖋 ここで基本的に可能とは、7×5 fF=35fFが60 fFより小さい、ことを述べているに過ぎないのではないだろうか。 それは物理を背景とした算術的に成立するだけであって、工学的・技術的な難度は含まれていないように思われる。

(3) ❸の解決策 
 次のように提示されている: 最後の課題が最も難しい。基本モードを使用できるほど十分に短いバスの場合、標準的な回路量子電気力学モデルが当てはまる。ただし、144 量子ビット符号を実証するには、一部のバスが十分に長いため、周波数エンジニアリングが必要になる。これを達成する 1 つの方法は、フィルタリング共振器を使用することであり、原理実証実験が参考文献で実証されている。
🖋考察🖋 実験室レベルを越えていないということである。そもそも、表面符号を最強王者たらしめた要因は、”最近傍相互作用しか考慮しない”という荒業であった。それを今更、反故にして、やっぱり長距離相互作用を考慮します、というアプローチが簡単な訳はない。
------- ❚注 釈❚ ---------- 
†19 言うまでもなく、BB 符号の検査演算子が、6量子ビットに作用することに由来している。
†20 超伝導量子ビットでCNOTゲートを作る場合、交差共鳴ゲートを使用することが標準的である。このことを鑑みると、コトの重大さが沁みる?

【5】付記 
(1) [*50]は、猫量子ビットを使ったqLDPC符号を作成したことを主張するAlice&Bob†21の公式ブログである(詳しくは24年2月6日にarXivにて公開された論文[*57]に書かれている)。Alice&Bobは、局所的な接続だけを使って猫量子ビットの2次元配列を作り、余分な長距離接続を持つ猫量子ビットの1次元配列と等価なものを得ている。これを、「猫を使えば、LDPC符号と局所的な接続性を持つ繰り返し符号を出し抜くことができるのだ!」と表現している。
(2) 2015年のレビュー論文[*56]には、qLDPC符号の開発に大きく貢献した研究者が上げられており、日本人の貢献も大きいことがわかる。具体的には、萩原学教授(千葉大←産総研)、藤原祐一郎助教(千葉大)、笠井健太准教授(東工大(現、東京科学大学))の名前が上がっている。
(3) 海外のあるニュース・サイト[*88](25年4月9日付け)に、IBMが示すロードマップ†22を支える技術要素(量子誤り訂正符号)として、グロス符号が取り上げられている。残念ながら、提灯記事の類と思われる。
------- ❚注 釈❚ ---------- 
†21 仏の量子ハードウェア開発スタートアップ。量子モダリティは超伝導であり、猫量子ビットに拘っている。
†22 2025年に量子演算速度と並列性を向上、27年までに回路の深さを1万ゲートまで増加、29年までに1億ゲートを実行可能な200個の論理量子ビットを備えた量子誤り訂正システムの提供。

Ⅸ AlphaQubitは、リバーレーンに勝てるか?
【0】はじめに
 量子誤り訂正の研究は、訂正符号方式の研究も解決していないが、研究の重心が徐々に、リアルタイム復号に移りつつあるように思われる。英国の量子ソフトウェア・スタートアップであるリバーレーンは、量子論理演算に対するリアルタイム復号という、深い結果を出している[*64]。ちなみに、仏Alice&Bob(モダリティは超伝導。ただし、猫量子ビットを使う)は、"ライブ復号"という文言を使っている。
 グーグル🐾1の研究者は、「トランスフォーマーを使った復号器AlphaQubitが、精度で、従来の復号器を上回った」と主張する論文[*65](以下、本論文)を発表した(24年11月20日@nature)。由緒正しい"Alpha"の名を承継しているとは言え、トランスフォーマーを含むニューラルネットワーク・ベースの復号器における困難さを払拭しきれていないため、成果に華々しさは感じられない。リバーレーンに唯一対抗できるのは、既にグーグルだけかもしれないが、有り体に言って、勝ち目は薄いように思われる。量子技術に関しては、グーグルは、やや迷走しているように感じる。
🐾1 グーグル・ディープマインド(英国)及びグーグルQuantum AI(米国)。
❚為参考❚
 スタンフォード大学人間中心AI研究所(HAI)は、2017年から毎年「AI Index Report」という調査報告書を公開している(2020年はコロナ禍のため、例外)。最新の2025年版第5章科学と医療[*90]に、「注目すべきモデル」という囲み記事がある。9個のモデルが紹介されているが、その内5個が、気象関連である。物理系は2つ。
 AlphaQubitは、次のように簡潔に紹介されている:2024年後半、Google DeepMindとGoogle Quantum AIは、最先端の量子誤り検出機能を備えたAIベースの復号器AlphaQubitを発表した。(その後、Willowについて言及されている。)

【1】本論文の主張
 本論文は、以下を主張する:
(1) 符号距離11までの回転表面符号(☞【3】(0))を用いた、量子メモリ実験(☞【2】(1)0⃣)における量子誤り復号で、AlphaQubitは、従来の復号器に比べて優れている。従来の復号器とは、テンソルネットワーク復号器、MWPM復号器(☞【2】(2))を指している。 優れているの意味は、量子誤り訂正ラウンド毎の論理誤り率(☞【4】(2))において優れている、ことを意味している。
(2) AlphaQubitは、学習データを超えたシナリオ(学習データの量子誤り訂正ラウンド数を越えたラウンド数)に、”汎化できる”ことが示された。
(3) 符号距離が長くなるにつれて、ニューラルネットワークに基づく復号器の学習は困難になる。従って、グラフベースの復号器🐾2は、今後も有力な候補であり続けるだろう。
🐾2 表面符号を含むトポロジカル符号では、量子ビットが、何らかのトポロジを持つ表面(平面)に配置される。このセットアップが、グラフ理論との親和性を生んでいる(と考えられる)。従って、「トポロジカル符号が有力である限り、グラス・ベースの復号器が有力であり続ける」と考えることは、合理的であろう。

【2】事前整理
(1) 誤り耐性量子計算における量子誤り訂正の俯瞰的クロニクル
0⃣ 全体図 
 誤り耐性量子計算を実現するには、論理量子演算(量子論理ゲート操作)の量子誤り訂正を実行する必要がある。これまで行われてきた「量子誤り訂正」研究のほとんどは、量子メモリ実験と呼ばれる。量子メモリ実験は、以下のように行われる:まず、論理量子ビットを密度演算子として符号化して、論理符号の初期状態を準備する。密度演算子に対して、複数のスタビライザー測定を行うことで、最終的な密度演算子が得られる。この最終状態に対して、正作用素値測度(POVM)測定を実行する。復号された論理結果が、論理符号の初期状態と一致している場合、成功とする。
 量子誤り訂正符号の議論には、1⃣しきい値、2⃣損益分岐点、3⃣スケーラビリティ、4⃣復号、があると認識されている(と思われる)。しかし、誤り耐性量子計算を射程に収めた議論では、さらに5⃣現実的なノイズの考慮、6⃣量子論理ゲート操作への量子誤り訂正、が必要である。従って、エンドツーエンドで量子誤り訂正符号を捉えた場合、ゴールは、まだ遠いと言えるだろう。

1⃣ しきい値
 しきい値とは、「符号化された情報を、任意にかつ適切に保護できる(量子)誤り率」のことである。誤り率が、しきい値以下で(復号が間に合えば)、量子誤りが蓄積することはなく、量子計算を任意の精度で実行することができる。量子コンピューターの黎明期には0.001%であったしきい値は、表面符号の登場によって、およそ1%にまで爆上がりした。ただし、このしきい値は、ノイズを脱分極ノイズと仮定している。さらに、実は、復号アルゴリズムとして「最小重み完全一致(MWPM)アルゴリズム」の使用が仮定されている(☞MWPMアルゴリズムは、4⃣参照)。
2⃣ 損益分岐点
 損益分岐点とは、論理量子ビットの誤り率が、物理量子ビットの誤り率を下回ることを意味する。量子メモリ実験では、損益分岐点は、いつの間にか”ぬるっと”越えている(ただし、超伝導量子ビットに限る)が、論理量子演算に対しては、越えていないと思われる。考慮されているノイズは、脱分極ノイズのみと思われる。
3⃣ スケーラビリティ
 量子誤り訂正符号におけるスケーラビリティとは、符号距離が伸びた場合に論理誤り率が低下するかを問う(低下し続ける必要はないので、正確に言えば、しきい値以下を維持し続ければ十分であろう)。当然、損益分岐点を越えていることが、要求される。表面符号及び猫符号において、スケーラビリティが確認されている。こちら及びこちらを参照。
※ 24年12月9日付けでnatureにて公開されたグーグルの論文[*A-21]は、ここに対処した論文。

4⃣ 復号
 暗号理論では、平文(ひらぶん)を暗号文にすることが暗号化であり、暗号文を平文に戻すことが復号である。平たく言えば、元に戻すことが復号である。量子誤り訂正の文脈では、「パリティ検査(あるいは、シンドローム測定とも呼ばれる)の結果を手がかりに、量子誤り状態を特定すること」を、復号と呼ぶ。量子誤りを含んだ状態=量子誤りがない状態(元の状態)+量子誤り状態、である。シンドローム測定で(シンドロームが0でなければ)、量子誤りを含んだ状態であることが分かり、量子誤り状態が分かれば、元の状態に戻すことができる。故に、復号である。
 量子誤り訂正をエンドツーエンドで考えた場合、復号はキモであるが、損益分岐点を超えるまでは、それどころではなかった、と言えるだろう。損益分岐点は、一応越えたので、復号の研究が増えている。復号は、速くないと意味がない(もちろん、正確性は前提)。復号器がデータを処理する速度(スループット)は、データの生成速度よりも高速である必要がある。これは、復号の各反復で増加するデータの「バックログ」による量子計算の指数関数的な速度低下(指数減速!)を回避するために必要である。すなわち、バックログが発生しないためには、素早く(リアルタイムに)復号を行う必要がある。
 復号アルゴリズムとしては、 MWPMアルゴリズムとunion-findアルゴリズム(☞【2】(4)2⃣)が主要なアルゴリズムとして知られている。MWPMとは、最小重み完全一致問題という二部グラフにおける最適化問題であり(☞(2)を参照)、この場合、復号問題はMWPM問題に変換されている。ただ、MWPMアルゴリズムは、遅い🐾3,❚追補1❚という欠点がある。そこで🐾4、ニューラルネットワークを使った復号器が提案された。有名なところでは、アルテミス・プロジェクトが上げられる(成果は?)。仏Alice&Bob(H/Wスタートアップ、超伝導方式)、イスラエルのQuantum Machines(S/Wスタートアップ)及び学術機関が主導する同プロジェクトは、強化学習ベースの量子制御アプローチを確立し、商業化することを目的としている。強化学習ベースではなく、畳み込みニューラルネットワークベースのアプローチ、再帰型ニューラルネットワーク(LSTM)ベースのアプローチなどが存在する。
 なお、リアルタイム復号と言えば、英スタートアップのリバーレーンが有名である。リバーレーンの復号アルゴリズム及びリアルタイム復号については、後述する(☞(4))。
🐾3 一般的には、量子ビット数nの多項式時間を要する。疎なケースでは、線形時間にまで短縮されている。疎とは、グラフの各頂点の隣接頂点数が少ないという意味であり、「量子誤りが、特定の部分に集中して発生することはない」と仮定することに相当する。
 なお、量子誤りが検出された物理量子ビット(データ量子ビット)を基準に考えた場合、当該量子ビットの数をℓとすると、MWPMは最悪の場合、O(ℓ3)の復号時間を要する。対してニューラルネットワーク・ベースの復号器は、O(poly(ℓ))とされる。
🐾4 富士通は、デジタル・アニーラ(古典イジングマシン)を使って、復号高速化を提案している[*66]。
❚追補1❚
 教科書的には、MWPMアルゴリズムは遅いが、十分に速いMWPMアルゴリズムが登場している。十分速いという意味は、復号遅延時間がシンドローム生成速度を越えない、という意味である。例としてグーグルが開発したSparse Blossom(23年3月)、米イェール大学が開発したMicro Blossom(25年2月)がある。こちらを参照。
 [*113]にはDGX Quantumを利用することで、復号におけるスループット要件を満たす見込みが立ち、復号器-制御器間通信遅延は3.8μ秒未満に抑えられる、ことが示されている。DGX Quantumは、米NVIDIAのGPUとイスラエルQuantum Machinesの制御器(コントローラー)を統合したプラットフォームで、論理回路オーケストレーションと復号プロセスをサポートする。スループット要件は、シンドローム・データの生成(速度)が、コントローラーと復号器間の通信帯域幅を超えない、という要件である。論理量子ビット2万、量子ビットあたり4ビットの状態表現(つまり表面符号を想定)、及び550ナノ秒のQECサイクル時間の場合、およそ150Gbpsの帯域幅が必要である(20000*4bit/(550×10-9s)=1.45×1011bit/s=145×109bit/s=145Gbps)。BlackwellアーキテクチャB200 GPUとPCIe 6.0インターフェースの利用で、128Gbpsまでは可能となる。2025年6月11日に正式リリースされ、利用可能になったPCIe 7.0は、最大512GBpsらしい(ので、スループットはボトルネックとはならないだろう)。

5⃣ 復号における現実的なノイズの考慮
 量子誤り訂正符号の研究では、ノイズとして脱分極ノイズ(が作用することによって発生する量子誤り)を仮定したものが、ほとんどである。量子誤り訂正符号の基礎を成すスタビライザー符号自体は、一般的なCPTP(completely-positive trace-preserving:完全正値トレース保存)写像で与えられるような量子ノイズ(クラウス・チャネル)であっても、問題なく訂正することができる。ただし、復号において、現実的なノイズ(が作用したことで発生する量子誤り)を考慮した研究は少ない。現実的という意味は、(a)や(b)ではなく(c)であることに注意:(a)脱分極ノイズに加えて、amplitudeーdampingノイズ(自然放出ノイズ)やdephasing(位相緩和)ノイズを考慮する、(b)リンドブラッド・モデル🐾5で与えられる量子誤りを考慮する、(c)非マルコフ過程に従う量子誤り(例えば、クロストーク誤り)や、リーケージ誤りを考慮する。
 リーケージ誤りは、「量子状態|0⟩や|1⟩を超える量子ビットへの遷移(励起)」である。ビット反転誤りや位相反転誤りは、|0⟩と|1⟩の間で起こる量子誤りであった。記号的に表現すれば、|0⟩や|1⟩が、|2⟩や|3⟩へ遷移することが、リーケージ誤りである。リーケージは、長寿命で移動可能である。クロストーク誤りは、長距離で複雑なイベントパターンを引き起こす量子ビット間の望ましくない相互作用に起因する誤りである。相関誤りの一種である。
 リーケージを考慮した復号に取り組んだ研究として、[*67]がある。本論文もリーケージに取り組んでいる。相関誤りに対処した研究として、[*61](下記6⃣参照)がある。
🐾5 量子誤りの影響で変化する量子状態を、時間発展方程式に従って遷移する量子状態と表現するモデル。この場合の時間発展方程式は、量子開放系の時間発展を記述するリンドブラッド方程式である(閉鎖系だとシュレーディンガー方程式である)。量子マスター方程式であるリンドブラッド方程式は、連続時間のマルコフ過程を前提としているから、リンドブラッドモデルは、非マルコフ過程に従う量子誤りは、守備範囲外(のはず)。

6⃣ 量子論理ゲート操作への量子誤り訂正
 格子手術を用いた論理量子ビット同士の演算に対する量子誤り訂正は、22年4月、日本のグループ🐾6により提案されている[*68]。復号アルゴリズムは、MWPMアルゴリズムである。他には、英ユニバーサル・クォンタム、米グーグル及び、英サセックス大学の研究者が、「トランスバーサル論理CNOTゲートによって拡散される、相関誤りに対処する復号器を開発した」という論文[*61]を発表している(24年7月30日@arXiv)🐾7。この研究も、 MWPMアルゴリズム(PyMatching)を使用している。
 MWPMなので、復号速度に難点があると思われる。本論文は、「量子論理ゲート操作への量子誤り訂正」にまでは、到達していない。本論文は『MWPMなどの確立された復号方式であっても、論理計算の復号はようやく検討され始めたばかりである』と書いている。英リバーレーンが行った新しいリアルタイム復号研究(24年10月8日@arXiv[*64])では、論理演算を対象に、高スループット・低レイテンシな復号を成功させている(☞(4)参照)。
🐾6 慶応義塾大学、NTT、名古屋大学、理化学研究所。
🐾7 主眼は、ハードウェア効率の高い量子誤り訂正の実現である。

(2) 最小重み完全一致問題 
  最小重み完全一致(Minimum Weight Perfect Matching:MWPM)問題自体は、グラフ理論における問題である。書き下すと、「各辺の重みが与えられている2部グラフに対して、重みの合計が最小になる、完全一致を求めよ」という問題である。2部グラフとは、「(グラフの)頂点から成る集合を、2つに分割した作った部分集合に属する頂点が、互いに隣接しないようにできる」グラフである。完全一致(完全マッチング)とは、全頂点が”マッチング”の辺の、いずれかの端点になっていることを言う。マッチングとは、「どの2辺も両端の頂点を共有しない」という条件で選んだ辺の集合を言う。
 MWPM問題に変換された復号問題は、最短経路を求めるという問題であり、使用される最適化アルゴリズムは、ダイクストラ法である。ダイクストラ法は、最適な飛行経路を探索する場合など、広く使用されている最適化アルゴリズムで、フィボナッチ・ヒープ優先キューを使用したダイクストラ法より「高速な量子アルゴリズムは、これまで見つかっていない」。MWPM問題を解くことで、復号を行うアルゴリズムを、MWPMアルゴリズムと呼ぶ。MWPMアルゴリズムは、以下のように機能する。
 (スタビライザー符号に言葉を拡げても大丈夫だと思われるが、)表面符号においては、補助量子ビットによるシンドローム測定によって、連続した量子誤りの端点候補の位置が推定できる。それらの端点候補を頂点とし、各頂点間の距離を”重み”とする辺を持つグラフを考える。このグラフ上で MWPM問題を解くことは、重み=距離の合計が最小になるように端点候補同士を重複なく結ぶ(辺の集合を求める)ことに相当する。これにより、短距離相互作用に基づいた量子誤り(のみ)が発生している、という仮定の下(つまり、重み=距離最小という拘束条件下)で、量子誤りの発生位置を推定することができる。すなわち復号することができる。
 なおMWPMアルゴリズムは、「格子内の量子ビット間の局所的な相互作用を活用する」ため、表面符号に特に適しているとされている。長距離に及ぶ、リーケージ誤りやクロストーク誤りは、当然、MWPMアルゴリズムの対象範囲外である。

(3) ニューラルネットワーク・ベースの復号器
0⃣ 俯瞰図的な・・・ 
 前出のMWPMアルゴリズム(ただし、プレーンなMWPMアルゴリズム)は、復号アルゴリズムとして有名・有力であるが『長距離に及ぶ、リーケージ誤りやクロストーク誤り』には対応できない。厳しい言い方をすれば、実機のノイズに対応できない(ので、プレーンなMWPMアルゴリズムは、実際には使えない可能性が高い)。また、処理速度が遅い(これは、プレーンなMWPMアルゴリズムに限定されないだろう)。
 そのような背景の下、ニューラルネットワーク・ベースの復号アルゴリズムが登場した。ニューラル ネットワーク・ベースの復号器は、量子ハードウェアに固有の、かつ生の量子誤りを学習することができるため、実機のノイズに対応できると考えられている。これまで、「再帰型ニューラルネットワークベースの、あるいはLTSMベースの復号器」、「強化学習ベースの復号器」、「畳み込みニューラルネットワーク・ベースの復号器」などが提案されている。なお、本稿でも、豪メルボルン大学他の研究者によるニューラルネットワークベース復号器に関する研究をappendixで取り上げている(こちらを参照)。
 本論文が提案するAlphaQubitのモデル・アーキテクチャは、(マルチヘッド自己注意機構を備えた、)再帰型トランスフォーマーである。
1⃣ 注意機構 
 トランスフォーマーの注意機構により、すべてのスタビライザー・ペア間での情報交換が可能になる。この注意機構は、復号中に(長距離の可能性がある)相関を捕捉するのに役立つ。ただ、スタビライザー間の関係は一定であるため、スタビライザー i と j 間の注意を調整する注意バイアスを学習する。注意バイアスは、スタビライザー・ペア i、j 毎に、i と j の関数として学習された埋め込みを構築することにより、スタビライザーのレイアウトと接続性に関する固定情報を埋め込む。
 これらの学習された埋め込みは、その後、独立して残差ネットワークに渡され、最終的な埋め込みを形成する。
2⃣ 長距離相互作用の捕捉 
 各トランスフォーマー層について、まずスタビライザー表現を (d + 1) × (d + 1) グリッドの 2 次元空間レイアウトに分散させた後、3 つの拡張畳み込みを適用する。スタビライザーの相対的な位置に依存する長距離の相互作用は、拡張畳み込みによって部分的にサポートされている。

(4) リバーレーンのリアルタイム復号 
1⃣ リアルタイム復号について・振り返り 
 ここで少し、リバーレーン他による論文[*64]で、リアルタイム復号を振り返る:リアルタイム復号は、トラップイオン、超伝導、および中性原子という量子モダリティに対して、既に実証されている。ただし、これらは、ルックアップテーブル復号器を使用している。ルックアップテーブル復号器のメモリ要件は、量子誤り訂正符号内の量子ビット数に応じて指数関数的に増加する。つまり、同アプローチは、実用的な誤り耐性には適していない(一方で、下記2⃣に示すリバーレーンのアプローチは、メモリ効率が高い、とリバーレーンは主張する)。
 さらに[*69]は、グーグルの成果に言及している:最近、グーグルのチームは、54 量子ビットを使用して、符号距離5の量子メモリ実験のリアルタイム復号を実証した(この研究は、本稿では、[*A-18]として引用している)。この実験では、測定データは、制御システムからソフトウェア復号器にイーサネットケーブル経由で送信される。グーグルは、復号器を並列化することでバックログ問題(☞【2】(1)4⃣)を回避し、高いスループット🐾8を実証している。
 ただし、「リバーレーンの研究[*64]とグーグルの研究とで条件が大きく異なるため、直接比較することはお勧めしない」が結論として、グーグルの実験では、復号速度が遅くて実用的ではない、とリバーレーンは主張している。
🐾8 復号器がデータを処理する速度。

2⃣ 衝突クラスタリング・アルゴリズム[*69] 
 リバーレーンの復号アルゴリズムは、衝突クラスタリング(CC)アルゴリズムと呼ばれている。CCアルゴリズムは、メモリ効率を改善したUnion-Find復号アルゴリズムの改良型と考えられる。復号アルゴリズムとしての本質的な優秀さは、Union-Find復号アルゴリズムから継承されている。復号アルゴリズム界の東の横綱であるMWPMアルゴリズムの復号時間は、量子ビット数の多項式時間である。一方、西の横綱であるUnion-Findアルゴリズムは、ほぼ線形時間である。
 Union-Find復号アルゴリズムの特徴は、(全ての)量子誤りを「消失量子誤り」に変換した上で、復号を行うことである。消失量子誤り(本稿では、こちらを参照)に対する量子誤り訂正を指向している量子コンピューター開発スタートアップには、米Quantum Circuit(モダリティは超伝導)が存在する。スタートアップではないが、AWSも消失量子誤りを指向している。消失量子誤りは、量子ビットの損失やリーケージ誤りを表し、位置情報を持つランダム・パウリ誤りと同等である。この追加情報(位置情報)により、理論的にはランダム・パウリ誤りよりも復号が容易になる。
 Union-Find復号アルゴリズムでは、シンドローム測定値が非零(すなわち、量子誤りが発生したというフラグが立った)の量子ビットを、クラスタリングする。 シンドローム測定値が非零の量子ビット(の位置)はシンドローム頂点と呼ばれる。シンドローム頂点の集合(クラスター)は、トポロジカル符号(実際には、表面符号)で符号化された量子ビット達で構成するグラフの頂点から分離された集合である。クラスタは各シンドローム頂点から反復的に成長し、偶数個のシンドローム頂点をサポートするまで互いにマージされ、その時点で成長が停止する。このクラスタは、特徴的なデータ構造(Union-Find)をもち、このデータ構造を利用することで、高速な探索が可能になるとされる。
 CCアルゴリズムでは、クラスターをマージするようである。そうすることで、メモリ効率を上げることができる(らしい)。

【3】AlphaQubitの詳細 
(0) そもそも論というか、改めての整理 
1⃣ アーキテクチャ 
 AlphaQubitのモデル・アーキテクチャは、再帰型トランスフォーマーである。”再帰型”であることは、機械学習寄りの言葉を使うと、汎化性能を高める意味で重要である。
 復号器を学習する場合、利用可能な事前学習および再学習データは、限られた範囲の量子誤り訂正ラウンド数のみをカバーする。しかし”実用的な復号器”は、より長いラウンド数でも同様に優れた性能を発揮する必要がある。AlphaQubit は、その再帰構造により、学習された量子誤り訂正ラウンド数を超えて性能を維持できる。
2⃣ セットアップ 
 量子誤り訂正符号は、回転表面符号❚補足1❚である。量子メモリ実験に対して、復号器の性能を比較検証する。比較相手は【4】(1)を参照。

❚ 補足1╏ 回転表面符号 ❚
 表面符号では、量子ビットは2次元平面上に、格子状に配置される。回転表面符号を、最もプリミティブに説明すると、非回転表面符号(平面表面符号)を45°回転させたものである。実際にそうなのであるが、これでは、流石に不親切過ぎる。普通の平面(英語ではplanar)表面符号では、データ量子ビットとスタビライザー測定用の補助量子ビットが、千鳥状(スタッガード)に配置される。これを45°回転させると、四辺形の4つの頂点全てが、測定用補助量子ビットという配置になる。結局、だからなんだ?という話であるが、こうすること(45°回転させること)で、ハードウェア効率が良くなる。つまりは、量子誤り訂正符号(実際は、表面符号)に必要な物理量子ビット数が少なくて済む。
 具体的かつ定量的に表すと、回転表面符号で必要な、データ量子ビット数はd2である[*70]。もちろん、dは符号距離である。補助量子ビット数は、d2-1である。対して、非回転表面符号では、データ量子ビット数は2(d2-d)+1、 補助量子ビット数は2(d2-d)である。合計すると、回転表面符号は2d2-1、 非回転表面符号は、4(d2-d)+1となる。両者の比は、d→∞で、[4(d2-d)+1]/[2d2-1]≃2(1-1/d)→2となる。つまり、ハードウェア効率が2倍になる。実際には、無限大まで行かなくても、d=11で1.8倍程度になる。
 もっとも、この議論は、回転する前と回転した後で、論理誤り率が変わらないという前提下で行っている。実際は、そうではないらしい(し、[*70]では、その点を踏まえた議論がなされているが、ここでは割愛)。

(1) AlphaQubitの概要 
0⃣ 学習環境 
 AlphaQubitは、JAX、Haiku、および JAXline機械学習フレームワークを使用して実装および学習されている。
1⃣ どのように学習するか 
㈠ 事前学習+再学習 
 AlphaQubitの学習は、事前学習+再学習という2段階で行う。事前学習は、実験データ+実験データとの類似度が異なる”3 種類のシミュレーション・データ”のいずれか、で実施する(☞具体的なデータについては、下記(2)を参照)。実験データでは、学習(モデルが十分な性能を発揮するの)に十分ではないからである。再学習では、デバイスからの限られた量のサンプルで学習することにより、事前学習モデルを、特定の物理デバイス用に最適化する。
 3種類の事前学習全てにおいて、ノイズ・カリキュラムを使用した。
㈡ ノイズ・カリキュラム 
 AlphaQubitは、カリキュラム学習を採用している。ノイズ・カリキュラムとは、「学習の開始時にノイズ強度の低いデータを示し、学習プロセス中にノイズ強度の高いデータに継続的に移行する」というカリキュラム学習である。このノイズ・カリキュラムにより学習が安定し、最終的にわずかに精度が向上する。
㈢ アンサンブル学習 
 AlphaQubitは、アンサンブル学習を採用している。一般論として、複数の分類器を組み合わせたアンサンブル学習によって、より正確な予測を得ることができる。モデルは独立して並列に実行できるため、アンサンブルによって計算速度は変わらない。ただし、より多くの計算リソースが必要になる。シカモア実験とスケーリング実験(☞下記(2)参照)の両方に、複数モデルのアンサンブルを適用する。
 複数モデルを同一のハイパーパラメータで学習するが、異なるランダム・シードによって異なるパラメータ初期化と異なるサンプル・シーケンスで学習が行われる。シカモア実験には20個のシードを使用し、スケーリング実験には 15 個のシードを使用する。シード間には精度の範囲があるため、検証セットの性能が最も優れたモデルのみをアンサンブルすることで、より高い性能を実現できる可能性がある。しかし、本論文では、学習されたすべてのモデルをアンサンブルした。

2⃣ ハイパーパラメータ🐾9 
 凡例:⓵シカモア実験、⓶スケーリング実験 (☞⓵については下記(2)を、⓶ついては下記(3)を参照)
㈠ オプティマイザー
 手法・・・⓵LAMB(Layer-wise Adaptive Moments optimizer for Batch trainin)、⓶Lion
 重み減衰・・・⓵10-5、⓶10-7
 再学習重み減衰・・・⓵0.08、⓶ー
 初期バッチサイズ・・・⓵256、⓶256
 最終バッチサイズ・・・⓵1024、⓶1024
 バッチサイズ変化ステップ・・・⓵4×106、⓶2~7.3×108
 学習率減衰係数・・・⓵0.7/ステップ、⓶一律0.1
 学習率スケジューリング・・・⓵10万ステップ毎に0.8→2→4→10→20、⓶コサイン関数
 次のスタビライザーの予測❚補足2❚に対する損失重み・・・⓵0.02、⓶0.01
 事前学習の学習率・・・
  ⓵符号距離3→3.46×10-4、符号距離5→2.45×10-4
  ⓶符号距離3→7×10-4、符号距離5→6×10-4、符号距離7→5×10-4、符号距離9→4×10-4、符号距離11→3×10-4
 再学習の学習率・・・
  ⓵符号距離3→3.46×10-4、符号距離5→2.45×10-4
  ⓶学習セットサイズが105まで→3×10-3、106まで→5×10-3、107まで→8×10-3、108まで→1×10-2
❚ 補足2 ❚ 
 本題の機械学習タスク(メイン・タスク)に必要な予測以外の予測(補助タスク)を行うように、ニューラル ネットワークを学習すると、学習が改善されたり、メイン・タスクの性能が向上することがある。本論文では、ネットワークに対して、次のスタビライザーの予測を行うように求めた。この補助タスクによって性能が、わずかに低下するものの、学習がわずかに高速化される。
㈡ トランスフォーマー
 層数・・・⓵3、⓶3
 スタビライザー毎の次元数・・・⓵320、⓶256
 ヘッド数・・・⓵4、⓶4
 キー・サイズ・・・⓵32、⓶32
 畳み込み層数・・・⓵3、⓶3
 畳み込み次元・・・⓵160、⓶128
🐾9 Extended Data Fig. 8: Network and training hyperparameters.、https://www.nature.com/articles/s41586-024-08148-8/figures/14

(2) 学習データセット 
1⃣ 事前学習 
 シカモア実験データ+シミュレーション・データで事前学習を行った。実験データでは、学習モデルに十分な性能を達成させるには、データ量が足りない。このため、シミュレーション・データで補っている。
㈠  シカモア実験データ 
 シカモアとは、グーグルの超伝導方式量子コンピューター(量子ビット数は49)である。シカモア実験データとは、シカモア表面符号実験に付随する公開データセットで、シカモアの量子プロセッサという”実機”のノイズを反映した「量子誤り」データセットを意味する。
 シカモア実験は、符号距離3と5の表面符合に対するX 基底メモリ実験と Z 基底メモリ実験の両方で構成されている。3 × 3符号ブロックは、 シカモア・チップ上の 4 つの別々の場所で実行され、5 × 5符号ブロックは、1 つの場所で実行された。合計ラウンド数 n ∈ {1,3,・・・,25}ごとに 5 万回の実験が実行された。合計で5万ショット × 13 ラウンド× 2 ベース × 5 エリア = 6.5 × 106ショットが記録されたことを意味する。結果のデータは 2分割交差検証のために、偶数と奇数の部分集合に分割された。
㈡ シミュレーション・データ0 
 シミュレーション・データは、3種類存在する。検出器誤りノイズ・モデル(DEM)を用いたシミュレーション・データが2種類と、回路レベルの脱分極ノイズ・モデルを用いたシミュレーション・データが1種類である。DEMを用いたシミュレーション・データは、最大20億のサンプルで事前学習が行われる。最大という意味は、早期停止を行うことを示唆している。つまり学習ステップ全体で、検証データセットを使って、最小のLER(☞【4】(2)参照)を生成するモデル・パラメーターを選択する。このため、20 億の学習 サンプルを使用する前に、学習は停止される。
 脱分極ノイズ・モデルを用いたシミュレーション・データ(SI1000ノイズ)は、最大 5 億のサンプルで事前学習が行われる。SI1000 事前学習では、長さ {1、3、…、25} のラウンドをシミュレートする代わりに、常に長さ 25のラウンドをシミュレートし、各ラウンドで中間測定値を補助ラベルとして使用する。
㈢ シミュレーション・データ1 
 DEMを用いたシミュレーション・データは、㊀検出誤りイベント相関法(pij法)を使って、実験データセットに適合するデータを、以前に公開されているDEMデータから選択する。もしくは、㊁交差エントロピー・ ベンチマーク(XEB)から取得された、デバイス・キャリブレーション・データに基づいて、ハードウェアで発生するノイズを近似するパウリ・ノイズ・モデルから導出された重みを使用して、生成する。㊁のシミュレーション・データは、 オープンソース・プログラムであるStim🐾10を使って生成された。
🐾10 この文脈では、量子誤り訂正用のシミュレーション・データを生成しているが、Stimは、あくまでクリフォード回路のシミュレータであることに注意。
㈣ シミュレーション・データ2 
 SI1000ノイズは、超伝導回路における、さまざまな回路プロセスの相対的なノイズを近似する。SIとは、超伝導(Superconducting)に着想を得た(Inspired)という意味である。1000は、ラウンド持続時間が1,000ナノ秒(1マイクロ秒)であることを意味している。
 脱分極ノイズ・モデルのノイズ・パラメータpは、以下のように設定されている:測定は超伝導回路における主要な量子誤りの原因であるため、(パウリZ及びパウリZ)測定ノイズは、ノイズ パラメーターp に対して、重み 5p を持つ。対照的に、1量子ビット・クリフォード・ゲートとアイドル状態(脱分極ノイズ)は、わずかな量のノイズしか発生させないため、それらの重みは p/10である。リセットは2p、共振器アイドル状態は2p、2量子ビット・クリフォード・ゲート(脱分極ノイズ)はpである。

2⃣ 再学習 
 実験データの半分 (DEM 事前学習済みの場合、常に DEM ファイルの導出に使用される半分) を使用してモデルを再学習する。このデータの半分をさらに分割し、最初の 19,880 サンプルを学習データセットとして使用し、残りの 5,120 サンプルを早期停止用の開発データセットとして使用し、最適な LER を与えるパラメーターを維持する(最大 30,000 学習ステップ)。
 最終モデルは、実験データの残りの半分 (学習や早期停止に使用されない 25,000 の保留サンプル) で評価される。最適な検証 LER は、データを約 120 回通過した後に見つかる。

(3) リーケージ誤りの考慮 
1⃣ 事前学習 
㈠ 符号距離3及び5のケース 
  Stim を使用して生成された SI1000 データには、次のようにして、リーケージを考慮する。まず、量子ビットを 0.275% の確率でランダムにリークされた |2⟩状態に設定し、次に I/Q ノイズ🐾11を追加する。ここでは、リーケージを測定中にのみ発生する効果として扱う。
🐾11 超伝導量子ビットの場合、測定値は、散乱されたマイクロ波パルスの振幅と位相として出力される。出力された振幅と位相は、同相(I)および直交(Q)振幅(I,Q)で表される。このI及びQに含まれるノイズをI/Qノイズと言う。
㈡ 符号距離が5を超えるケース 
 符号距離が5を超えるケースを、スケーリング実験と呼んでいる。スケーリング実験では、リーケージは、パウリ+シミュレータを使ったシミュレーションにより考慮されている。パウリ+シミュレーションでは、リーケージは、量子ゲートの適用中に現実的にモデル化された効果によって発生し、それに応じて広がる。
 その結果、パウリ+データでは、たとえばスタビライザー量子ビットとデータ量子ビット間のリーク量が大きく変化するが、これは事前学習中に無視する効果である。それでも、モデルに、この非常に簡略化されたバージョンのリーケージを提供すると、復号器が入力としてリーケージ情報を期待するように準備するのに役立つ。

2⃣ 再学習ー符号距離が5を超えるケース 
 再学習では、15 種類のシードを使用して、パウリ+シミュレータのサンプルを使用してモデルを学習した。ソフト情報入力(☞🐾13を参照)またはハード情報入力(☞🐾14を参照)のいずれかを使用して学習し、スタビライザー測定でリーケージが発生する可能性は約 0.1%、I/Q ハイパーパラメーターは SNR(信号雑音比) = 10、t = 0.01である。次のスタビライザーを予測する補助タスク(☞❚ 補足2 ❚を参照)を使用したが、中間ラベルは使用しなかった。これは、現実的なシナリオでは使用できないためである。モデルは最大 10 エポックにわたって学習された。再学習終了後、交差エントロピー損失が最も低いモデルパラメーターが選択された。

(4) 損失 
 二値ターゲットを持つ交差エントロピーを使用してモデルを学習した。スケーリング実験では、各実験期間の各論理観測値にラベルが付けられているため、これらすべての損失が平均化された。補助損失として、すべてのラウンドとすべてのスタビライザーにわたって平均化された「次のスタビライザー予測(☞❚ 補足2 ❚を参照)」交差エントロピー損失を使用し、量子誤り予測損失に対して重み付けを下げた 。
 確率的勾配降下法を使用して損失を最小限に抑える。シカモア実験データセットには Lambオプティマイザーを、スケーリング実験データセットには Lionオプティマイザーを使用する。バッチサイズは、事前学習中に 1 回 (256 から 1,024 に) 増加し、再学習中は 1,024 に維持された。
 シカモア実験の学習率は、最初の 10,000 ステップの線形ウォームアップ後、指定されたステップ数で係数 0.7 で減少する。スケーリング実験では、コサイン学習率スケジュールを使用した。

【4】検証 
(1) 比較対象 
1⃣ シカモア実験×符号距離3及び、2⃣シカモア実験×符号距離5 
 AlphaQubitの比較対象とされた復号アルゴリズムは、以下に示す❶~➍の4つである:❶「精度は高い(これまで報告されている中で、最も正確な復号器である)ものの、実用的ではないほど遅い」テンソルネットワーク復号器。❷信念伝播法🐾12とMWPMを組み合わせた、信念伝播マッチング(MWPM-BP)復号器。❸「十分速くて、正確な」MWPM相関復号器。さらに、➍PyMatching。
 オリジナルのMWPMアルゴリズムは、短距離相互作用に基づく量子誤りにしか対応できないので、相関誤りには対応できない。❷及び❸は、相関エラーに対応できるようにオリジナルのMWPMアルゴリズムが拡張されている。❷は、回路レベルのノイズモデルを完全に考慮する。一方❸は、相関エッジの各ペアを個別に考慮し、オリジナルのMWPMアルゴリズムから得られる解に近いエッジの重みのみを更新する。このため、❷の方が復号性能が高いとされる[*71]。➍は、かませ犬的な存在。
 ちなみに❶と❷は、Google(Quantum AI)の研究者による「量子誤り訂正の性能が量子ビット数の増加とともに向上することを実験的に示した」と主張する論文[*16](こちらを参照)において、採用された復号アリゴリズムでもある。
🐾12 信念伝播=Belief Propagation(BP)である。確率伝搬法とも言う。確率推論のための近似アルゴリズムの一つ。
3⃣ シミュレーションデータ×長い符号距離(11まで) 
 AlphaQubitの比較対象とされた復号アルゴリズムは、❸及び、LSTM(Long Short Term Memory)ベースの復号器である。ちなみに、符号距離11の場合、物理量子ビット数は、112+112-1=241である。
4⃣ ”汎化性能”の比較 
 AlphaQubitの比較対象とされた復号アルゴリズムは、❸及び➍である。

(2) 評価指標 
 評価指標は、量子誤り訂正ラウンド毎の論理誤り率(Logical Error per Round:LER)である。これは、量子誤り訂正ラウンドごとに復号化器が失敗する実験の割合であり、復号器の性能を測る標準的な指標である。本論文では、LERをεで表している。スタビライザー測定ラウンドnでの復号器誤り率をE(n)とすると、εはE(1)と等しい。ただし、本論文においてεは、(対数)忠実度の線形回帰によって同定されている。

(3) 比較結果 
 AlphaQubitの結果を⓪と表記した。
1⃣ シカモア実験データ×符号距離3のケース 
 ⓪2.901±0.023%、❶3.028±0.023%、❷3.117±0.024%、❸3.498±0.025%、➍4.015±0.031%
 つまり、AlphaQubitは、他の復号器より優れている。
2⃣ シカモア実験データ×符号距離5のケース 
 ⓪2.748±0.015%、❶2.915±0.016%、❷3.059±0.014%、❸3.597±0.015%、➍4.356±0.019%
 つまり、AlphaQubitは、他の復号器より優れている。
3⃣ シミュレーション・データ×長い符号距離(3~11)における結果 
 まず、サマリー的に述べる:AlphaQubitは、符号距離11まで、その優位性を維持する。以下で、細かく述べている。
 ソフト情報🐾13で拡張されたAlphaQubitは、符号距離11 までのすべての範囲で最高精度を達成し、ソフト情報で拡張された❸を上回る。距離 3 では、ソフト情報で拡張された ❸のLER は AlphaQubitのLER より 1.25 倍大きく、距離 9 では 1.4 倍、距離 11 では 1.25 倍大きくなる。また、LSTM は、符号距離7 までスケールアップするが、モデル・パラメーター数が、AlphaQubitのパラメータ数(すべての符号距離で540 万)と比較して大幅に多い(2 億)にもかかわらず、距離 11 までスケールアップしない。
 比較のために、ハード情報🐾14でもモデルがテストされた。当然、AlphaQubit及び❸の、どちらの復号器も(ソフト情報入力に比べて)性能は劣っているものの、AlphaQubitは❸よりも優れている。定量的に述べると、距離 11では ❸のLER ≈ 1.2 × 10−5に対して、AlphaQubit は9 × 10−6である。
🐾13 ノイズ測定の結果には、例えば「連続的な電流値や離散的な光子数」といった、付加的な・より豊富な情報を得ることができる。それらの情報を総称してソフト情報と呼ぶ。ソフト=ゆるい、というイメージ。復号器の入力にソフト情報を含めると、ハード情報(下記🐾14)のみを使った復号器よりも性能が高い、とされる[*72]。
🐾14 ソフト情報とは対照的に、ノイズ測定の結果を2値化した情報、という意味である。ハード=厳しい(厳格)、というイメージ。
4⃣ ”汎化性能”の比較 
 AlphaQubitと❸との差は、ラウンド数が104までは、それほど変わらない。それ以降、徐々に差が生じる。本論文では、10万ラウンドまでは、AlphaQubitは使える、と評価しているようである。➍は、103以前で、すでに対応出来ていない。

【5】考察
(0) 表面符号を含むトポロジカル符号は、グラフ理論と親和性が高い。このため、一見、トランスフォーマーよりも グラフベースのニューラルネットワーク(GNN)が、アーキテクチャとして適している気がする。長距離相互作用に基づく量子誤りの復号も、メッセージ・パッシングで対処できる(はず)。しかし、GNNでは、速度が遅いのかもしれない(→学習は遅く、スケーラビリティに問題あり。一方、推論は速い🐾17)。
🐾17 GNN復号器について、下記の❚ちょい足し❚(2)3⃣を参照。

(1) AlphaQubitが、他の復号アルゴリズムよりも(汎化性能を含む)性能が高い理由は、(a)再帰型のアーキテクチャ、(b)トランスフォーマーというアーキテクチャ、(c)事前学習+再学習という枠組み、(d)カリキュラム学習、(e)適当な学習データを十分に準備した、ことにあるだろう。
 ただ現状、復号速度で、リバーレーンに負けている。復号速度に関しては、下記(2)に示すように、決着は付いていないかもしれない。しかし、「符号距離が長くなるにつれて、ニューラルネットワークに基づく復号器の学習は困難になる」という性質を鑑みると、リバーレーンに勝つのは難しそうに思える。また既述した通り、リバーレーンは、量子論理演算に対しても、結果を既に残している(これに関する対抗策候補は、☞(3)へ)。
 なお、量子誤り訂正の出口たる復号で、Union-Findアルゴリズムを採用すると仮定すれば、量子ビットは消失量子ビットとする方が理に適う。現状、消失量子ビットは中性原子と超伝導で実現されている。

(2) グーグルは、「AlphaQubitで、復号速度を速める努力は、何もしていない」。そして「大幅に高速化できると確信している」、と本論文に書いている。曰く、「達成可能な精度を確立した後、推論速度(今の場合、復号速度)に合わせて、アーキテクチャとハイパーパラメータを最適化すると、その精度を維持しながら大幅な向上が得られる”可能性がある”」とする。
 具体的には、以下のような打ち手を上げている。
❑ 並列処理とパイプライン処理を改善すると、スループットが向上することが期待される。➡その代償として、レイテンシ🐾15が大きくなる可能性がある。
❑ 高速コンポーネントを使用すると、注意をスタビライザー・ペアの部分集合に制限することで、速度が向上する”可能性がある”。
❑ 特定のハードウェア アクセラレータ設計を最適化し、メモリ・アクセスのボトルネックを解消するカスタム実装によっても、特定のアーキテクチャの速度を向上させることができる🐾16
❑ 知識蒸留や注意トランスファー、低精度の計算、重みと活性化の枝刈りなどの手法を適用することで、より少ない計算で同様の性能を達成できる。
❑ 原理的には、マッチング復号問題を極めて並列に分解することで、無制限のスループットを実現できる。同様のアイデアが機械学習復号器にも適用できると期待している。
🐾15 最終ラウンドのスタビライザーを受け取った後に最終回答を出すのに必要な時間。
🐾16 リバーレーンもFPGAにCCアルゴリズムを実装することで、復号速度の高速化を実現している。

(3) 量子論理演算への拡張 
 掲題については、以下のような対抗策候補を提示している:1 つの可能なアプローチは、誤り耐性量子回路のさまざまな構成要素を実装するために、個別のネットワーク コンポーネントを学習することである。

❚ちょい足し1❚ 復号・AI49C 
━はじめに━ 
 米NVIDIA等🐾18の研究者は、「最先端のAI技術が、有用な量子コンピューティングの開発に必要な課題を、どのように前進させているか」を検証した論文(以下、本論文[*117])を発表した(25年12月2日@nature communications)。本論文の範囲は広いが、ここでは、量子誤り訂正における復号に限定して、簡単にまとめた。
🐾18 英オックスフォード大学、加トロント大学、加ベクター研究所、英クオンタム・モーション(量子H/Wスタートアップ。モダリティ:シリコンスピン)、加ウォータールー大学、加ぺリメーター理論物理学研究所、仏キュービット・ファーマシューティカル(量子S/Wスタートアップ)、仏クアンデアラ(量子H/Wスタートアップ。モダリティ:光)、米NASAエイムズ研究センター、米カリフォルニア大学ロサンゼルス校

━量子誤り訂正における復号━ 
(1)  課題の羅列 
 量子誤り訂正における復号処理には、様々な課題が存在する:
❶ 量子誤りのバック・ログを防ぐのに十分な速度で、復号を実行する必要がある。
❷ 復号器は、ハードウェア量子ビット・アーキテクチャ全体にわたって、多くの量子誤りパターンを訂正する能力を維持する必要がある(ノイズ・モデルはアーキテクチャに依存する)。
❸ 復号器を実行する古典ハードウェアと量子演算処理プロセッサ間の接続には、極めて低い遅延性が求められる(量子ビット数が増加するにつれて、低遅延性の要件はさらに厳しくなる)。
➍ 復号器は多くの場合(ノイズ・モデルとして)脱分極ノイズを仮定している。実際には、より複雑なノイズを考慮すべきである。その考慮によって、実用的な復号器は、大幅な性能低下を招く。
❺ 格子手術等によって実装される、誤り耐性論理演算は、復号器により厳しい要件を課す。

(2) 解決策
0⃣ 歴史 
 課題(☞(1))を解決する手がかりとして、AIが期待されている。少なくとも、特定のノイズモデルを仮定する必要はない。量子ハードウェアに固有の、かつ生の量子誤りを学習することができるため、実機のノイズに対応できると考えられている。従前の復号器よりも、復号精度と速度で勝れば、AI復号器に軍配があがることになるだろう。
 歴史を振り返ると、使用されるAIモデル・アーキテクチャは、ボルツマン・マシンから始まったらしい。その後、CNN(畳み込みニューラルネットワーク)、LSTM(Lomg Short Term Memory)、トランスフォーマー、GNN(グラフ・ニューラルネットワーク)と移行している。それとは別軸で、強化学習による復号アプローチも存在する。
1⃣ ニューラルネットワーク 
㈠ LSTM・・・ビット反転誤りと位相反転誤り間の相関を捉えることで、従来のMWPM(最小重み完全一致)復号器よりも優れた性能を発揮する。(ノイズモデルを必要とせずに物理システムに適応し)複数の量子誤り訂正サイクルにわたって性能を維持する。
㈡ トランスフォーマー・・・トランスフォーマーは自己注意機構を活用することで、長距離にわたる量子誤り間の相関を効果的に捕捉し、高い復号精度を達成する、とされる。2023年11月@arXivに初めて、アテンション・ベースのトランスフォーマー復号器が発表された([*118]🐾19)。MWPM復号器とUnion Find復号器の論理誤り率を下回った。グーグルが24年11月@natureに発表したAlphaQubitは、(マルチヘッド自己注意機構を備えた)リカレント・ベースのトランスフォーマー復号器であった。
🐾19 米MIT、カーネギーメロン大学、イェール大学、アリゾナ州立大学、テキサス大学オースティン校の研究者による。
2⃣ 強化学習 
 強化学習(RL)エージェントは、量子システムからのリアルタイム・フィードバックに基づいて量子誤り訂正戦略を適応するように学習でき、状況の変化に応じてプロトコルを最適化する。本論文では紹介されていないが、一番有名なところでは、グーグルによる次の結果だろう。「強化学習を活用したニューラルネットワーク型の復号器+符号距離7の表面符号の論理誤り率は、同復号器+符号距離5の表面符号の論理誤り率に比べて、半分未満になった」[*A-21]。
3⃣ GNN 
 GNN に関しては、次のような記述がある(本稿では、箇条書き形式に整理した)。
❑ GNNの学習は煩雑🐾20だが、推論は効率的で線形にスケールする。このためGNN復号器は、実用的な量子誤り訂正において、「高速、高精度かつノイズモデル・フリー」復号に大きな可能性を秘めている。
❑ GNN復号器は、表面符号のみならず、量子低密度パリティ検査(qLDPC)符号においても有用である。従来の信念伝播法や順序統計量事後処理ステップ復号法よりも優れた性能を発揮している。
❑ GNN復号器は、低距離符号で学習したモデルを用いて高距離符号を復号できるという、転移学習特性も示している。
🐾20 GNNは、量子ビット数が増加するにつれて、グラフ表現とGNNモデルの複雑さが急速に増大する。これはメモリのボトルネックや学習時間の増加につながり、大規模量子システムへの拡張が困難になる。また、大規模で多様なデータセットを必要とする。このようなデータセットの生成は(量子システムを古典的にシミュレーションする場合は特に)、計算コストがかかる。

(3) 課題 
 AIベースの復号器は成功を収めているものの、独自の課題を抱えている。
❑ 符号距離を拡張🐾21するために必要な学習データが膨大|追補2|
❑ 大規模学習データ問題↑の緩和策はあるが、その場合、別の課題|追補3|が生じる
🐾21 (実用的な量子アルゴリズムを実行できる)誤り耐性量子コンピュータには、13~30の符号距離が必要らしい。
|追補2|
 AlphaQubit復号器は、距離9の表面符号で20億個(2×109個)の学習データを使用することで、MWPM(最小重み完全一致)よりも優れた性能を発揮した。符号距離11でMWPMよりも優れた性能を維持するには、1010個の学習データが必要だった(文献166の図3を参照)。著者らはさらに、距離25の表面符号では1013~1014個(つまり、10兆~100兆個)の学習データが必要になると推定しており、これは符号距離の関数として学習データ要件が指数関数的に増加することを示している。
|追補3|
 ニューラルネットワークを使った、”事前”復号器は、大規模な学習データ要件を回避できる。しかし、このような復号器は、㊀畳み込みのカーネル・サイズによって決定される固定サイズの局所量子誤りしか訂正できず、㊁MWPMやUnion-Findなどのアルゴリズム復号器で補完する必要がある。したがって、高速化を実現するには、2つの復号器間の遅延を小さくするとともに、畳み込みをGPUまたはFPGA上で効率的に実装する必要がある。

❚ちょい足し2❚ 中国がグーグルに追いついた 
 中国科学技術大学他の研究者が書いた論文[*119]@Physical Review Letters(25年12月22日)は、量子誤り訂正(QEC)において「損益分岐点を越えた」こと及び「符号距離スケーリングを達成した」ことを主張している。セットアップは、{超伝導×表面符号(符号距離7)×量子メモリ実験}。簡単に言うと、グーグルがWillowチップで達成したことに(約1年遅れで)追いついた。セットアップは、グーグルと全く同じ。
 ただし、大きな違いがある。[*119]はマイクロ波ベースの方法で、グーグルと同じことを達成している。つまり、追加の「制御用古典ハードウェア」が不要であり、ハードウェアをスケールアップする(=物理量子ビット数を増やす)にあたって、障害が大幅に少ないと見込まれる。簡単に言えば、スケールアップ競争では優位である、ということになる。
 なお[*119]は、Editors' Suggestionに選ばれている(ので、主張の信憑性は高いのだろう)。蛇足ながら、オープンアクセスではない。

Ⅹ カラー符号で符号距離スケーリング他を達成
【0】はじめに
 24年12月9日にグーグルがnatureにて発表した論文[*A-21]は、量子誤り訂正符号(具体的には、表面符号)において距離スケーリングを「実証した」。世間は一気に湧いたし、10日の米株式市場でグーグルの株価は5.6%値上がりした、とされる。当社は、「この成果は、表面符号による結果なので、インパクトは少ない」と意見表明した(※)。理由は、表面符号は、物理量子ビット→論理量子ビットのオーバーヘッド(量子ビット・オーバーヘッド)が大きすぎるからである。
 グーグル自身がどう考えていたかは分からないが、グーグルは[*A-21]に続いて、カラー符号で符号距離スケーリングを示した。具体的に言うと、グーグル他🐾1の研究者は、「超伝導量子プロセッサ上で”超高密度🐾2”2次元カラー符号(以下、単に、カラー符号)を使用し、論理誤りの抑制と論理演算の実行を実現した」と主張する論文[*74](以下、本論文)を発表した(24年12月18日@arXiv)。
 英リバーレーンのレポート(24年10月)において、「表面符号に続く2番手」と形容されたカラー符号は、「どのプラットフォームでも、符号距離スケーリングを達成していない」という状況であった。本論文は、これをクリアした、というわけである。とは言え、表面符号で符号距離スケーリングを実証した論文[*A-18]が発表されたのは、24年8月27日@arXiv、24年12月9日@nature[*A-21]なので、カラー符号が大きく遅れていたというわけではない。なお、カラー符号の量子ビット・オーバーヘッドは、表面符号よりも小さい可能性があるとする(☞【4】(2)参照)。
🐾1 スイス連邦工科大学チューリッヒ校(ETHZ)、米マサチューセッツ州立大学、米コネチカット大学、米カリフォルニア大学サンタバーバラ校、米MIT
🐾2 超高密度の意味は、【3】(1)1⃣を参照。
※ フランク・ウィルチェック(2004年ノーベル物理学受賞)は、「Willowチップによる成果は、進歩であるが革新ではない」という趣旨の意見を表明している(25年2月19日@サウスチャイナ・モーニング・ポスト[*86])。

【1】本論文の主張
 本論文は、以下を主張する:
(1) モダリティが超伝導量子ビットである場合の量子誤り符号選択において、高い誤りしきい値は、もはや主要因ではない。効率的な論理操作が、量子誤り符号選択において、重要な要素となる段階に達した。
(2) 物理誤り率が約4倍改善されると、カラー符号は、表面符号よりも(わずかに)少ない量子ビット数で、同じ論理誤り率に到達する可能性がある。
(3) カラー符号において、以下の定量的な結果を得た:
1⃣ 符号距離を3から5にスケーリングした場合に、論理誤りを1.56倍🐾3抑制することに成功した。なお復号器として、AlphaQubitを採用している。
2⃣ 論理魔法状態注入👅1において、事後選択を併用すると、99%を超える忠実度を達成できた。
👅1 魔法状態注入は、誤り耐性ではない。魔法状態注入の論理誤り率を他の論理演算と同等レベルまで下げるために、一般的には、魔法状態蒸留を実行する。
3⃣ 符号距離3のカラー符号間で、論理状態をテレポートすることに成功した。テレポートされた状態の忠実度は86.5%から90.7%の間であった。
🐾3 表面符号では、2.31倍と推定されている。

【2】事前整理
(0) 表面符号まとめ 
 表面符号は高い誤りしきい値を提供し、平面の4近傍アーキテクチャと互換性がある。ただし、かなりの量子ビットオーバーヘッドが必要であり、特定の論理演算に制限がある。このため、代替の平面符号の調査が求められている。

(1) カラー符号の名前の由来 
 2 次元(あるいは三角形)カラー符号は、トポロジカル・スタビライザー符号のファミリーである。カラー符号は、3 色に着色可能なタイルを備えた三角格子上に構築される。つまり、3 つのタイルが格子の各頂点で交わり、タイルを着色(例えば赤、緑、青)できるため、隣接する 2 つのタイルが同じ色を共有することはない。

(2) カラー符号のPros&Cons 
 カラー符号の最小例である Steane符号は、トラップ・イオンと中性原子を使用して実装されており、論理演算と論理回路を実証している🐾4。カラー符号には、以下の長所がある:
㊀ より効率的な論理演算を可能にし、固定符号距離で論理量子ビットを符号化するために必要な量子ビット数を、表面符号よりも少なくする。
㊁ すべてのクリフォード・ゲートを 1 回の量子誤り訂正サイクル内で実行でき、リソース効率の高い魔法状態注入プロトコルをサポートする。
㊂ 誤り耐性なマルチ量子ビット パウリ測定を同時に実行できるため、マルチ量子ビットのエンタングルメント操作を最大 3 倍少ない空間時間オーバーヘッドで実行できる。
㊃ 完全なクリフォード群を、トランスバーサルに実装できる。
 対して、以下の短所がある:
① (表面符号よりも)誤りしきい値が低い。つまり、要件が厳しい。
② シンドローム抽出回路は、4近傍よりも高い接続性を必要とする。超伝導量子ビット(やシリコン・スピン量子ビット)などの平面アーキテクチャで、このスタビライザーを測定することは困難であった。
③ 復号が遅く、精度も低い。さらに、復号に必要な量子ビット数は、表面符号の2 倍である。
🐾4 本論文公開の2日後、中性原子方式量子コンピューターを開発している米スタートアップQuEraは、以下を主張する論文[*A-22]を発表した(24年12月20日@arXiv):量子誤り訂正符号として2次元カラー符号が採用して、「論理量子ビットでの魔法状態蒸留を実証した」。こちらを参照。

【3】本論文における技術的な工夫 
(0) 前説 
 【2】(2)であげたカラー符号の欠点は、超伝導量子ビットの性能における進歩、シンドローム抽出回路の工夫及び、復号アルゴリズムの工夫、によってクリアされた(と本論文は主張する)。なお本論文のカラー符号は、正方格子に埋め込まれた六角形格子というトポロジーに基づいて実装されており、巷で話題沸騰中のWillowプロセッサで(も)実装可能である。
 量子ビットの性能における進歩は、例えば、物理誤り率の改善や量子ゲートの忠実度向上等を指していると思われる。物理誤り率の改善は、量子優位性実現や誤り耐性量子計算実現の一丁目一番地である。英Phasecraft(量子S/Wスタートアップ)のCTOは、量子H/Wユーザーという観点から量子H/Wに対して要求することは、「ほぼほぼ、量子ゲートの忠実度のみ」と述べている。以下、シンドローム抽出回路の工夫と復号アルゴリズムの工夫について、説明する。

(1) シンドローム抽出回路の工夫
1⃣ 超高密度カラー符号 
 ”超高密度”カラー符号とは、「シンドローム抽出回路が(超)高密度である」ことを指している。シンドローム抽出回路が高密度であるとは、「シンドローム抽出回路が、1 回のシンドローム測定で、ビット反転誤り(Xエラー)と位相反転誤り(Zエラー)両方の誤りを識別できる」ことを指している。
 超高密度シンドローム抽出回路は、ベル対によって 2 つの古典ビットの符号化を可能にする超高密度符号化プロトコルからヒントを得ている。超高密度回路は、2 つの古典ビットが、特定のカラー符号タイルのデータ量子ビットで、ビット反転誤りが発生したかどうか(誤りなしの場合は 0、誤りありの場合は 1 として符号化)、and/or位相反転誤りが発生したかどうか(同)を示すように構築されている。ベル対は、ビット反転誤りをパリティに符号化し、隣接するデータ量子ビットでビット反転誤りが発生したかどうかに応じて、偶数パリティと奇数パリティを切り替える。同時に、相対位相に位相反転誤りを符号化する。相対位相は、位相反転誤りが発生したかどうかに応じて正と負の間で反転する。この同時符号化により、回路は 1 回の測定で両方のタイプの誤りを識別できる。
2⃣ 為念:符号距離を保持するか? 
 一般に、特定の符号に対するシンドローム抽出回路が符号距離を保持することは保証されていないので、本論文では、超高密度シンドローム抽出回路が、符号距離を保持するという証拠を示している。 符号距離を保持するとは、符号距離が伸びても、回路距離=符号距離を保つことを指している。ここで、回路距離とは、「シンドローム要素を反転させることなく論理演算子を反転するために発生する必要があるシンドローム抽出回路内の独立した誤り機構の最小数」と定義されている。表面符号は、符号距離を保持することが知られているらしい。
 本論文では、符号距離3、5及び7に関しては、シミュレーションによって回路距離=符号距離を確認している。具体的には、回路距離=符号距離を確認するタスクを、最大充足可能性問題(MAxSAT)にマッピングし、CASHWMaxSAT-CorePlus MaxSATソルバーを使ってシミュレートしている。ただし、MaxSATを解くことは NP 困難であり、7を超える符号距離でシミュレートすることは困難である。そのため、より大きな距離ではヒューリスティックな方法が使用されているが、符号距離15まで、回路距離=符号距離であることが確認されている。

(2) 復号アルゴリズム(復号器)の工夫 
0⃣ 最小重み完全一致(MWPM)復号器が使用できない 
 カラー符号では、各データ量子ビットが、3 つの Xスタビライザー🐾5と 3 つの Zスタビライザーに含まれている。したがって、符号の大部分のデータ量子ビットの 1 つのビット反転または位相反転エラーにより、通常は 3 つのシンドローム要素が反転し🐾6、シンドローム・グラフに、いわゆるハイパーエッジが作成される。これにより、最も一般的で、広く使用されている最小重み完全一致(MWPM)復号器を『直接的には』使用できなくなる。
 そのため本論文では、MWPM復号器の代わりに、メビウス復号器、最尤誤り(Most Likely Error:MLE)復号器、およびニューラルネットワーク(NN)復号器を検討している ⇒結論としては、NN復号器ー具体的には、AlphaQubit(こちらを参照)を採用。
 ちなみに、カラー符号を使って論理魔法状態蒸留を実証した米QuEra他の論文[*A-22]では、最尤復号器(MLD)🐾7と、MLE復号器🐾8の2つが使用されている(こちらを参照)。
🐾5 スタビライザー群の生成元をパウリX演算子とした場合のスタビライザー、という意味。
🐾6 表面符号の場合は2 つである。故に、MWPM復号器を使用できる。
🐾7 ルックアップ・テーブルの直接サンプリングによって構築されている。
🐾8 本論文のMLE復号器と同じく、混合整数プログラミングに基づいている。
1⃣ 検討する3つの復号器の特徴 
㈠ メビウス復号器は、 グーグル(Google Quantum AI)が開発したChromobiusというオープンソース・パッケージを採用した。Chromobiusは、カラー符号の復号グラフを、ハイパーエッジのない3 つの部分グラフに分解する。部分グラフはMWPMアルゴリズムが適用可能である。見つかった完全一致解は、動的計画法を使用して、一致したシンドローム要素をマージすることにより、元のカラー符号復号グラフに戻す。
 Chromobiusは、速い。しかし、復号グラフを変更する特定の論理操作をサポートしていない、といったいくつかの制限がある。
㈡ MLE復号器も(グーグルが)開発したものを採用した。MLE復号器は、MWPMアルゴリズムよりも正確である(精度が高い)。さらに、頻繁に発生する量子誤りに関する復号器の事前知識を反復的に改良できる。しかし、とにかく遅い。Chromobiusよりも約 1000 倍遅く、AlphaQubitよりも 300倍遅い。なお、正確(精度が高い)といっても最尤復号器(MLD)ほどではない。ただし、MLDは計算コストが高い(符号距離が長くなると、現実的ではない)。
㈢ AlphaQubit
 AlphaQubitは、復号速度と復号精度のバランスがとれている、とする。基本的に、 AlphaQubitを復号器として採用する(所々で、他の復号器を使用する)。
2⃣ 為念:復号器の比較 
 【4】(1)を参照。

【4】本論文の成果
(1) 符号距離スケーリング
1⃣ 概要 
 符号距離スケーリングとは、符号距離が伸びることで、論理誤りが減る現象を指している。大規模な量子計算を実行するには、多くの物理量子ビットが必要となる。物理量子ビット数が増加しても、論理誤りが減るのであれば、安心して量子計算≈量子論理演算を行うことができる。従って、 符号距離スケーリングは重要な目標である。
 符号距離スケーリングは、誤り抑制係数によって判断している。この場合の誤り抑制係数は、「符号距離5のカラー符号の性能を、”3つの”符号距離3のカラー符号サブセットの平均性能と比較」した指標である。詳しくは、以下で説明する。なお、採用する復号器(復号アルゴリズム及び復号戦略)によって、誤り抑制係数が異なる。
2⃣ ”3つの”符号距離3のカラー符号サブセットの平均性能 
 符号距離5のカラー符号を構成する量子ビット(データ量子ビット及び補助量子ビット)並びに、X及びZスタビライザーを使って、(仮想的に)符号距離3のカラー符号を構成することは、自然に(当たり前に)できる。本論文では、符号距離5のカラー符号の中に、符号距離3のカラー符号を3つ作る(サブセットが3つできる)。符号距離3のカラー符号に対しては、3つのサブセットの平均性能を、符号距離5のカラー符号の性能と比較する。ここで言う「性能」とは、論理誤りである。
3⃣ 誤り抑制係数 
 誤り抑制係数を計算するには、いくつかのステップを踏む必要がある。まず、論理量子ビットを初期化して、最大 n = 29サイクルの量子誤り訂正を測定する。次に、nの関数として論理誤り確率pを、p = 定数×(1 − 2εd)n + 1/2と表現する。フィッティングすることで、量子誤り訂正サイクルあたりの論理誤りεdを取得する。ここで、dは符号距離(3若しくは5)である。ε3に関しては、2⃣で記述した通り、3つの値の平均値ε‾3を計算する。ε‾3をε5で割って、誤り抑制係数を算出する。
4⃣ 結果 
 最も大きい、1.56倍の論理誤り抑制は、AlphaQubitを復号器として採用したケースで達成されている🐾9。MLE復号器は、1.53倍🐾10及び1.35倍🐾11を達成している。符号距離スケーリングを達成しているか・していないか、で言うとMLE復号器も達成はしている。メビウス復号器は、0.83倍🐾12と0.93倍🐾13で、達成していない。
🐾9 SI1000 シミュレーション・データで事前学習され、実験データで再学習されている。SI1000 シミュレーション・データは、脱分極ノイズ・モデルを用いたシミュレーション・データである。SIとは、超伝導(Superconducting)に着想を得た(Inspired)という意味である。1000は、ラウンド持続時間が1,000ナノ秒(1マイクロ秒)であることを意味している。
🐾10 MLE復号器のケースでは、前述の通り、量子誤りに関する復号器の事前知識を反映して、誤り確率を反復的に調整している。具体的には、実験データに基づく反復エッジ再重み付けによって取得された事前確率を与えている。
🐾11 SI1000シミュレーション・データに基づく事前確率を与えた場合。
🐾12 SI1000シミュレーション・データに基づく事前確率を与えた場合。
🐾13 実験データから学習した事前確率を与えた場合。
5⃣ 補足 
 シミュレーション分析によれば、量子誤りの主要ソースは、2量子ビット・ゲート(CZゲート)であり、割合は39%である(リーケージ誤りを含む)。他は、測定が20%、1量子ビットゲートが19%、アイドリングが19%である。

(2) 量子ビット・オーバーヘッド
1⃣ 前説 
 1論理量子ビットでアルゴリズム的に重要な誤り率(< 10−6)に到達するために必要な物理量子ビットの数を推定することは、大規模な量子計算に必要なリソースを評価するために重要である。”超高密度”カラー符号では、距離 d の論理量子ビットを符号化するために1.5×d2ー0.5個の(補助量子ビットを含む)物理量子ビットが必要である。これは、2d2−1個の物理量子ビットを必要とする、回転表面符号🐾14よりも優れている。
2⃣ セットアップ 
 ただし、符号には異なるノイズしきい値があり、その誤り抑制係数は、デバイスの物理誤り率に依存する。したがって、各符号のアルゴリズム的に重要な誤り率に到達するために必要な量子ビット・オーバーヘッドを評価するために、近い将来のプロセッサの「現実的なノイズ条件下で」それらを比較する。
 具体的には、ノイズ・パラメータ p = 10−3及び、5×10−4の SI1000(🐾9を参照)誤りモデルを使用して、カラー符号と表面符号をシミュレートする。結果のデータを、(AlphaQubitではなく)MLE復号器で復号し、各符号と距離の 1 ラウンドあたりの論理誤りを決定する。ここで、1 ラウンドは d サイクルの量子誤り訂正として定義される。
🐾14 こちらを参照。
2⃣ 結果
 結果は以下の通り:
❑ 1ラウンドあたりの論理誤りは符号距離(および使用される量子ビット数)の増加とともに減少する。
❑ 表面符号と”超高密度”カラー符号では、1 ラウンドあたりの所定の論理誤りを達成するために、同数の量子ビットが必要である。
❑ 距離が大きい場合、シミュレーションでは、特に p = 5×10−4で、約 10−8の論理誤り率に達するために、カラー符号では表面符号よりもわずかに少ない量子ビットで済む可能性がある。

(3)論理ランダム化ベンチマーク
0⃣ 目論見 
 カラー符号が表面符号よりも優れている重要な利点の 1 つは、すべての1量子ビット論理クリフォード・ゲートをトランスバーサルに実行できることである。論理ゲートをトランスバーサルに実行することは、誤り耐性量子計算の実現に不可欠なピースである。トランスバーサル1量子ビット論理クリフォード・ゲートの論理誤りが、トランスバーサルでない1量子ビット・ゲートの論理誤りよりも小さいことを実際に示し、カラー符号を称えるのが、本項の目論見である。
1⃣ セットアップとプロトコル 
 まず、アダマールゲートH、位相ゲートS、およびパウリ演算子の組み合わせを使用して、クリフォード群の 24 ゲートすべてを実装する。次に、論理ランダム化ベンチマーク(LRB)を使用して、トランスバーサル論理クリフォード・ゲートの論理誤りを推定する。
 ランダム化ベンチマークのプロトコルは、ランダムに選択された論理クリフォード・ゲートCの複数のシーケンスを m 個適用し、各シーケンスの後に、シーケンスを反転するクリフォード・ゲートC-1を適用する🐾15。論理量子ビットはその後測定され、初期論理状態と比較される。このプロセスは、各クリフォード・ゲート間の量子誤り訂正サイクルを挟んで、さまざまなクリフォード・シーケンス長 m に対して繰り返される。
 論理クリフォード・ゲートあたりの平均量子誤りの推定値を取得するために、これらのシーケンスを、論理クリフォード・ゲート(C及びC-1)を適用しない、参照シーケンスと比較する。
🐾15 従って、正確には、、インターリーブ・ランダム化ベンチマークということになる。
2⃣ 論理ランダム化ベンチマーク(LRB)の結果 
 LRB は距離 3 のカラー符号で実現し、ランダムに選択された論理クリフォード・ゲートの数 m = 0 ~ 10 を変化させ、各 m に対して 25 のランダム シーケンスを使用する。論理クリフォード・ゲートのゲート忠実度(今の場合、1量子ビット・ゲートの忠実度)は、mに対して指数関数的に減少する。また、トランスバーサル・クリフォード・ゲートを含むシーケンスは、参照シーケンスよりもわずかに速く減少する。
 つまり、トランスバーサルではあるが、複数の論理クリフォード・ゲートを差し込んで反対操作も行った方が、ゲート忠実度がより速く低下する。ただ、これは当然のことである。問題は、それがどの程度か?ということである。 そこで、平均論理クリフォード・ゲート誤りεCを推定する。これは、各量子誤り訂正サイクルで、論理クリフォード・ゲートによって導入される、追加誤りを表象する。
 ニューラル ネットワーク復号器(AlphaQubit)を使用すると、εC = 0.0027が得られる。これは、サイクルあたりの論理誤りε‾3= 0.0171よりも大幅に低く、トランスバーサル1量子ビット ゲートの実装の効率性を強調している。つまり、実際には差し込まざるを得ない論理ゲートを差し込むと、ゲート忠実度は当然に低下するが、トランスバーサル(1量子ビット)ゲートだと、ゲート忠実度の低下は、大幅に小さい。ゆえに、論理ゲートをトランスバーサルに実行することが望ましい、という結論である。引いては、カラー符号の採用が望ましいという結論に繋がる。

(4) 高忠実度の魔法状態準備 
1⃣ 前説 
 効率的な実装にもかかわらず、トランスバーサルゲートは、任意の量子誤り訂正量子計算に必要な汎用ゲートセットを形成できない(いわゆる、イースティン・ニルの定理)。ただし、カラー符号では、非クリフォード単一量子ビットであるTゲート🐾16で、トランスバーサル・ゲートセットを拡張すれば、汎用量子計算に必要なすべての単一量子ビット論理演算を実行するのに十分である。(2)0⃣にて記述した通り、カラー符号は、すべての1量子ビット論理クリフォード・ゲートをトランスバーサルに実行できる。
 Tゲートは、補助論理量子ビット上に高忠実度の魔法状態を準備し、ゲート・テレポーテーション・プロトコルで消費することで実装できる。高忠実度魔法状態の準備は、2 つのステップで構成される。まず、物理量子ビット上に準備された魔法状態を論理量子ビットに注入する🐾17。これは、パウリ固有状態のように誤り耐性に実行できないため、本質的に量子誤りが発生しやすい。 2 つ目は、魔法状態蒸留によって、欠陥のある状態の集合から非常に忠実度の高い魔法状態を蒸留することである🐾18
🐾16 z 軸を中心に π/4の回転操作を行う1量子ビット・ゲート。 
🐾17 物理量子ビットを入力として受け取り、その状態を論理量子ビットに符号化することを、「(状態)注入」と呼ぶ。
🐾18 2次元カラー符号を使った論理魔法状態蒸留の実証は、米QuEra他によって行われた(24年12月20日@arXiv)。詳細は、こちらを参照。
2⃣ 状態注入フェーズにおける魔法状態の比較 
 本論文は、超伝導量子ビット及びトラップイオンを用いた先行研究において、実験的に準備された魔法状態と本論文の結果を比較している。魔法状態は、3種類(|AL⟩、|HL⟩、|TL⟩)準備している。比較指標は、不忠実度である。正確に言えば、事後選択による拒否割合との兼ね合いで、不忠実度を比較している。ここで、不忠実度=1-Fであり、Fは
     F=(Tr[√(√ρ̃・ρ・√ρ̃)])2
であり、
     ρ̃=0.5×(恒等演算子+⟨XL⟩σx+⟨YL⟩σy+⟨ZL⟩σz)
である。ρ=|ψL⟩⟨ψL|、 |ψL⟩は任意の論理状態である。また、σxは、パウリx演算子であり、他も同様。⟨XL⟩は、X基底で行った論理測定の期待値(単純平均値)である。測定は20,000ショット行っている。
3⃣ 比較結果 
 比較結果は、図14に図示されているが、視認性は(本論文も自覚している通り)低い。定量的に言うと、事後選択後の不忠実度は、|AL⟩、|HL⟩、|TL⟩において、それぞれ0.0008、0.0041、0.0086である。当然ながら先行研究における結果と比較して、不忠実度が低い(つまり、忠実度が高い)。拒否割合は、0.25程度に読み取れる。

(5) 量子テレポーテーション 
 格子手術は、最近傍相互作用のみで、CNOT ゲートなどのマルチ量子ビット誤り耐性操作を効率的に実現することを可能にする。本論文では、論理状態 |ΨL⟩ を 1 つの論理量子ビットから別の論理量子ビットにテレポートする格子手術フレームワークが紹介されている。
 結論だけ述べると、86.5%から90.7%の間の忠実度で、テレポーテーションを実行できた。なお、復号器は、ニューラルネットワーク復号器(AlphaQubit)を採用している。

【5】考察
(0) 絶対王者退位後に、戦国乱世が訪れるは必定・・・かどうかは分からないが、量子誤り訂正符号界隈では、表面符号という絶対王者への挑戦者が増えていることは、確かである。米IBMは量子低密度パリティ検査(qLDPC)符号に傾斜しつつある(こちらを参照)。表面符号・原理主義者に見えたグーグルも、多面戦略に移行した(あるいは表面符号とは訣別した?)ようである。

(1) 雑に表現すると、「復号に難あり」と評価され、永遠の2番手と目されていたカラー符号に対して、ニューラルネットワーク復号器AlphaQubitを適用したことで、障害を克服した、となるだろう。そして、"唯一の?”障害を克服したら、カラー符号には明るい未来しか見えない、といったところであろうか。ただし、米QuEra他が実証済の論理魔法状態蒸留には、達していない(と思われる)。

(2) 量子誤り符号間競争で言うと、qLDPC符号、消失誤り符号との争いがあるし、復号ではリバーレーンとの戦いがある。リバーレーンの復号アルゴリズムは、衝突クラスタリング(CC)アルゴリズムと呼ばれている。こちらを参照。ただ、消失誤り符号及びリバーレーンが、勝ち確だと思っている。

Appendix 1 C3予想及びqLTC予想を肯定的に証明したという論文
[背景]
 古典的な、局所検定可能符号(LTC)とは、与えられたシーケンスからランダムに選ばれた非常に小さな(通常は一定の数の)ビットを見ることによって、ある符号語に近いかどうかを高い確率で検定できる、効率的な非決定論的手続きを備えた符号のことを指す。「❶局所性、❷レート及び❸正規化最小距離が一定」のLTCが存在するかどうかは未解決問題で、(古典符号の場合)c3予想、(量子符号の場合)qLTC予想と呼ばれる。
[内容]
 モスクワ大学の研究者による論文[*A-1](22年1月)で、以下(1)と(2)が証明された。
(1)古典符号・・・c3予想
 「❶局所性、❷レート及び❸正規化最小距離が一定の」古典的LTCが存在する、ことが証明された。
(2)量子符号・・・弱い形でのqLTC予想
 量子の場合は、古典的な場合に比べてやや弱く、「❷レート及び❸正規化最小距離が一定の」量子的LTCが存在する、ことが証明された。なお、❷と❸が一定の量子的LTCが、漸近的に良いqLDPC符号である。

Appendix 2 トポロジカルに安定した結び目を数学的に同定したという論文
 渦(糸)の基本群が非可換であれば、その渦はロバストであり、トポロジカルに保護された渦(トポロジカル渦)である。フィンランド・アールト大学の研究者たちの論文[*A-2](22年12月)は、非可換群として四元数群を使って、トポロジカル渦を同定した。そして、そのトポロジカル渦の渦糸から作られる結び目を同定することで、トポロジカルに安定な結び目を同定した。結び目→組み紐(群)→行列→量子演算、という具合に移行することで、トポロジカルに保護された量子演算を同定することが可能となる。
 問題は、どうやって物理実装するかである(マヨラナ粒子を使うトポロジカル量子計算は、物理実装の道が見えない[*A-3])。ボーズ-アインシュタイン凝縮における渦糸などが候補のようである。

Appendix 3 初期状態準備で損益分岐点を超えたと主張する論文
❚概 要❚
 マイクロソフトとQuantinuumによる論文[*A-4]は、量子誤り訂正というよりは、誤り耐性量子計算に関する論文である。[*A-4]では、誤り耐性量子計算の実証を、ダニエル・ゴッテスマンの枠組みで考えている。ここで言うダニエル・ゴッテスマンの枠組みとは、2016年10月にarXivで公開された論文[*A-5]で展開されている、「符号化された量子回路の誤り率が、符号化されていない量子回路の誤り率を下回った時、誤り耐性量子計算が実証された」とする枠組みである。
 なお、近時、誤り耐性量子計算の気運が高まっているように思われる。例えば、「誤り耐性量子コンピューター向けに、効率的な論理量子ビットとアーキテクチャを開発している」独の量子ソフトウェア・スタートアップQC Designは、€4milの資金(助成金+シードラウンド)を調達している(24年7月16日)[*A-6]。

❚用語の説明❚
 符号化された量子回路とは、「誤り耐性回路を追加することにより、初期状態の準備・量子計算・量子計算に対する量子誤り訂正・復号の各過程が、量子誤りから保護された量子回路」である。すべてがトランスバーサルに実行できる量子回路と表現しても良いだろう。
 符号化されていない量子回路とは、通常の量子回路である。また、ここで言う誤り率とは、「測定結果の誤ったパリティが計測された回数を、試行の総数で割った比率」である。

❚主 張❚
 [*A-4]は、ゴッテスマンの枠組みにおいて『初期状態準備』の誤り耐性が実証された、と主張する。準備した初期状態は、ベル状態(最大の量子もつれを持つ状態)である。状態準備を選択した理由は、符号化した量子回路で実行するのが最も難しい過程が、状態準備だからである。なお[*A-4]には、「ベル状態の準備と測定は、量子コンピューターの信頼できる物理的実装のベースライン・デモンストレーションでした」とある。
 "誤り耐性が実証された"を定量的に述べると、「符号化された量子回路の誤り率は、符号化されていない量子回路の誤り率の約1/800となった」である("定量部分"の詳細は、下記を参照)。これは、「損益分岐点を、大きく超えられることを確認したこと」を意味し、単に誤り耐性状態準備を実行した、ということではない。

❚結果の詳細❚
(0) 前説
 量子誤り訂正符号としては、[[7, 1, 3]]Steane符号と[[12, 2, 4]]CSS符号が用いられている。後者は、[*A-4]ではカーボン符号と呼ばれている。トポロジカル符号やボソニック符号を使っているわけではない。[[7, 1, 3]] Steane 符号とは異なり、[[12, 2, 4]]符号は、トランスバーサルな「誤り耐性」Y基底測定を許容しない。そのため、[*A-4]では、パウリX基底測定および Z基底測定結果の誤り率に焦点を当てている。
 なお、[[n, k, d]]符号は、物理量子ビットの数 n、論理量子ビットの数 k、および符号距離 d を持つ符号を意味する(そういう表記である)。

(1) [[7, 1, 3]]Steane符号 
 ❶符号化されていない量子回路の誤り率は、(572+795)/(137,200+137,200) = 0.498%となる🐾1。❷符号化された量子回路に、事前選択〖補遺〗を組み合わせた場合は、(9+0)/(9,025+9,010)=0.0499%となる🐾2。❶/❷で約9.98倍である。❸符号化された量子回路に、事前選択と事後選択❚注記❚を組み合わせた場合は、X測定及びZ測定で誤ったパリティを測定した回数は0回。これでは、誤り率0%になりそうだが、「量子誤りが検出されなくても、事後分布🐾3の中央値は 0 以外になるため、量子誤り確率の点推定値が 0 になることはない」。具体的には、0.001%になるらしい。❶/❸=約500倍である。
------- ❚注 釈❚ ----------
🐾1 [*A-4]の数値(0.50%、上下付き)とは異なる(が、丸めのみ)。
🐾2 [*A-4]の数値(0.05%、上下付き)とは異なる(が、丸めのみ)。
🐾3 試行回数に対する量子誤りの総数は、二項分布に従うと仮定している。二項分布は、二項パラメータ 0 ≤ p ≤ 1 の共役事前分布としてベータ分布を持つため、試行結果でベータ事前分布を更新して事後分布p~Βeta(1/2+F、1/2+NーF)を推定する。Nが試行総数、Fが誤ったパリティを測定した回数。
❚注記❚ 量子計算を始めとする量子操作🔩を経て、最終的に(古典的な値として、あるいは決定論的な値として)得られる「測定結果」には、量子誤りに由来する誤りが含まれている(はずである)。量子誤りが存在する測定結果を優先的に拒否することで、量子誤りの少ない測定結果の部分集合を特定するアプローチは、事後選択(事後承認とも呼ばれる。英語では、post-selection)と呼ばれる。事後選択は、量子誤り訂正の一翼を担うことができるが、それだけでは問題を解決することはできない。
 事後選択を、特定の結果(終状態)のみを抽出する操作と捉え直すと、特定の始状態(初期状態)のみを抽出する操作をイメージすることもできる。これを、事前選択(pre-selection)と呼ぶ。
🔩 量子操作という文言には、非ユニタリ操作が含まれる。

(2) [[12, 2, 4]]CSS符号(カーボン符号) 
 ❹符号化されていない量子回路の誤り率は、125/16,000=0.78%🐾4。❺符号化された量子回路に事前選択を組み合わせた場合は、26/15,483=0.168%🐾5。❹/❺=約4.65倍である。❻符号化された量子回路に事前選択と事後選択を組み合わせた場合は、誤ったパリティを測定した回数は0回。誤り率は、0.001%になるらしい(0%にならない理由は、上記(1)における理由と同じ)。❹/❻=約800倍である(細かく言えば、781倍)。なお、❚主張❚での表記と平仄を合わせると、❻/❹=約1/800である。
------- ❚注 釈❚ ----------
🐾4 [*A-4]の数値(0.8%、上下付き)とは異なる(が、丸めのみ)。
🐾5 [*A-4]の数値(0.17%、上下付き)とは異なる(が、丸めのみ)。

❚考察など❚
(1) ハードウェア 
 QuantinuumのH2トラップイオン・プロセッサが使用された。物理誤り率が低いQuantinuumのハードウェアがあってこその結果、というオチ。具体的には、状態準備および測定(いわゆるSPAM)の物理誤り率0.15%、2量子ビットゲートの物理誤り率0.14%、中間回路測定およびリセットのクロストーク・エラーが 2×10−5以下。

(2) まとめ 
 [*A-4]の結果は、「小規模な個々の量子回路(論理回路)は、エンドツーエンドで、損益分岐点を超えられることを示した」ということであろう。ただ、[*A-5]の精神を継承する[*A-4]は、「単に個々の論理回路が物理回路よりも優れていることを示すのではなく、何らかの計算を実行するように構成された回路ファミリーが、符号化の恩恵を受けることを示したい」という野望を持っている。実際、それが本当の誤り耐性量子計算ということになるであろう。その野望を果たすための重要な要素が、繰り返し・誤り耐性量子誤り訂正であることを明示した上で、[[12, 2, 4]]CSS符号の繰り返し量子誤り訂正について実験を行っているが、今回は決定的な結果は得られていない。

(3) 展望
 ベル状態は、アダマールゲートとCNOTゲートを使って準備できる。Steane符号やCSS符号は、"トランスバーサルな"CNOTゲートと"トランスバーサルな"アダマール・ゲートを実行できる。従って、Steane符号やCSS符号は(トランスバーサルという意味での)誤り耐性な状態準備の量子誤り訂正符号として使用できる(ということになる)。
 ただ、Steane符号やCSS符号を、量子計算の量子誤り訂正符号として採用することはmake a senseしないだろう。つまり、Steane符号やCSS符号を使って、エンドツーエンドで損益分岐点を超えることは、make a senseしないだろう。要するに、エンドツーエンドで誤り耐性量子計算を実行するのは、未だ難しいと言わざるを得ないだろう。

Appendix4 HH格子表面符号に対する、NN復号アルゴリズムの評価 
❚前 説❚
 量子誤り訂正(QEC)というと、表面符号とかボソニック符号(猫符号とかGKP符号)といった符号化方式に注目が集まる。ただ、実務的な観点から見ると、復号は”重要”である。量子誤り訂正(QEC)において、「パリティ検査(文言としては、シンドローム測定等いくつかある)の結果を手がかりに、量子誤りが発生した場所を特定して、量子誤りを訂正すること」を、復号(デコード)と呼ぶ。例えば、IBMによるThe Future of Quantum Computing with Superconducting Qubits(22年9月16日@arXiv[*A-7])というホワイトペーパーでは、量子誤り訂正符号が満たすべき3つの条件が示されている。その一つとして『復号アルゴリズムが高速であること』が上げられている(詳しくは、こちらを参照)。
 有力な復号アルゴリズムとしては、最小重み完全一致問題(MWPM)に帰着した最適化アルゴリズム(以下、MWPMアルゴリズム)が知られている。有力とは言いながらMWPMアルゴリズムには、大きな欠点がある。それは、遅いということである。復号に時間を要すると、結果として、量子誤りが蓄積してしまい、誤り耐性量子計算が破綻する。
 リアルタイム復号アルゴリズムの候補としては、ニューラルネットワーク・ベースの復号アルゴリズムが上げられる。大きな話では、アルテミス・プロジェクトが上げられる。同プロジェクトは、ニューラルネットワーク(強化学習)ベースの量子制御アプローチを確立し、商業化することを目的としている。具体的には、量子回路実行時の測定結果に基づいて制御を生成できる(リアルタイム量子誤り訂正を可能とする)リアルタイム・ニューラルネットワークを組み込んだ量子コントローラーを開発する(https://quantera.eu/artemis/)。仏Alice&Bob、イスラエルのQuantum Machines及び学術機関が主導する。
〖補遺1〗表面符号がスケールする|復号器つながりで、ここに記載。
 グーグルは、表面符号でスケーリングを実証したとする論文[*A-18]を発表した(24年8月27日@arXiv、24年12月9日@nature[*A-21])。具体的には、「リアルタイム復号器+符号距離7の表面符号の論理誤り率は、リアルタイム復号器+符号距離5の表面符号の論理誤り率に比べて、半分未満になった」。
👉 表面符号実装のハードウェア要件が厳しい(量子ビット・オーバーヘッドが大きい)、という大問題に対する解決策ではない。大きなインパクトはないと思う。こちらも参照。ただし、Physics World 2024 のブレークスルー・オブ・ザ・イヤーを受賞(https://physicsworld.com/a/two-advances-in-quantum-error-correction-share-the-physics-world-2024-breakthrough-of-the-year/)
† 強化学習を活用したニューラルネットワーク型の復号器。
〖補遺2〗猫もスケールする!|スケール繋がりで、ここに記載。
 AWS他🐾1は、「猫量子ビット×反復符号」でスケーリングを実証したとする論文[*A-19]を発表した(24年9月23日@arXiv)。猫量子ビットでは、ビット反転誤りが(共振器中の平均光子数の増加に対して指数関数的に)抑制されるので、(平均光子数の増加に対して、線形に増加する)位相反転誤りだけを訂正すれば良い。量子誤り訂正符号には量子反復符号(あるいは多数決符号:repetition code)を用いる。定量的には、「論理位相反転誤り率は、符号距離3で平均1.75(2)%。符号距離5で平均1.65(3)%」となり、符号距離が伸びるにつれて、わずかに減少した。損益分岐点は超えているが、論理誤り率として大きすぎる(ので、損益分岐点を越えてもあまり意味はない?)。モダリティは超伝導で、"サイズ"は、データ量子ビット5+補助量子ビット4。
🐾1 シカゴ大学、カリフォルニア工科大学、エルサレム・ヘブライ大学。著者の数は、数えきれないほど多い。
👉 補遺1と同様、「量子ビット・オーバーヘッドが大きい」を解消したわけではない🐾2が、補遺1に比べれば、ハードウェア効率が高いセットアップであることは確かなので、ハードウェア要件が緩和されたとは言えるかもしれない。
👉👉 上で述べた、QECアーキテクチャの有効性をテストするために設計された、プロトタイプの量子コンピューティング・チップ「Ocelot」を発表した(25年2月27日)[*A-27]。
🐾2 AWSは、QECに必要な物理量子ビットを最大で90%削減できる、と主張している。それが事実であれば、「量子ビット・オーバーヘッドが大きい」は解消されたと言って良いのかもしれない。

❚概 要❚
 豪メルボルン大学及び豪州連邦科学産業研究機構(CSIRO)の研究者は、HH(heavy-hexagonal:六角ナット)格子ベースの表面符号(以下、HH符号)に対して、ニューラルネットワークを用いた復号アルゴリズム(以下、NN復号アルゴリズム)を評価した論文(以下、本論文[*A-8])を発表した(24年7月8日公開@Physical Review Research)。
 IBMの超伝導方式NISQマシン実機ⓍHH格子Ⓧ表面符号というセットアップなので、テストベッドとしての意義は大きくないと思われるが、NN復号アルゴリズムの有効性評価という1点でのみ、意味はあるだろう。なお、IBMがHH格子を開発した動機は、量子ビットの局所的な接続を減らすことであった。接続を減らすことで、各量子ビットへの多数の接続を制御することの物理的な難しさに対処し、クロストーク・ノイズを減らすことにつながる。

❚本論文の主張❚
 NN復号アルゴリズムが、MWPMアルゴリズムと同等以上の、適切な量子誤り訂正に関連する予測を返すことができることを明確に示した。

❚事前整理❚ 
 『表面符号』においては、(補助量子ビットを使った)パリティ検査により、量子誤りが発生した可能性がある物理量子ビット(以下、”誤り量子ビット”とする)の位置がわかる。誤り量子ビットを頂点とし、各頂点間の距離を重みとする辺を持つグラフを考える。当該グラフの上で MWPM を解くことは、距離の合計が最小になるように、誤り量子ビット同士を、重複なく結ぶことに相当する。これにより、誤り量子ビットの位置を推定することができる。
 本論文では、PythonパッケージPyMatchingの「MWPMデコーダー」を使用してMWPM を解いている。

❚NN復号アルゴリズム❚ 
(0) 概観
 ニューラルネットワークは、量子誤りの連なり(chain:チェーン)が、突然終了する格子の境界を含む、格子内のチェーンとスタビライザー反転がどのように関連しているかを機能的に学習できる。NN復号アルゴリズムは、Python パッケージ TensorFlowを使用して構築された。
(1) モデルアーキテクチャ等 
 復号アルゴリズムを実装した復号器(デコーダー)は、入力層、2 つの隠し層、および出力層の4層で構成される、全結合フィードフォワード・ニューラルネットワーク(FFNN)。活性化関数は、最終層を除き、ReLU関数。最終層は、シグモイド関数。損失関数は、二値交差エントロピーで、オプティマイザにはAdamが採用されている。
(2) 学習に用いられたノイズモデル 
 均一な脱分極パウリ・チャネルを使用して、数千万のシミュレートされたノイズ・パターンで学習された。

❚評 価❚
(0) ハードウェア  評価はシミュレータと実機の両方で行われた。実機としては、以下のNISQマシンが使用された:ibm_brisbane、ibm_cusco、ibm_nazca、 ibm_sherbrooke、ibm_seattle。シミュレータでは、3 から11 までの奇数の符号距離が使用された。実機における符号距離は、3及び5である。 
(1) セットアップ 
 シミュレータのノイズ・モデルには、脱分極ノイズ・モデルとIBM実機固有のノイズ・モデルが使用された。実機固有のノイズ・モデルでは、物理誤り率は、量子ビットと 2 量子ビット ゲートに対して与えられた。これは、格子全体に均一にではなく、個々の量子ビットと CNOT ごとに実装された。
 実機の評価では、量子回路が、X測定用に1 回、Z測定用に1 回、合計2 回初期化され、各ケースで10,000 ショットが実行された。
(2) 結果 
 MWPM アルゴリズムと同様のクロスオーバー動作が観察された。このため、NN復号アルゴリズムは、MWPM アルゴリズムと同じ全体的な特性で HH符号を復号できると推測している。また、シミュレータと実機を使った結果の比較検証から、NN復号アルゴリズムが、シミュレートされたノイズと同様に実際のノイズをほぼ復号できる可能性が高い、と推測している。
 なお、MWPMアルゴリズムの平均復号時間は約1ミリ秒であるのに対し、NN復号アルゴリズムでは 0.3ミリ秒であった。つまり、およそ3倍高速化された。[*A-9]によると、(超伝導方式では)約1μ秒が要求される。つまり、1/300にする必要がある。

❚展望❚
 MWPMアルゴリズムおよび、本論文のNN復号アルゴリズムは表面符号を前提としている。したがって、将来性が乏しく思える。ただし、畳み込みニューラルネットワーク・ベースの復号アルゴリズムは、表面符号を前提としていない。従って、NN復号アルゴリズム自体の将来性は、必ずしも暗くない。

Appendix5 ユニタリー2デザインがQEMに指数コストを発生させる?
❚前 振❚
 ユニタリー2デザインは、☛❚用語整理❚(2)。
 量子誤り緩和(QEM。日本語訳としては、「軽減」があてられることもある)には、指数コストがかかることは既知であり(例えば、[*A-10])、何が新しいの?・・・イヤイヤという論文(という認識)。

❚背 景❚
 QEMは、量子計算の出力を測定した結果に対して、古典的な統計処理を行うことで、量子誤りの影響を緩和(軽減)する手法である。先端技術「あるある」であろうが、QEMに対しても、良い話と悪い話が併存している。良い話としては、㊀クリフォードゲートに量子誤り訂正、非クリフォードゲートにQEMを用いることで、NISQでも、誤り耐性量子計算を実行可能な量子コンピューターと同等の計算ができる(22年8月:IBM)[*A-11]、㊁NISQマシンで走らせた量子計算であっても、QEM🐾1を用いることで、古典計算では得られない結果を得ることができる(23年6月:IBM)[*A-12]、㊂QEM🐾2を前提とすると、クリフォード回路をハードウェア効率的🐾3に構築できる(24年7月:IonQ)[*A-13]など。
 悪い話としては、㊃QEMに必要な量子コンピュータの実行回数は、量子演算の実行回数に対して指数関数的に増加する(23年11月:東大)[*A-14]🐾4。本論文は、悪い話に属する。
🐾1 具体的には、ゼロノイズ外挿法(ZNE)。
🐾2 具体的には、クリフォード・ノイズ削減(CliNR)。CliNR は、クリフォード回路を、ゲート・テレポーテーションを使用して実行される、サブ回路に分割して実装する。ゲート・テレポーテーションによって消費されるリソース状態の量子誤りを検出する。
🐾3 論理量子ビットの数=物理量子ビットの数×(3+1/n)とすることができる。nは、物理量子ビットの数。
🐾4 [*A-10]の著者は、[*A-14]の研究グループの一員。

❚概 要❚
 ベルリン自由大学他[*A-15]の研究者は、「量子誤り緩和に必要なサンプル数は、最悪の場合、指数関数的に増加する」という論文[*A-16](以下、本論文)を発表した(24年7月25日@nature physics)。

❚本論文の主張❚
 本論文は、QEMアルゴリズムを使用したNISQに対して、以下を主張する:
(1) 局所的脱分極ノイズを仮定した量子回路で、QEMを機能させるために必要なサンプル数は、最悪の場合、量子ビット数と量子回路深度🐾5に対して指数関数的に増加する。
(2) ノイズ・チャネルを局所的非ユニタリーノイズとしても、(1)の主張は成立する。
(3) (1)の主張は、「弱い量子誤り緩和、強い量子誤り緩和」(☛❚用語整理❚(1)参照)ともに成立する。
 尚、上記主張におけるQEMには、一般的なQEMである「クリフォード・データ回帰、ゼロノイズ外挿法、確率的誤りキャンセル」を含む。
🐾5 並列可能な量子ビットゲートは、一つのゲートと見做した場合の量子ゲート数。

❚用語整理❚
(0) 局所的脱分極(depolarizing)ノイズ
 誤り率をpとしたときの局所的脱分極ノイズℇ(ρ)は、ℇ(ρ)=(1-3p/4)ρ+p/4(XρX+YρY+ZρZ)  である。言わずもがなX、Y、Zはパウリ演算子である。

(1) QEMアルゴリズム 
1⃣ 定義 
 概念的に説明すると、QEMは、測定結果の古典的な事後処理によって、計算結果に対する量子ノイズの影響を修正する手法である。具体的に説明すると、QEMアルゴリズムは、次の入力a及びbに対して、出力AあるいはBを出力するアルゴリズムである。
a:ノイズのない量子回路Cの古典的な記述とオブザーバブルの有限集合 M = {Oi} 
b:ノイズのある量子回路C'の出力状態 σ'のコピー。
A:各Oi∊M の期待値 Tr(Oiσ) の推定値。ここで、σ はノイズのない量子回路 C の出力状態。
B:計算基底で測定されたときの σ の分布、に近い確率分布からのサンプル。
2⃣ 弱い量子誤り緩和(弱いQEM)と強い量子誤り緩和(強いQEM) 
 本論文では、期待値計算にかかるQEMを弱いQEMと呼んでいる。弱いQEMアルゴリズムは、オブザーバブルの有限集合 M = {Oi}を受け取り、Oiの期待値oi= ⟨ψ|Oi|ψ⟩の推定値を出力する。すなわち、出力が1⃣におけるAである場合を、弱いQEMと呼んでいる。
 対して、出力が1⃣におけるBである場合を、強いQEMと呼んでいる。

(2) ユニタリー2デザイン 
 ユニタリーtデザインとは、ザックリ言うと、ユニタリー演算子の集合における「都合の良い性質」である。都合の良い性質とは、ユニタリー演算子の最大次数t次の斉次多項式の積分値(ただし、積分測度は特殊)が、該当する斉次多項式の「有限個」の平均値で、厳密に表現できるという性質である。言わずもがな、t=2の場合が、ユニタリー2デザインである。
 だから何だ・・・という話であるが、本稿で重要なことは、「不毛な台地は、量子回路がユニタリー2デザインを成すことが原因の一つである」[*A-17]ということである。ちなみに、英語表記だと2-designとハイフン付きなので、日本語でも2-デザインと表記される(ことが通常である)。
 ちなみに、量子tデザインという概念もある。

❚本論文のロジック❚ 
 本論文の目標は、量子誤り緩和の情報理論的限界を定めることである。これは、モデルにおける量子誤り緩和のサンプル複雑性を調べることによって行う。量子誤り緩和のサンプル複雑度とは、「目的の量子誤り緩和出力を実現するために必要な、ノイズのある出力状態のコピーの数(サンプル数)m」である。この数値mが、与えられた量子回路と⓵ノイズ・チャネルで、どのように変化するかを定量化する。
 本論文では、量子誤り緩和を機能させるために、指数関数的に多いコピー数mを必要とする”最悪の”量子回路を与える。具体的にいうとこの回路は、「ノイズのない、ユニタリー2デザインを成す量子回路」とノイズ・チャネルを交互に配置した回路である。この量子回路の出力状態は、ノイズ下で、回路深度Dと量子ビット数nに関して指数関数的に速く、最大混合状態🐾6に収束する。指数関数的に速く最大混合状態に収束することが、指数関数的に多いサンプル数に繋がっている。
 なお、⓵ノイズ・チャネルには、㊀脱分極チャネルと、㊁非ユニタリーノイズチャネルを採用している。
🐾6 密度演算子ρがI/2nの量子状態。Iは、恒等演算子。

❚考 察❚ 
(1) 本論文は、最悪の量子回路を導入したと言う建付けであるが、QEMの研究にユニタリーtデザインを導入した論文という見方をしたほうが面白いだろう。
(2) 本論文で扱われた最悪の量子回路は、ユニタリー2デザインを成す回路を含んでいる。つまり、不毛な台地を惹起する可能性がある🐾7。不毛な台地が生じることをトリガーとして、QEMにおいて指数関数的なサンプル数が必要となるのであれば、肚落ちする。ユニタリー2デザインを避ければ、指数関数的なサンプル数は必ずしも必要ではないのだろう。要は、有用なユースケースに相当する量子回路が、ユニタリー2デザインを成すか否かであろう。
 ちなみに、パウリ群はユニタリー1デザインで、クリフォード群はユニタリー3デザインである。クリフォードゲートだけで構成された量子回路は古典的に効率的にシミュレートできること(Gottesman-Knillの定理)が知られている🐾8
🐾7 [*91]には、「変分回路が2デザインの場合に、不毛な台地が成立する」と報告されている、との記述がある。そして、2デザインが実現するゲート数より少ないゲート数の量子回路を考えることで、不毛な台地が回避できることも、記述されている。
🐾8 [*91]には、特定の量子化学計算では、不毛な台地が発生しないことが記されているが、そのようなケースは、古典計算で高精度計算が出来ることも記されている。変分量子アリゴリズムに量子優位性はない、と言われる所以である。
(3) ユニタリーtデザインによって、QEMの研究あるいはノイズ識別の研究が進展すると面白い。❚背景❚でも触れたように、「クリフォード・ゲートにQEC、非クリフォード・ゲートにQEMを用いることで、NISQでも、誤り耐性量子計算を実行可能な量子コンピューターと同等の計算ができる」から、非クリフォード・ゲート向けのQEM研究が進むと面白い。

Appendix6_1 リバーレーンのレポート(24年10月)
 英リバーレーン(Riverlane)♌1及びResonance♌2は、「量子誤り訂正(QEC)に関する技術開発の現状を概説し、量子コンピューティングにおける現在の決定的な課題に関する貴重な洞察を提供する」The Quantum Error Correction Report 2024(以下、本レポート[*A-20])を公開した。本レポートにおける全ての情報は、2024 年10月10日を最終時点として、正確性を表明している。
♌1 量子コンピューター用OSの開発等を行っている量子ソフトウェア分野の英国スタートアップ。今では、リアルタイム復号器の開発で名を馳せる。
♌2 先端技術に関する技術情報プロバイダー。カナダ・トロントに本社を置く。

【1】QECの重要ポイント 
 掲題について、本レポートからポイントを切り出して、まとめた。
(1) QEC を実装するには、次の条件を満たす量子ビットが必要である:
❶ QECしきい値を下回る物理量子ビット誤り率 
❷ QECオーバーヘッド(あるいは量子ビットオーバーヘッド)と呼ばれる、低い物理量子ビット対論理量子ビット比 
 QECしきい値は、2量子ビット・ゲートの場合、誤り率でおよそ10-2(つまり約1%)である。この値を下回る誤り率でQEC が可能になる。ただし、オーバーヘッドは QECしきい値で無限大に近づくため、オーバーヘッドを実用的にするには、QEC しきい値を大幅に下回る必要がある。したがって、実用的な QEC しきい値・誤り率は10-3であると広く考えられており、これは「スリー ナイン」とも呼ばれる。

(2) 単に、スリーナインが達成されるだけではダメ 
① リーク率が低いことが求められる。リーク(リーケージ)とは、量子ビットが量子ビットでなくなり、より高いエネルギー状態にジャンプするタイプのノイズである。
② 単一の2量子ビット・ゲートでスリーナインを達成するのではなく、複数の(大量の)2量子ビット・ゲートで(あるいは大型デバイス)で、スリーナインを達成する必要がある。
③ QECのスケーラビリティ達成においても、量子ビットあたりのコストを削減し、量子コンピューターの電力効率を高める必要がある。

(3) QECへの要件 
1⃣ 高速で実行 
 各 QEC ラウンドは、訂正不可能な量子誤りにつながる遅延を回避するために、高速 (<1µs)かつ決定論的(十分に決定された時間に迅速に応答)である必要がある。
2⃣ 膨大なデータ量への対応 
 非常に高い命令帯域幅、具体的には100TB/s が必要である。これは、1 台の量子コンピュータが Netflix の全世界のストリーミング・データ全体に相当するデータを、毎秒処理および修正するのと同等である。
3⃣ QuOp 
 QuOpは、量子アルゴリズムの複雑さのプロキシであり、古典コンピューターにおける「1 秒あたりの浮動小数点演算(FLOPS)」と同様の役割を果たす。メガQuOpは、信頼性の高い量子演算を100万回行ったことを意味する。(リバーレーンによれば、)メガQuOpはスパコンと同等の能力を表象しているので、重要なマイルストーンである。ちなみに、RSA 暗号を解読するには 13テラQuOpが必要と推定されている。
 要するに、メガQuOpやテラQuOpを実現する規模の論理量子ビット・ゲートや論理深度において、QECは機能すべきということである。そのために、高速で実行される必要があるし、高帯域幅で実行される必要があるし、リアルタイム復号が必要になる。
❚参 考❚ 英Quantum Mission One(2023) 
 Quantum Mission Oneは、次の目標を掲げ、バックキャストでQEC の必要性を訴えている:
㈠ 2028 年までに、100 万回の量子演算(メガQuOp)で NISQ 時代を超えて『触媒設計の改善など、化学プロセスのシミュレーション』に関連するアプリケーションの調査を可能にする。
㈡ 2032 年までに、10 億回(ギガQuOp)の量子演算で大規模な量子誤り訂正機能を実証し『創薬の加速』などのアプリケーションを実現する。
㈢ 2035 年までに、1 兆回(テラQuOp)の量子演算を達成することで大規模な量子優位性を実現し『クリーンな水素生産の最適化』などのアプリケーションを実現する。

【2】過去 3 年間の主要な研究のブレークスルーのタイムライン
 本レポートにおいて、掲題は、以下のように記述されている(リバーレーンの宣伝も若干含まれているような気もする)。
(1) 2021 年、米クオンティニュアム♌3が開発した10 量子ビット デバイスを使用して、小さなカラー符号で QEC を実行した。
(2) 20 量子ビットのトラップイオン型デバイスを使用して、クオンティニュアムは 2 つの小さな QEC符号間で誤り訂正を実行した。
(3) 蘭デルフト工科大学が7 量子ビットのエラー検出表面符号で論理演算を行ったとき、超伝導量子ビットで目覚ましい進歩があった。
(4) 2021 年、スイス連邦工科大学チューリッヒ校チームは、17 量子ビットの表面符号を実証し、優れた結果を達成した。
(5) 2022年11月、米イェール大学のチームは、量子誤り訂正を実証し、個々の量子ビットレベルで量子ビットのコヒーレンス寿命を改善した。
(6) 米グーグルは、表面符号に合わせて調整された2次元格子に配置された72個の量子ビットを持つSycamore量子チップを使用して、画期的なQEC結果を達成した。チームは、それぞれ1つと2つのエラーを修正できる17個と49個の量子ビットを持つ表面符号を使用して、QECを繰り返し実行した(最大25回)。そして、より多くの物理量子ビットが使用されるほど論理量子ビットが改善されるというQECの特徴的な特徴を示した。👉 本サイトでは、こちら
(7) 最大の驚きは、2023年に別の量子ビットタイプからもたらされた。米ハーバード大学が率いるチームが米QuEra♌4および米マサチューセッツ工科大学と協力し、再構成可能な原子アレイを劇的に改善し、最大280個の量子ビットを含むいくつかの大規模なQEC実験を可能にした。これはこれまでで最大のデモンストレーションである。👉 本サイトでは、こちら
(8) 現在最速の量子ビットタイプ(超伝導)でも、指数関数的な復号バックログを防ぐのに十分な速度で動作しながら、約 1000 量子ビットの表面符号にスケーリングする復号器も、2023 年に初めて使用された。
(9) リバーレーンのそのような復号器の 1 つには、5 件の特許出願が含まれており、最大 1,000 量子ビットのQEC符号を 1µs未満で復号し、FPGAのフットプリントの5%未満しか使用しなかった。これらの復号器は、現在最速の量子ビットタイプ(超伝導)でも指数関数的な復号バックログを防ぐのに十分な速度で動作した。
(10) リバーレーンは、復号問題を並列化する手法について 2023 年 10 月に特許を公開し、取得した。大きなグラフ問題が小さな問題に分割される手法により、いくつかの基本的なスケーリングの課題が克服された。
(11) 2024年2月、加Nord Quantique♌5は量子誤り訂正を実証し、個々の量子ビットレベルで量子ビットのコヒーレンス寿命を改善した。
(12) 2024年3月、米IBMはNatureの表紙でQECを特集した。研究者は量子誤り訂正符号を作成した。この符号は、量子メモリでは、確立された量子誤り訂正プロトコルと同様に機能するが、必要な量子ビットは約10分の1しかなかった。👉 本サイトでは、こちら
(13) 2024年4月、クオンティニュアムと米マイクロソフトは、リアルタイムQECには適さない事後選択技術を使用していたにもかかわらず、4論理トラップイオン量子ビットデバイスで論理エラー率が物理エラー率の800倍低いことを実証したと主張した。👉 本サイトでは、こちら
(14) 2024年5月、リバーレーンとデルフト工科大学のチームは、リーケージを考慮した復号に取り組んだ。この復号器は、このタイプのノイズの処理において新記録を樹立し、推定される QEC オーバーヘッドの大幅な削減をもたらした。
(15) 2024 年 9 月、マイクロソフトとクオンティニュアムは12 個の論理量子ビットで量子誤り訂正を達成した。これは、計算と量子誤り訂正を効果的に組み合わせた最初のデモンストレーションである。👉 化学系のエンドツーエンド量子シミュレーションに関しては、こちらを参照(ただし、軽くしか触れていない)。
(16) 2024年9月、グーグルはストリーミングによる、しきい値以下の実時間量子誤り訂正を明確に実証した。これは画期的な成果であり、QECが理論だけでなく実際に機能することを実証した。👉 本サイトでは、こちら。なお、本リポートの文末脚注18は、参照している論文が誤っている。
(17) 2024 年 9 月、Amazon Web Services(AWS)は、5 つの猫量子ビットと 4 つの補助的なトランズモン量子ビットを使用して、しきい値を下回る 符号距離が5である繰り返し符号を実装した。このスキームは、イェール大学のボソニック符号の研究にも触発されている。👉 本サイトでは、こちら
(18) 2024年10月、リバーレーンは、米リゲッティ♌6の超伝導QPU(量子処理装置)の制御システムに統合されたスケーラブルなFPGA復号器を使用して、高速フィードバックとリアルタイム復号を実証した。これは世界初の低遅延QEC実験である。
♌3 イオントラップ方式量子コンピューターを開発する"大"企業。24年1月16日には、プレマネーUS$5bilで、US$300milの資金調達を行ったと発表。三井物産も(引き続き)ラウンドに参加している(当該ラウンドの出資額は、US$50milと言われている)。
♌4 中性原子方式量子コンピューターを開発するスタートアップ。ハーバード大・MITのスピンアウト企業。楽天が出資している。北川拓也氏が戦略顧問を務める。
♌5 超伝導方式量子コンピューターを開発するスタートアップ。住友商事が出資している。QEC符号として、ボソニック符号のGKP符号を採用している。
♌6 超伝導方式量子コンピューターを開発する企業。22年3月2日、NASDAQにSPAC上場。上場基準を満たしていないという警告を2度受けている。

【3】注目すべき量子誤り訂正符号
 本レポートにおいて、掲題は、以下のように表現及び記述されている。
(1) 表面符号・・・安全な賭け
 表面符号は、現時点におけるQEC符号の最有力候補であり、次の利点がある:
① 高いしきい値(つまり、QEC符号は、物理量子ビットの誤り率が高い場合でも有効)。
② 超伝導やシリコンなどの 2次元に配置された量子ビットとの互換性。
③ 復号はグラフィカルな問題にマップされ、MHz の速度で高速かつリアルタイムに解決できる。
④ 格子手術やトランスバーサル・ゲートといった、誤り耐性に至る(論理ゲート操作や論理ゲートの)良く理解された経路がいくつかある。
⑤ 長年の研究によってストレス テスト済み。
👉③ 表面符号に対して標準的に用いられる復号アルゴリズムであるMWPMアルゴリズムは、復号に、量子ビット数nの多項式時間を要する。このため、リアルタイム復号を実行することは、「遅くて無理」と評価されている(と思われる)。

(2) カラー符号・・・表面コードに次ぐ 2 位
 カラー符号は表面符号に似ているが、次の点が異なる(下記分析には、カラー符号であるSteane符号も含まれている):
① 復号はグラフの問題ではないため、復号は遅く、精度も低い。最新の結果では、表面符号よりも 2 倍多くの量子ビットが必要で、復号は遅い。
② カラー符号では、論理操作・論理演算♌7が若干簡単になるものの、他の欠点は克服されていない。
③ カラー符号では、ハードウェア接続がより複雑になる(シンドローム抽出回路が、4近傍よりも高い接続性を必要とする)。超伝導量子ビットやシリコン量子ビットで実現するのは、非常に困難である♌8
♌7 カラー符号は(魔法状態を準備することで)、非クリフォード論理演算を実行できる。
♌8 グーグルは、超伝導量子ビットでカラー符号を実装し、符号距離スケーリング等を示すことに成功した。こちらを参照。

(3) qLDPC符号・・・注目に値する、リスクと報酬の高いアプローチ
⓪ 単一の論理量子ビットを符号化する平面符号とは異なり、qLDPC符号は複数の論理量子ビットを符号化できる。
① qLDPC符号では、実際のシステムで完全にテストされていないものの、同じ計算能力を実現するために使用する量子ビットの数が少なくなる可能性があることが証明されている♌9
② qLDPC符号は未熟であり、実際のシステムではまだ実証されていない。
③ 論理操作・論理演算を実行するための効率的な方法があるかどうかは不明である♌10
④ qLDPC符号は、非常に高いハードウェア接続要求♌11によって妨げられ、適用される量子ビットの種類が制限される。
♌9 論理量子ビット数と符号距離が、物理量子ビット数に対して共に「線形にスケールする」と考えられている。
♌10 非クリフォード論理ゲートの実装方法が不解決であったが、IBMは解決した、としている[*A-25]、[*A-26]。
♌11 長距離接続性に制限のあるモノリシック・デバイスに実装するのは困難とされる。また、高い接続性要求は、分散環境で実装する(つまり、モジュラーアプローチの)場合、ネットワークのスループットに対する要求が高くなることを意味する。

(4) Bacon-Shor符号・・・スケーラブルなソリューションではない
 Bacon-Shor符号 の主な利点は、小さな局所的な量子ビット グループに焦点を当てることで、量子誤り検出を簡素化し、ビット反転エラーや位相反転エラーの修正を容易にすることである。ただし、QECしきい値がないため、符号距離を拡大することで論理エラーを抑制し続けることはできない。

(5) ボソニック符号・・・QECを必要とする量子ビット タイプ
 ボソニック符号 は、ある種のノイズに対して堅牢な量子ビットを構築する方法を提供する。これらは次のように考えるのが最適である:
① 異なるタイプの QEC符号ではなく、新しい量子ビット タイプ♌12
② ボソニック保護の上に、従来のQEC を必要とする♌12(再)
♌12 連続変数を用いるボソニック符号を基本量子ビットとして使用すると、離散変数を使った量子誤り訂正符号のしきい値が大幅に改善される、という事情が背景にある。

(6) MBQC符号・・・測定によって量子ビットが破壊される場合に最適
 MBQC(測定ベースの量子コンピューティング)は、量子コンピューティングを実行するための汎用的な方法である。ただし、回路ベースとは異なり、MBQC では、エンタングルされたリソース状態に対する単一量子ビット測定を通じて計算を実行する。次に、量子誤り訂正符号が、リソース状態に埋め込まれる。

Appendix6_2 リバーレーンのレポート(25年11月)
【0】はじめに
 英リバーレーン及びResonanceは、24年に引き続き、25年にも量子誤り訂正(QEC)レポート🐾1を公開した(25年11月)[*A-29]。重複する(更新されておらず、コピペ的な)部分もあるが、25年の中心トピックスは、「リアルタイム復号」だと思われる。以下、(一部、24年版と重複する部分もあるが)重要と思われる部分を抜粋し、簡潔にまとめた。
🐾1 25年レポートにおける全ての情報は、2025年10月1日時点のものである。24年レポートは、2024年10月10日時点のものであった。

【1】量子ビット技術の動向まとめ 
❒ 過去12ヶ月間で、主要な量子モダリティ(中性原子、光、シリコン・スピン、超伝導、トラップイオン)すべてにおいて、QECしきい値を超えた。
❒ 「表面符号×量子メモリ実験」を対象として、グーグルのWillow チップは損益分岐点を大幅に上回ってみせた。この結果は、QEC理論が実際に誤差を低減できることを明確に示した。
❒ 米ハーバード大学他は中性原子モダリティにおいて2つの重要な成果をあげた:㊀量子ビット数448の中性原子マシンを作成し、しきい値以下の表面符号と3D符号上の汎用論理ゲートを実証した。㊁3,000個の中性原子を2時間連続でリロードするデモを行い、中性原子方式量子コンピューティングにおける主要なスケーリング課題の1つに対処した。
❒ トラップイオン・モダリティは2つの注目すべき成果を上げた:㊀米クオンティニュアムは、98量子ビット・プラットフォームHeliosにおいて、全量子ビットペアにおいて2量子ビットゲート忠実度99.921%を達成した。㊁英オックスフォード・アイオニクス🐾2は2量子ビット・ゲートで、99.99%の忠実度を達成した。
🐾2 米IonQに買収された(25年6月9日発表、10月10日に買収完了を発表)。買収金額は、US$1,075mil。

【2】資金調達及び量子戦略 
 公的資金の観点から見ると、日本は2025年10月1日時点でUS$7.9bilの資金調達を行い、現在圧倒的なシェアを占めている❚補足❚。2025年1月、日本政府は次世代チップと量子コンピューティングの研究に1兆500億円❚補足❚、国内の先進チップ生産に4,714億円を計上した。これは、重要な技術における競争力維持に向けた日本の戦略を反映している。スペインもまた新たな国として、2025年に初の国家量子技術戦略を策定し、US$0.86bilの新規資金を投入する予定である。中国政府は量子技術に約US$15bilを投資していると推定されているが、この数字は公式には確認されていない。
 米国は総額US$7.7bilの資金を投入しており、DARPA(米国防高等研究計画局)量子ベンチマーキング・イニシアチブ(QBI)🐾3は、その量子戦略の中核を担っている。QBIの3つの主要な側面が、量子コンピューティング業界全体の方向性を決定づけている。特に重要な点は、以下❒・・・❒である。
🐾3 QBIは、2033年までに実用レベルの誤り耐性量子コンピュータを、従来予測よりも早く実現可能かどうかを検証・評価することを目的としている。出所:https://crds.jst.go.jp/dw/20250509/2025050941582/
❒ 競争ではなくハードルに焦点を当てる ❒
 QBIにおける成功は、実用規模の量子コンピュータ開発競争で「最初に」成功することではなく、一連のハードルを克服することにかかっている。これらの課題は、物理・経済性・サブシステムという3つの大まかな領域に分類できる。ここで、「物理=堅牢な量子ビットの開発」、「経済性=商業的に実現可能な量子コンピュータの構築」、「サブシステム=相互接続された完全な量子スタックの構築(これには、信頼性の高いサプライチェーンの確立も含まれる)」、である。
 QBIが採用する上記スタンスに対して、リバーレーンは、以下のように評価・分析している:重視するポイントは、「最良の」技術を特定することでは(必ずしも)なく、計算価値がコストを上回る実用規模で動作可能な相互接続された量子コンピュータを構築することである。したがって、異なる量子モダリティで複数の「勝者」が存在する可能性がある。成功する量子ビットの種類は、最高の性能を持つものではなく、最も低コストで最も信頼性の高いサプライチェーンを提供するものになるかもしれない。
❚補足❚ リバーレーンさん、不見識が過ぎませんか?
 2023年度補正予算で、次世代半導体及び量子コンピューター研究開発のために、1兆500億円が計上されたことを指しているようである。量子コンピューター(経済産業省所管)に限定すれば、ずっと少ない。ざっと1,000億円(US$0.65bilくらい)の規模感である。量子暗号(総務省所管)は、2026年度予算案概算要求で、576億円が要求される見込み。
 それはさて措き、「US$7.9bilの資金調達を行い、現在圧倒的なシェアを占めている」という表現は、大いにミスリードさせる文言である。

【3】QECの課題及びトレンド 
(1) QECの課題 
1⃣  高い計算複雑性 
 シンドローム・データを解析し、復号器を用いて適切な量子誤り訂正を特定するプロセスは、特に大規模な量子システムや複雑なQEC符号の場合、膨大な計算量になる可能性がある。
2⃣ 速度要件 
 誤り訂正はリアルタイムで、しかも誤りの蓄積よりもはるかに高速に実行する必要がある。リアルタイムQECを実行するために必要なハードウェアとソフトウェアの完全なセットであるQECスタックは、シンドローム情報を生成される速度で処理する必要がある。量子処理装置(QPU)がこの情報を高速に生成する場合、QECスタックは、訂正不可能な量子誤りにつながる遅延を回避するために、同様に高速(最速の量子ビットモダリティで、1µ秒未満)かつ決定論的(十分に決定された時間に迅速に応答)である必要がある。
3⃣ 高いデータ転送速度 
 復号には、量子ビットから復号器へのQECデータの転送が必要であり、非常に高い命令帯域幅を持つ復号アルゴリズムが必要である。これらのアルゴリズムは100TB/sまで拡張する必要がある。
4⃣ 統合 
 QEC技術は、物理量子ビットを操作する制御システム🐾4と緊密に統合する必要がある。また、量子コンピューティング・スタックの複数のコンポーネントを接続、テスト、検証するという、より広範なシステムレベルの課題もある。
🐾4 量子デバイスと相互作用してその動作を操作し、目的の状態を実現するハードウェアおよびソフトウェア・コンポーネント。

(2) QEC研究のトレンド 
1⃣ 全体感 
 2025年1月初旬から10月にかけて、QEC符号に関する研究発表が大幅に増加し、査読付き論文が120件新たに発表された。2024年は僅か36件であった。表面符号が依然として主要な選択肢である🐾5一方、ボソニック符号🐾6も著しい成長を見せており、AWS🐾7や仏アリス&ボブ(モダリティ:超伝導)🐾8などの企業が積極的に研究を行っている。同様に、IBMが推進する量子低密度パリティ検査(qLDPC)符号の人気も高まっている🐾9(☞5⃣)。
🐾5 リバーレーンは相変わらず(24年に引き続き)、そう主張している。
🐾6 モダリティで住み分けられている。猫符号→モダリティ:超伝導、GKP符号→モダリティ:光。
🐾7 猫符号を研究するとともに、デュアルレール符号も研究しぃている。
🐾8 猫符号一筋である。
🐾9 フィンランドのIQM(モダリティ:超伝導)もqLDPC符号推しである。
2⃣ 魔法状態培養 
 グーグルは昨年(24年)、カラー符号に関する実験論文も発表し、表面符号よりも優れた性能を発揮する可能性を示した。グーグルは、魔法状態生成に必要な物理量子ビット数を削減可能な、魔法状態培養と呼ばれる手法を開発している。カラー符号は、この手法の中核を成し、表面符号に組み込まれている。したがって、計算の大部分に表面符号を使用したとしても、カラー符号を使用して魔法状態を生成することは考えられる。
3⃣ 残課題 
 スケールアップに伴うノイズ源、特に相関誤りについては、十分に調査されていない🐾10。相関誤りの原因を特定し、可能な限り除去し、残った量子誤りを訂正できるQEC符号を設計する必要がある。
🐾10 消失ビットを使った、量子誤り検出技術を装備するQEC符号であれば、相関誤りにも対応できる(という理解)。そのようなQEC符号としては、デュアルレール符号があげられる。
4⃣ 専門家による26年展望 
 QEC符号のハードウェア実装改善への期待は高まっており、26年(まで)には、さらなるデモンストレーションが期待されている。しかしながら、「ビッグバン」的な発表は、今のところありそうにない。むしろ、実用化に向けてスケールアップしていく中で漸進的な進歩が続けられ、新たなノイズ源が発見されるにつれて、新たな課題が明らかになる可能性がある🐾11
🐾11 要するに、まだまだ前途多難ということ。今は、{脱分極ノイズ・チャネル、パウリ誤り}といった前菜ステージの先に、ようやく目線を移した、というフェーズであろう。
5⃣ 追記1:IBMのqLDPC符号推し 
 qLDPC符号の大きな課題として、復号に関する課題がある。qLDPC符号の復号は、信念伝播(BP)に続いて順序統計量事後処理ステップ復号(OSD)を実行する必要がある、と一般に認識されている。BP-OSDは汎用性が高く、あらゆるqLDPC符号に適用できるものの、復号速度が遅くなる可能性がある。
 IBMはリレーBPと呼ばれる改良アルゴリズムを発表した。このアルゴリズムは、FPGAへの実装が容易でありながら、現在の最先端アプローチよりも優れた性能を発揮する。さらに2025年10月には、2変数バイシクル(BB)qLDPC符号のメモリ実験を対象としたリレーBPアルゴリズム用のFPGA復号器を発表した。この復号器は、リレーBPの反復時間を24ナノ秒に抑え、リアルタイム復号に必要な速度と精度を実現した。
6⃣ 追記2:デュアルレール符号化 
 超伝導モダリティでは、デュアルレール符号化と呼ばれる手法が注目されている。これは超伝導回路特有のエラー特性を考慮している。一般的な量子誤りの種類は、緩和である。これは、励起状態が低エネルギー状態に緩和する現象である。デュアルレール符号化はこの知識を活用し、これらの主要な量子誤りに合わせて調整することで、効率的なQEC符号となっている。米クオンタム・サーキッツ、英オックスフォード・クオンタム・サーキッツ、米AWSが研究を進めている。
 なお、中性原子モダリティでも、(米QuEraなどで)同じことが行われている。

【4】リアルタイム復号器の実現に向けて 
(0) 論点整理 
㈠  前口上 
 リアルタイムQECの進化は、低遅延性(☞㈢)、エネルギー効率(☞㈣)、そして量子ハードウェアとのシームレスな統合(☞㈤)という大きな課題を克服することにかかっている。
㈡ 前口上の補足 
 QECの主な役割は、高スループットのシンドローム復号にある。復号では、複数の量子ビット測定と修正フィードバック演算をマイクロ秒単位でリアルタイムに行うための古典計算が必要である。それ故に、リアルタイム・低遅延・スケーラブルな復号器の開発が、重要なボトルネックとなっている。その結果、ソフトウェア・ベースのプロトタイプからFPGAなどのプラットフォーム上のハードウェア実装への移行が加速しており、将来的にはASICの導入も期待されている(☞(2))。
㈢ 低遅延性 
 リアルタイム復号には、極めて低い遅延が求められ、量子誤り検出から量子誤り訂正適用まで、復号プロセスのすべてのステップで、遅延を最小限に抑える必要がある。定量的には復号時間として10μ秒が理想とされる。
㈣  エネルギー効率 
 既存のハードウェアは、特に熱放散が大きな問題となる量子コンピューティングシステムの極低温環境という制約の中では、リアルタイム復号の計算要求を処理するのに十分な性能やエネルギー効率を備えていない可能性がある。遅延を最小限に抑えるために極低温環境で復号処理が必要な場合、熱負荷を最小限に抑えるにはエネルギー効率の高い復号器設計が不可欠である。
 アナログ回路を用いて復号処理を実行するアナログ復号手法は、遅延と消費電力を最小限に抑える可能性として研究されている。
㈤ シームレスな統合 
 復号器のハードウェアとソフトウェアを、量子コンピューティングシステムにシームレスに統合することも大きな課題である。QEC符号と復号器の共同設計への傾向は、この課題に対処することを目的としており、復号器をQEC符号固有の特性に合わせて最適化することで、全体的なパフォーマンスを向上させることを可能にする。
㈥ スケーラビリティ 
 多くの復号アルゴリズムは、短い符号距離ではうまく機能するが、距離が長くなるにつれて(より堅牢な量子誤り訂正を提供するために)扱いにくくなるため、より大きな符号距離に効率的に拡張できるアルゴリズムの設計が不可欠である。つまり、十分な速度を持ち、数百万量子ビットまで拡張可能なリアルタイム復号器の構築は、量子コンピューティングにおける現在の最も重要な課題の一つである。

(1) 一般的な量子復号器(復号アルゴリズム)の紹介 
① 信念伝播(BP) 
 BPは、qLDPC符号などの、疎なパリティ検査行列を持つ量子符号に、特に効果的とされる。BPは、ユニット間の通信を容易にするメッセージ・パッシング・アルゴリズムである。各ユニットは計算誤りの原因を特定することを目的としており、特定のユニットが量子誤りの原因である可能性についての信念を保持している。ユニットは、情報と知識を交換することで連携し、量子誤りの原因を特定する。
 標準的なBPは、複雑な量子誤り地形では収束や最適な復号を保証できない場合がある。さらに、複数の量子誤りパターンが同じシンドロームを生成する可能性がある量子縮退という課題がある。というわけで、通常はBP単独ではなく、BP-OSD(→③)という形式の復号器(復号アルゴリズム)が使用される。
② リレーBP
 リレーBPはBPを基盤としている。2025年の論文で、IBMの研究者は、リレーBPがBPの速度を維持しながら、BP-OSD(⤵③)と比較して約10倍の精度向上を実現することを実証した。さらに、リレーBPは、主要な代替手法と比較して、同様のパフォーマンス向上を示した。(既述通り)IBMは、2変数バイシクルqLDPC符号におけるメモリ実験をターゲットとしたリレーBPアルゴリズム用FPGAデコーダーを発表し、リレーBPの反復時間を24ナノ秒に短縮した。
③ BP-OSD 
 これは、順序統計量事後処理ステップ復号(OSD)と呼ばれる別のアルゴリズムと連携するBP復号器である。しかし、OSDは高コストな数学的計算を必要とするため、たとえ精度が高くても、効率的かつ費用対効果の高い方法でリアルタイム実装することは困難である。
④ 曖昧性クラスタリング 
 曖昧性(ambiguity)クラスタリング🐾12は、BP-OSDの代替として利用できる。BP-OSDは、一度に大きな問題を解こうとするため、サイズの大きな復号問題には苦労する。一方、曖昧性クラスタリングは、復号問題を扱いやすいチャンクに分割し、個別に解くことができる。IBMの2変数バイシクル(BB)符号を用いたテストにおいて、リバーレーンは最大27倍の高速化と0.3%の回路レベル誤り率を実現した(らしい)。
🐾12 正式な訳語は、寡聞にして知らない。
⑤ 最小重み完全マッチング (MWPM)
 MWPMは、表面符号御用達の復号アルゴリズムである(という理解で良い)。量子誤りモデルと測定結果(シンドローム)から導出される「シンドローム・グラフ」を活用し、このグラフ内で最小重みの完全マッチングを特定することを目的としている。
 簡単に言えば、MWPM復号器は、グラフの頂点をマッチングさせることで、観測されたシンドロームの原因となった可能性のある最も可能性の高い量子誤りセットを見つけよう(「マッチング」しよう)とする。「重み」はこれらの量子誤りの確率を表す。
⑥ 衝突クラスタリング (CC)
 衝突クラスタリング復号器は、Union-Findアルゴリズム(⤵⑦)を用いて、量子コンピュータのシンドローム抽出回路における「欠陥」を効率的に識別し、クラスタリングする。これらのクラスターを処理することで、CC復号器は最も効率的な解を見つけることなく量子誤りを訂正する方法を決定するため、次世代量子コンピュータに十分な速度、スケーラビリティ、およびリソース効率を実現する。
 リバーレーンが、採用しているアルゴリズムである。
⑦ Union-Find
 Union-Findは、その速度とスケーラビリティで知られている。低速ながらもより高精度なMWPM復号器とは異なり、Union-Find復号器は、シンドロームグラフ内の完全マッチングを見つけるのではなく、完全マッチングと論理的に等価でありながら、はるかに高速に計算可能なサブグラフを特定する。本質的には、Union-Find復号器は、測定結果に基づいてクラスターを成長させ、それらを統合することで最小重みの完全マッチングを見つける手法であるブロッサム・アルゴリズムを近似している。
⑧ 局所クラスタ復号器(LCD)
 LCDは、Union-Findに基づく、量子誤りクラスタリング・アルゴリズムの適応型分散バージョンであり、速度と精度のバランスをとっている。これは、他の復号器では速度と精度のトレードオフが必要となるため、他に類を見ない。実際、LCDは最近、すべての指標(スループット、遅延、そして物理量子ビットの追加に伴う論理誤り率の抑制を定量化するλ)において優れていることが示された(らしい)。
 LCDには、このバランスを実現するための2つの主要コンポーネントが搭載されている。復号器の拡張を可能にする復号エンジンと、リーケージ・ノイズ源に対処する適応エンジンである。

(2) リアルタイム復号を見据えた場合のハードウェア 
 FPGAは、復号アルゴリズムの高速化にますます利用されている。これらのカスタム・ハードウェア・ソリューションは、汎用プロセッサと比較して大幅に優れた性能とエネルギー効率を提供できるが、この分野にはさらなる調査が必要である。GPUとASICも、それぞれ異なるQEC機能を持つハードウェアの選択肢として考えられる。まとめると、
㈠ 量子アプリケーションの実行には、膨大な量の古典計算が必要である。加えて、膨大な量のデータをリアルタイムで処理する必要がある。膨大データ×リアルタイム処理という文脈では、GPUの活用が有効である。
㈡ FPGAは、今日のQECシステムの進化において中心的な役割を果たしている。FPGAの決定論的なタイミングと並列処理能力は、「シンドローム抽出、量子誤り復号、リアルタイム通信」に最適である。
㈢ ASICは、リアルタイムでスケーラブルなアプリケーションにQECを実装するためのソリューションを徐々に提供しつつある。性能と柔軟性を犠牲にするFPGAとは異なり、ASICは高度にカスタマイズされ、最適化された、アプリケーション固有の実装を提供する。
 ASICは消費電力が大幅に少ないだけでなく、FPGAよりも高速で、大幅に安価である。欠点は、ASICの製造には、ファウンドリによるシリコンチップへの設計「テープアウト」が必要になることである。復号器の世代交代やアップデートごとに新たなテープアウトが必要になるため、制御システムにFPGAを使用している現在のほとんどの量子コンピュータに比べて、ASICの迅速な導入は困難である。
㈣ リバーレーンは以下のように結論している:将来の量子コンピューティング環境は、GPU、FPGA、ASICがそれぞれ独自の強みを量子コンピューティング・スタックの異なる部分に提供する、ヘテロジニアスなアプローチを採用すると予測している。

【5】為参考 
(1) 制御システム
 誤り耐性量子コンピューティングの真の可能性を引き出すために必要な動的フィードバックと適応制御パルスを実現するには、高度な制御システムが不可欠である。

(2) QECとAIとの交差点 
 AIは量子コンピュータにおけるエラー・シンドロームの推定と訂正の適用に役立ち、AIの推論機能はリアルタイム復号タスクに適している。ただ、AI復号器は有望な結果を示しているものの、その実用性と拡張性については、以下のような疑問が残っている。
1⃣ スケールアップに伴う学習要件
 量子システムが大規模化するにつれて、AI復号器は精度を維持するために大幅に多くの学習を必要とする。場合によっては、システムのスケールアップに伴って精度が低下することさえあり、高い性能を維持するために必要な学習量に関する懸念が生じる。
2⃣ 復号速度 
 リアルタイム性能は大きな問題である。グーグルのAI復号器はTPUを使用していたが、NVIDIAはGPUを使用する。どちらも一部の量子ハードウェアの要件を満たすには依然として低速である。どちらの実験も、推論速度を最適化しておらず、TPUやGPUがすべての量子ハードウェアの速度要件を満たせるかどうかは依然として不明である。
3⃣ 異なるQEC符号の性能 
 AI復号器は、すべての量子符号タイプで同等の性能を発揮するわけではない。例えば、BB符号ではBP-OSD等の他復号手法よりも効果が低くなる。

(3) 初期誤り耐性量子コンピューター(初期FTQC)について 
 初期FTQCから量子優位性が得られるとは期待できない。ショアのアルゴリズムを解読したり、今日の古典的コンピュータが既に処理できないアプリケーションを解き放ったりすることはできないからである。初期FTQCは、キロQuOpレベルで動作する。しかし、リバーレーンは、「今こそ行動を起こすべき時だ」と主張する。なぜか?
 それは、量子の学習曲線が急峻で、この分野は急速に進化しているからである。FTQCに関するプログラミング、最適化、そして運用方法を習得しなければならない。完全FTQCと初期FTQCの間の期間は、ますます巨大化する量子コンピュータのインフラの導入と保守方法を量子人材に訓練する上で非常に重要である。クラウドベースのマシンは誤り耐性に最適化されておらず、NISQマシンから量子誤り訂正マシンへの移行は大きな飛躍となる。制御/読み出し/キャリブレーションにおける性能のトレードオフを最適化し、理解しようとする者は、NISQセットアップではなく、初期のFTQCテストベッドで作業を行う必要がある。
 本質的に、初期FTQCは、量子企業がQEC機能を備えたマシンを構築するメリットを実証し、かつてはSFだったものを今日の科学的事実へと変えるのに役立つ。

Appendix7 論理魔法状態蒸留を実証
【0】はじめにー研究の背景
 クリフォード・ゲートのみで構成された量子回路は、多項式時間で(いわゆる効率的に)古典コンピューターを使ってシミュレートできることが知られている(ゴッテスマン・ニルの定理)。つまり、計算複雑性の意味で量子優位性(以下、単に、量子優位性)を達成するには、非クリフォード・ゲートを含む量子回路を使って量子計算を実行する必要がある。一方で、量子優位性を達成する量子計算には、量子誤り訂正が必要であることが広く知られている。しかし残念ながら、全てのゲート操作をトランスバーサル🐾0に実行できる量子誤り訂正符号は存在しない(イースティン・ニルの定理)。
 2つの小難しい定理の結論を合わせてまとめると、”普通のやり方”では、「量子優位性を達成することはできない」ことになる。つまり、量子優位性を達成するには、何らかの”特殊な”手段を採用する必要がある。幸い、特殊な手段は豊富に存在し、一般的には「魔法状態」と呼ばれる特殊な量子状態を準備する、という回避策が採用される。ただし、これまで行われてきた魔法状態(及び魔法状態蒸留)に関する成果は全て、物理量子ビットに対する成果であった。実際に量子優位性を達成するには、論理量子ビットに対する魔法状態(及び魔法状態蒸留)を実現する必要がある。
 米QuEra🐾1🐾2の研究者は、「論理量子ビットでの魔法状態蒸留を実証した」と主張する論文[*A-22](以下、本論文)を発表した(24年12月20日@arXiv)。量子誤り訂正符号には、2次元カラー符号が採用されている。
🐾0 QuEraの北川CTOが、SNSで「横断」という日本語をあてている。ゆえに、横断を(量子操作の文脈における)トランスバーサルの正式な訳語と考えて差支えないであろう。
🐾1 中性原子方式の量子コンピューターを開発しているスタートアップ。
🐾2 米MIT(マサチューセッツ工科大学)、米ハーバード大学

【1】本論文の主張❚
(1) 中性原子方式量子コンピューター🐾3で、論理レベルの魔法状態蒸留を実現した。
(2) 具体的には、符号距離3及び5の2次元カラー符号で、出力魔法状態の忠実度が、入力魔法状態の忠実度を超えたことを実証した(☞【3】参照)。
(3) ただし、㊀魔法状態蒸留工場の「受け入れ率🐾4」が1/6に過ぎず(☞【4】(1)参照)、㊁符号距離が3であるにもかかわらず、論理誤り率の2次抑制しか達成できていない(☞【4】(2)参照)。
🐾3 中性 87ルビジウム原子に基づく、QuEraの Gemini級量子コンピューター。Gemini級は、256 量子ビットを備えた最先端デュアル・モード量子コンピュータで、アナログ量子モードとデジタル・モードの両方を統合している。Gemini級は、2022 年 11 月から Amazon 量子クラウドで公開されている Aquila クラス システムの次世代アップグレード。
🐾4 スタビライザー事後選択の結果、拒否されずに、受け入れられる割合。

【2】本論文の概要
(1) 魔法状態蒸留プロトコル(MSDプロトコル)の概要 
  魔法状態(Magic State)は2次元カラー符号を使用して符号化され、その後、5対1の蒸留が実行される。5対1とは、入力5で出力1を意味している。5つの入力とは、5 つのノイズの多い論理魔法状態である。1つの出力は、言うまでもなく、蒸留された論理魔法状態である。4つの論理量子ビット(本論文では、蒸留シンドロームと呼ばれる)に対して測定を行うことで、スタビライザーが効果的に測定される、と主張する。
 一連の手続きは、MSD(Magic State Distillation)プロトコルと呼ばれている。また、MSDプロトコルを物理的に実装した量子回路は、MSD工場と呼ばれる。4 つの蒸留シンドローム論理量子ビットのすべての物理量子ビットと、出力魔法状態のすべての物理量子ビットが、トランスバーサルに測定され、忠実度が比較される。出力魔法状態の忠実度が向上していれば、蒸留成功である。
 なお、2次元カラー符号を選択した理由は、「2次元カラー符号は、完全なクリフォード群をトランスバーサルに実装できるから」である。具体的には、符号距離3の[[5,1,3]]カラー符号🐾5と、符号距離5の[[17,1,5]]カラー符号🐾6を使用した。
🐾5 5 つの物理魔法状態をカラー符号内の 5 つの論理魔法状態に注入し、論理MSDを実行する回路は、符号距離3の場合、35 個の物理量子ビットが必要である。状態注入は、🐾7を参照。
🐾6 符号距離5の場合は、85 個の物理量子ビットが必要である。

(2) 論理魔法状態蒸留(MSD)を実現した技術の概要
1⃣ 前説 
 論理レベルでの(=論路量子ビットを使った)MSDは種々提案されているものの、これまで実証されていなかった。本論文で論理MSDを実現できた技術的な理由として、「中性原子プロセッサの動的な再構成可能性」と「中性原子プロセッサの高度な並列制御」が上げられている。
 論理レベルで、出力魔法状態の忠実度が入力魔法状態の忠実度を超える、論理MSDを実現するには、論理量子誤りを減らす必要がある。そのために、状態注入🐾7回路と論理MSD回路の最適化を行っている🐾8。ここで言う最適化は、エンタングルメント・ゲート数を最小化することを意味している。
🐾7 物理量子ビットを入力として受け取り、その状態を論理量子ビットに符号化することを、「状態注入」と呼ぶ。
🐾8 そもそも論として、高忠実度の魔法状態を準備するために必要とされるステップは2つある。それが「状態注入」と「魔法状態蒸留」である。
2⃣ 技術的要件 
 モダリティとして中性原子を採用している本論文の場合、上記2つの重要な論理量子回路の最適化においては、原子移動を最小化した実装がカギとなっている。そして、この実装を可能足らしめているのが、 中性原子プロセッサの動的な再構成可能性及び高度な並列制御である。
 本論文における論理量子回路は、トランスバーサル演算を備えた2次元構造で設計されている。トランスバーサル演算は水平方向に並列、論理状態注入は、垂直方向に並列になるように設計されている。すべての原子は静的空間光変調器トラップ内に”ホーム ポジション”を持ち、ゲートの各層では、原子の半分未満を選択し、それらをゲート・パートナーの近くで、水平または垂直に移動してから戻す。このとき、移動によって原子の順序が変更されることはない。

(2) 量子誤りモデルの概要 
 ランダム化ベンチマーク(RB)🐾9を使用して、1量子ビットゲートと 2 量子ビットゲートを較正およびベンチマークしている。状態準備および測定エラーは合計 1%と(推定)されている。
 量子誤りモデルは、脱分極パウリチャネルである。グローバルおよびローカル1量子ビットゲート誤りは、1量子ビットチャネルとして組み込まれる。 2 量子ビット ゲート誤りは、Z および ZZ 位相反転チャネルに偏向した 2 量子ビットの脱分極パウリチャネルによってモデル化される。全体として、「(本論文の)量子誤りモデルは、実験的に観測されたスタビライザーおよび論理的結果と良好な一致を示している」と記述されている。
 音響光学偏向器🐾10による原子の移動は、2 つの異なる方法でも量子誤りを引き起こす。移動する原子では、ピンセット光によって量子ビット周波数のシフトが発生し、位相反転誤りが発生する。移動中は、すべての量子ビットのアイドリング誤りも考慮する。量子誤りの種類ごとに、原子配列全体で均一であると想定し、大きさは各操作の独立したベンチマークから導出される。
🐾9 言わずもがな、RBは量子ゲートの忠実度評価に特化した評価方法である。
🐾10 中性原子方式では、㊀原子は、レーザー冷却されて磁気光学トラップにトラップ、㊁空間光変調器によって生成された静的光ピンセットにロード、㊂音響光学偏向器によって生成された動的ピンセットによって移動、される。

(3) 復号の概要
 復号方法は、ルックアップ・テーブルの直接サンプリングによって構築された最尤復号器(MLD)と、混合整数プログラミングに基づく最尤誤り(MLE)復号器の2つを使用している。MLD復号器を使った復号方法は、ルックアップ・テーブルの空間計算量が指数関数的であるため、小さな符号距離でのみ機能する。つまり、符号距離5 での復号器に使用することは現実的ではない。そのため、符号距離5 では、MLE復号器を使用している。
 さらに、出力魔法状態の忠実度をさらに高める目的で、オプションとして、スタビライザーの事後選択を実行する。

【3】数値的な結果
 論理魔法状態の忠実度は、符号距離3の場合は 95.1% から 99.4%に向上した。符号距離5の場合は 92.5% から 98.6%に向上した。

【4】考察
(0) 一言で言えば、「大きな一歩であるが、実用レベルまでの道のりは、まだ遠い」となるだろうか:論理レベルでの魔法状態蒸留を実証したが、符号距離は5に留まっている。当然ながら、計算複雑性の意味で量子優位性を達成するための技術的基盤を整備するまでの道のりは、まだ遠い。
(1) 符号距離3の場合、物理誤り率を1/2に削減できると、スタビライザー事後選択なしで蒸留ゲインが得られると推定されている。つまり、物理誤り率を1/2に削減できれば、受け入れ率1になり、ハードウェア効率的になると考えられる。ただ、あくまで符号距離3なので、実用的スケールには、遠いということになるだろう。
(2) 蒸留後の論理魔法状態の忠実度は、物理誤り率に対して2次関数的に変化する。つまり、物理誤り率が高くなる(1に近づく方向に変化する)と、忠実度が2次関数的に低下する。一方、蒸留前の論理魔法状態の忠実度は、物理誤り率に対して線形に変化する(低下する)。
(3) カラー符号の大きな欠点としては、復号の速度が遅く、復号の精度が低いことが指摘されている。この欠点は、致命的であるため、克服しなければ、本論文の結果も意味を失うかもしれない。
(4) 入力魔法状態の忠実度が符号距離に関してスケールしていない(95.1%から92.5%に低下している)ので、"全体として"スケールしてない。しかし、入力→出力における忠実度の向上は上がっている(99.4%/95.1%<98.6%/92.5%)。つまり、蒸留プロセスはスケールしていると考えて良いのだろう。状態注入プロセスが、復号精度の向上等で改善されれば、全体で符号距離スケーリングが達成されるのかもしれない。そうなると、かなり面白くなる(気がする)。
❚為参考❚
 魔法状態蒸留(MSD)の基本動作は、1サイクルの量子誤り訂正である。復号の精度が低くても、遅くてもMSDは破綻する。QuEraは、トランスフォーマー・ベース(機械学習ベース)の復号器を、MSD用復号器(の一候補?)として考えている。機械学習ベースなので学習データが必要であるが、大量の実データは存在しない。そこで、古典コンピュータを使って、学習データを生成する必要がある。この学習データの生成は、米NVIDIAが支援していることを、NVIDIAがアピールした(25年3月18日)[*A-28]。

Appendix 8 QEC✖機械学習・深層学習 
【0】はじめに
 量子誤り緩和(QEM)と機械学習・深層学習の親和性は高い。カナダの量子ソフトウェア・スタートアップ1QBitあるいは、日本のIPA(情報処理推進機構)2020年度未踏ターゲット事業採択プロジェクトなどで、行われてきた。量子誤り訂正(QEC)の文脈では、仏Alice&Bob(H/Wベンダー)、イスラエルのQuantum Machines(S/Wベンダー)及び学術機関が主導する「アルテミス・プロジェクト」が先駆けであろう。強化学習ベースの量子コントローラーを開発するというプロジェクトである。コントローラー≒復号器という理解で良いであろう。もっとも、ニューラルネットワークベース復号器としては、グーグルのAlphaQubitに大きく水を開けられた、と言えるだろう。
 米ペンシルベニア大学🐾1と中国・北京大学の研究者は、量子誤り訂正(QEC)において機械学習・深層学習が果たす役割についてまとめた論文[*A-23](以下、本論文)を発表した(24年12月29日@arXiv)。レビュー論文というより、QECのテキストと解釈した方が実態にちかいかもしれない。
🐾1 アイビーリーグの1校。日本では、ウォートン・ビジネス・スクール(全米で初めて設置されたビジネス・スクール)で有名。なお、ペンシルベニア州立大学も、名門州立大学(パブリック・アイビー)として知られている。

【1】量子誤り訂正の簡単な整理
 本論文では、紙幅の制約により、ショア(Shor)符号、スティーン(Steane)符号、および表面符号の 3 つの量子誤り訂正(QEC:Quantum Error Correction)符号に焦点を当てている。
(0)  ショア符号とスティーン符号の概要 
1⃣ ショア符号 
 最も有名な量子アルゴリズムである「ショアのアルゴリズム」を開発したピーター・ウィルストン・ショア🐾2によって、1995 年に導入されたショア符号は、最初の QEC符号である。量子誤り訂正符号なんて作れるの?と疑問視されていた中で、鮮やかに提示して見せた。
 ショア符号は、9 つの物理量子ビットを使って1 つの論理量子ビットに符号化し、ビット反転誤りと位相反転誤りの両方を含む任意の1量子ビット誤りを訂正できる。具体的には、2 つの古典的繰り返し符号を組み合わせることで、これを実現する。1 つはビット反転誤りを訂正するためのもので、もう 1 つは位相反転誤りを訂正するためのものである。※為念:「繰り返し符号」は、1種類の量子誤りしか訂正できない。
🐾2 ちなみに、高校時代は国際数学オリンピックに参加している。
2⃣ スティーン符号 
 1996 年にアンドリュー・スティーンによって提案されたスティーン符号は、古典的な[7,4,3]ハミング符号から派生した 7 量子ビット符号である。スティーン符号は、CSS(Calderbank-Shor-Steane)符号の代表的な例でもあり、ビット反転誤りと位相反転誤りを個別に訂正できる。論理量子ビットは、ハミング符号から派生した符号語を使用して符号化される。スティーン符号には、ショア符号よりも少ない物理量子ビットを使用して1量子ビットの量子誤りを訂正できるという利点があり、リソース効率が向上する。
3⃣ 共通プロセス:スタビライザー測定→シンドローム生成→誤り訂正 
 ショア符号及びスティーン符号(、並びに表面符号)の量子誤り訂正は、まず、スタビライザー🐾3(群の)生成元を測定すること(スタビライザー測定)から始まる。スタビライザー測定は、ビット反転誤りまたは位相反転誤りの発生を示すシンドロームを生成する。量子誤りが特定されると、適切な量子ゲートを適用して、量子誤りを訂正し、論理量子ビットを復元する。
🐾3 ☞(2)を参照。

(1) 表面符号の概要 
 2003 年にアレクセイ・キタエフ🐾4によって提案された表面符号は、2次元平面(=表面)上に配置された物理量子ビットで構成する2次元格子に論理量子ビットを符号化する。物理量子ビットは、最近接結合を通して局所的に相互作用する。この局所性により、表面符号は、大規模な量子コンピューティングに特に適している。
 表面符号の主な利点の1 つは、誤りしきい値が、比較的高い(約 1%)ことである。つまり、量子誤り訂正プロセスが信頼できなくなる前に、最大 1% の誤り率を許容できる。この堅牢性により、表面符号は量子誤りに対して、非常に耐性がある。表面符号では、量子誤りは量子ビット格子の欠陥として表示され、スタビライザー測定によって検出される。表面符号の復号アルゴリズムは、一般的に、最小重み完全一致(MWPM)アルゴリズムが使用される。
 表面符号のもう 1 つの重要な利点は、スケーラビリティである。ここで言及しているスケーラビリティとは、「表面に物理量子ビットを追加するだけで、量子誤り訂正機能を自然に拡張できる」性質を指してる。スケーラビリティ、堅牢性及び、超伝導量子ビットなどの現在の量子ハードウェアプラットフォームとの互換性があるため、表面符号は、代表的な量子誤り訂正符号とされている(いた?)。
🐾4 天才の誉れ高いキタエフは、量子情報理論の世界では、ソロヴェイ・キタエフの定理で、その名が知られてる。物性物理の世界では、キタエフ模型(元々、トポロジカル量子計算を実現するモデルとして考案されたが、量子スピン液体を実現可能なモデルとして注目された)で知られている。

(2) スタビライザー 
0⃣ 概要ーもわっとした説明 
 ダニエル・ゴッテスマン🐾5によって開発されたスタビライザー形式は、QEC符号を記述するフレームワークである。スタビライザー形式は、QEC符号の特性を、スタビライザー(群の)生成元🐾6の観点から表現することで、QEC符号の記述と分析を簡素化する。また、符号化および復号回路の設計を容易にし、符号化された量子情報を崩壊させることなく、QEC符号がスタビライザー測定を通じて、量子誤りを検出できるようにする。
🐾5 量子情報理論の世界では、キタエフと並び称される天才であろう。スタビライザー符号、量子ゲートのテレポーテーションに関する研究が有名。ゴッテスマン・ニルの定理でも、その名を知られている。指導教官は、ジョン・プレスキル(量子情報理論の世界では、量子超越性やNISQという言葉を考案したことで知られている)。
🐾6 「スタビライザー群の生成元」を数学的な意味で少し厳密に定義すると、スタビライザー群の独立な元の最大集合、となる。なお、スタビライザー群の生成元というのは、あくまで数学的な描像である。スタビライザー群の生成元を(量子)物理的に言い換えれば、物理量に過ぎない。ゆえに、測定できる。
1⃣ スタビライザー群 
 スタビライザー形式は、数学的に言うと、スタビライザー群に基づいたフレームワークである。スタビライザー群は、n 量子ビットのパウリ群のアーベル部分群である❚補足1❚。量子コンピューティングの文脈におけるパウリ群は、「恒等演算子I及びパウリ演算子{X、Y、Z}と乗算係数{±1、±i}」の全てのn倍テンソル積で構成される。当然、スタビライザー群は一意に決まるものではなく、どのような符号形式を使用するかによって、生成元は異なる。また、「n 倍」テンソル積は、量子コンピューターの論理量子ビット数が「n」であることに対応している。
❚ 補足1 ❚ 
 アーベル群とは、可換群のことである。スタビライザー群が、可換群であることは、本質的に重要である。可換であることは、同時多角化可能と数学的に同値である。同時多角化可能であれば、同時固有状態を持つ。同時固有状態を持つことをQEC的に解釈すると、「全てのスタビライザー演算子に対して、シンドロームを同時に得ることができる」ことを意味している(ので、本質的に重要である)。
 なお、可換は(一般にしばしば)、数学において用いられる文言であり、量子物理においては(通常は、)交換可能という文言が用いられる。英語だとcommute(という動詞)があてられる。二つの演算子X,Yが、交換子積あるいはブラケット積[X,Y]=XY-YX=0を満たす場合、XとYは交換可能と呼ばれる。
2⃣ スタビライザー演算子 
 スタビライザー群の生成元=パウリ演算子のテンソル積(パウリ積)=スタビライザー(あるいはスタビライザー演算子)は、演算子を作用させても(演算を施しても)、符号空間を不変のまま保つような演算子である。不変を安定と読み替えて、安定化子=スタビライザーと呼ばれる。スタビライザーを、パウリ測定することによって、シンドロームが生成される。シンドローム(あるいはパリティ(偶奇性))とは、スタビライザー測定値が1であれば、量子誤りが発生したことを示すフラグである。というより、そうなるように、スタビライザー演算子を作る。
3⃣ スタビライザー符号 
 スタビライザーの定義から、「パウリ誤り」❚補足2❚がなければ、量子論理演算の結果は、符号空間❚補足3❚内の量子状態に留まる。このように、パウリ誤りの種類と、パウリ誤りの種類によってタグ付けされた符号空間の直交補空間が明示される、量子誤り訂正符号を、スタビライザー符号と呼ぶ。
 驚くべきことに、上記記述から明らかなように、パウリ誤りでなければ、スタビライザー符号は、量子誤りを正確に訂正することができない。
❚ 補足2 ❚ 
 パウリ誤りとは、パウリX誤り(ビット反転誤り)、パウリZ誤り(位相反転誤り)、パウリY誤り(パウリX誤り+パウリZ誤り=ビット反転誤り+位相反転誤り)並びに、その混合誤り(代表的には、脱分極誤り)である。「パウリ誤り」が発生していれば、符号空間の直交補空間に、量子状態が飛んでいく。このとき、直交補空間は、パウリ誤りの種類によってタグ付けがされている。
❚ 補足3 ❚ 
 符号空間とは、符号語で構成される状態ベクトル空間である。スタビライザー符号の場合、符号語は、スタビライザー状態と呼ばれる量子状態(状態ベクトル)である。スタビライザー状態とは、言葉で説明するとやや分かり難いが、「スタビライザー演算子に対して、固有値が+1である固有状態」である。式もどきで表現すると、スタビライザー演算子×スタビライザー状態=スタビライザー状態となる量子状態(状態ベクトル)が、スタビライザー状態である。

(3) 復号アルゴリズム 
0⃣ ルックアップテーブル 
 復号アルゴリズムは、シンドロームを解釈して訂正を適用するのに不可欠である。より小さな符号の場合(符号距離が短い場合)、事前に計算されたルックアップ・テーブルを使用して、各シンドロームを対応する訂正操作にマッピングできる。ルックアップ・テーブルは、符号距離が短い場合には効率的であるが、符号距離が長い場合は、考えられるシンドロームの数が指数関数的に増加するため、実用的ではない。
1⃣ 最小重み完全一致アルゴリズム 
 【1】(1)で言及したスケーラビリティのおかげで、符号距離を長くすることができる表面符号では、最小重み完全一致(MWPM)アルゴリズムなどの、より高度な手法が使用される。この古典アルゴリズムは、量子ビット格子で観測された欠陥を接続する最も可能性の高い、量子誤りチェーンを識別し、量子誤りパターンを効率的に復号する。MWPMは、格子内の量子ビット間の局所的な相互作用を活用するため、表面符号に特に適している。
2⃣ 信念伝播アルゴリズム 
 もう 1 つの重要な 復号アルゴリズム は、確率的グラフィカル・モデルで使用されるメッセージ・パッシング・アルゴリズムである信念伝播(BP)アルゴリズムである。QEC の文脈では、BPは量子符号のタナー・グラフ表現で動作する。ノードは量子ビットとチェック(スタビライザー)を表し、エッジはそれらの関係を表す。このアルゴリズムは、測定されたシンドロームに基づいて、グラフのエッジに沿って確率ベースのメッセージを反復的に更新して渡すことで、さまざまな量子誤りパターンの可能性を推定する。BPは、低密度パリティ チェック(LDPC)符号などの、疎パリティ検査行列を持つ量子符号に特に効果的で、正確な復号が計算上不可能な大規模量子システムに適している。アルゴリズムの反復的な性質により、局所情報を活用して確率誤り推定に収束できるため、計算効率が向上する。
 ただしBPは、複数の量子誤りパターンが同じシンドロームを生成する可能性がある量子縮退という課題がある。この問題に対処するために修正されたアプローチでは、メッセージの更新に量子縮退が組み込まれている。

【2】従来の QEC 方法の制限 
 本論文は掲題に関して、以下7つの制限をあげている。
(1) 高いリソース・オーバーヘッド
 従来の QEC 方法の主な制限は、1 つの論理量子ビットを符号化するために必要なリソース・オーバーヘッド🐾7が大きいことである。従来のQEC符号(≈論理量子ビット)は通常、多数の物理量子ビットを必要とするため、現在の量子ハードウェアにかなりの負荷がかかる。実用的な計算に適した論理誤り率を達成するには、論理量子ビットあたり数千の物理量子ビットが必要になる場合がある。つまり、1000論理量子ビットを実現するには、100万物理量子ビットが必要、というアレである。高いリソース・オーバーヘッドに関連する課題は 2 つある:
㈠ ハードウェアの制限・・・現在の量子ハードウェアは限られた数の量子ビットしか収容できないため、システムを必要なサイズに拡張することが困難である。
㈡ 制御の複雑さの増加・・・量子ビット数が増えると、制御の複雑さが増し、操作中に追加のエラーが発生するリスクが高まる。
🐾7 リソース・オーバーヘッドは、量子ビット・オーバーヘッドに加えて、ゲート・オーバーヘッド及び測定オーバーヘッドを含んだ概念である。ゲート・オーバーヘッドは、「符号化とシンドローム抽出に必要なゲートの数」で定義される。測定オーバーヘッドは、「シンドロームを識別するための測定の頻度と複雑さ」で定義される。

(2) 復号アルゴリズムの複雑さ 
 従来の復号アルゴリズムはー特に大規模な復号ではーしばしば、かなりの計算オーバーヘッドを伴う。たとえば、表面符号で一般的に使用されるMWPMアルゴリズムは、量子ビットの数に応じて変化する多項式時間計算量を持つ。同アルゴリズムは、中規模システムでは効率的であっても、特にリアルタイム復号が必要な場合(商業的には、リアルタイム復号が要求される)✖大規模なシステムでは、厳しい。
 ルックアップ・テーブルは、システムサイズが大きくなると、すぐに実用的でなくなる。BPは、より高速なパフォーマンスを提供できるが、複雑な量子誤り地形では収束や最適な復号を保証できない場合がある。

(3) 厳格な誤りしきい値要件 
 従来のQEC符号では、物理量子ビットの誤り率が特定のしきい値を下回っていなければ効果的に機能しない。ただし、多数の量子ビットで、このしきい値を下回る物理誤り率を達成することは、デコヒーレンス、ゲートの不完全性、測定エラーなどの問題により、現在の量子ハードウェアにとって依然として大きな課題である。
 また実際には、物理誤り率がしきい値に近づくと、量子誤り訂正に必要なリソース オーバーヘッドが大幅に増加する。これにより、量子ビットに対する要求が高まり、操作が複雑になる。

(4) 実装上の課題 
 従来の QEC 方式を物理量子ハードウェアに実装するには、いくつかの技術的な課題がある。量子ゲートと測定に対する高忠実度制御は、効果的な量子誤り訂正に不可欠だが、システム内のすべての量子ビットで一貫した精度を達成することは非常に困難である。量子誤りは、訂正プロセス自体で伝播する可能性があり、誤った操作によって論理量子誤りが発生し、システム全体に広がる可能性がある。さらに、シンドローム抽出に使用される補助量子ビットの測定誤差により、シンドローム・データが破損し、誤った訂正が行われる可能性がある。量子ビット間のタイミングと同期も、大規模なシステムでは大きな課題となる。大規模なシステムでは、操作が量子ビットのコヒーレンス時間内に完了するように正確な調整が必要である。量子システムのサイズが大きくなるにつれて、これらの実装の課題はさらに顕著になり、大規模な効果的な QEC の実現が複雑になる。
 コヒーレンス時間が長く、ゲート忠実度が高い超伝導量子ビットの開発など、量子ハードウェアの最近の進歩により、これらの課題の一部が部分的に緩和された。さらに、量子低密度パリティ検査(qLDPC)符号などの新しい量子誤り訂正符号は、リソース・オーバーヘッドの削減とスケーラビリティの向上に期待が寄せられている。ただし、これらの符号を実際のシステムに統合するには、効率的な復号アルゴリズムのさらなる研究と、既存のハードウェアとの互換性の確保が必要である。

(5) スケーラビリティの問題 
 ややこしいが【1】(1)で言及したスケーラビリティは、スケールアップの容易性(ability)という意味である。表面符号は、2次元格子上に物理量子ビットを追加するだけで、自然に量子誤り訂正プロトコルを拡張することができた。本項のスケーラビリティは、スケールアップの可用性(availability)という意味である。ゆえに、スケーラビリティの問題とは、スケールアップの可用性が怪しい、という意味になる。
 QECを多数の量子ビットに拡張すると、主にリソースの要求とハードウェアの制限から生じる多くの課題が生じる。量子システムのサイズが大きくなると、リソース・オーバーヘッドも大きくなる。たとえば、表面符号では、符号距離の2 乗に比例して増加する物理量子ビット数が必要となり、大規模な実装ではリソースを大量に消費する。さらに、量子ビットのコヒーレンス時間、誤り率、量子ビットの接続性などのハードウェアの制限は、システム サイズが大きくなるにつれてますます重要になる。物理システムは、これらの側面で適切に拡張できない可能性があり、大規模な誤り耐性量子計算に必要なパフォーマンス レベルを維持することが困難になる。
 もう 1 つの重要な課題は、復号遅延である。システムが拡張すると、復号に必要な時間は量子ビットのコヒーレンス時間よりも短くする必要がある。ただし、復号アルゴリズムは、システムの規模が大きくなるにつれて計算負荷が大きくなり、この要件を満たすことがますます困難になる。

(6) 動的環境への適応性が限られている 
 本項は、あまり語られていない”不都合な真実”であり、重要な論点である。従来のQECは通常、特定の量子誤りモデルに基づいて設計されており、動的または複雑な量子誤り環境に適応するのに苦労している。従来のQEC符号のほとんどは、量子誤りが、互いに独立で同一の分布(i.i.d.)に従って発生すると仮定している。しかし、この仮定は、実際の量子系では当てはまらない。実際には、環境要因や量子ビットのクロストークによって、量子誤りが相関する可能性がある。このため、従来のQECでは、量子誤りを検出して訂正することがより困難になる。
 温度、磁場、その他の環境条件の変動により量子誤り特性が動的に変化する場合、QECは、さらに複雑になる。従来のQECは、一般的にこれらの現実的な変動に対応できない。従って、実際の量子系、特に誤り率と量子誤りの種類が、時間とともに変動する環境では、その有効性が制限される。

(7) 複雑な量子誤りモデルの処理の難しさ
 量子系は、単純なビット反転誤りや位相反転誤りを超える、さまざまな量子誤りタイプにさらされているため、従来の QEC符号にとって大きな課題となっている。このような複雑な量子誤りモデルの 2 つの注目すべき例としては、非マルコフ・ノイズとリーケージ誤りがある。
1⃣ 非マルコフ・ノイズ 
 システムの時間発展が履歴に依存し、メモリ効果を示すノイズ・プロセスを非マルコフ・ノイズと呼ぶ。非マルコフ・ノイズは相関誤りをもたらすが、i.i.d.量子誤りを前提として設計された標準のQEC符号では、相関誤りを効果的に対処できない。相関誤りは、予測できない方法で複数の量子ビットに広がり、QECの全体的な有効性が低下する。
2⃣ リーケージ量子誤り 
 リーケージ量子誤り は、量子ビットが計算部分空間からより高いエネルギー水準または量子ビットのヒルベルト空間に含まれない他の状態に遷移するときに発生する。この量子誤りは、量子ビットがマルチレベル量子システムを使用して実装される、超伝導量子ビットやトラップイオンなどのシステムで特に重要である。リーケージ量子誤りは、ゲート操作中に伝播する可能性があり、量子ビットが計算部分空間内にとどまると想定する、標準的なスタビライザー測定では検出できないため、問題となる。
3⃣ 対策と新たな問題 
 上述したような複雑な量子誤りに対処するには、相関誤りと非パウリ量子誤りを検出して訂正できる高度な量子誤り訂正戦略が必要である。いくつかの技術が提案されているが、それらの方法を従来のQEC符号と統合すると、実装の複雑さが増し、既存の復号アルゴリズムと互換性がなくなる可能性がある。

【3】機械学習が量子誤り訂正にもたらす利点・まとめ 
(1) 復号効率の向上 
0⃣ 前置き 
 従来の復号アルゴリズムは、多くの場合、ヒューリスティックまたは網羅的な探索方法に依存しており、サイズ(=物理量子ビット数)が大きくなるにつれてスケーリングが悪くなり(=計算コストが見合わないほど膨大になり)、重大な計算ボトルネックが発生する。これらのボトルネックは、リアルタイムの量子誤り訂正を妨げ、タイムリーなフィードバックと高忠実度の量子ビット操作の維持との間の微妙なバランスを崩す。量子誤りが伝播してシステム全体のパフォーマンスが低下するのを防ぐには、効率的で低遅延の復号器が不可欠である。
1⃣ CNNベースの復号→ 相関誤りの識別とリアルタイム復号 
 機械学習ベース、特に深層学習アーキテクチャを利用する復号は、これらの計算上の課題を克服する上で大きな可能性を示している。たとえば、格子上の構造化データの処理に優れた畳み込みニューラルネットワーク(CNN)は、QEC復号タスクにうまく適用されている。現実的なノイズ モデルによるシミュレーションから得られたシンドロームの大規模なデータセットで学習することにより、CNN ベースの復号器は、シンドロームを訂正操作に直接マッピングすることを学習する。
 このアプローチは、従来の復号器が見落とす可能性のあるデータ内の空間相関と複雑なパターンを効率的に識別する。学習が完了すると、CNN は迅速に推論(reasoning)を実行できるため、従来法と比較して復号時間が桁違いに短縮される。このような高速化は、近い将来の量子デバイスでリアルタイムの量子誤り訂正を可能にするために重要である。
2⃣ 追加:機械学習ベースの復号→ 柔軟性
 機械学習ベースの復号器は、比較的最小限の追加労力で、新しい量子誤り源、異なる量子符号、または異種デバイス レイアウトに対応するように再学習できる。

(2) 堅牢性と適応性の向上 
1⃣ 強化学習の可能性 
 環境と対話することで意思決定を学習する 強化学習(RL)エージェントは、QEC で大きな可能性を示している。RL エージェントは、量子システムからのリアルタイム・フィードバックに基づいて量子誤り訂正戦略を適応するように学習でき、状況の変化に応じてプロトコルを最適化する。たとえば、RL アルゴリズムは、変化するノイズ・レベルと誤り相関に適応する適応型復号器の開発に使用され、全体的な量子誤り訂正性能が向上している。
2⃣ ノイズ耐性、継続学習 
 機械学習ベースのアルゴリズムは、シンドローム測定のノイズや補助量子ビット🐾8に対して耐性を持つように設計できる。このノイズ耐性は、特に誤り率が比較的高いNISQデバイスにおいて、QECの有効性をさらに向上させる。
 また、機械学習ベースのQECは、継続的に学習して適応することで、ハードウェアの欠陥や環境の乱れにもかかわらず高いパフォーマンスを維持する。
🐾8 為念:量子誤り検出と訂正に使用される追加の量子ビットである。

(3) 複雑な量子誤りモデルへの対応 
1⃣ RNN→非マルコフ・ノイズ 
 量子誤りのモデリングは、特に非パウリ誤りや非マルコフ・ノイズを扱う場合には困難な作業である。 機械学習技術はデータからモデルを構築することに優れているため、複雑な量子誤りモデリングに特に適している。実験データセットを活用することで、AI 駆動型モデルは、過度に単純化された仮定を必要とせずに複雑な量子誤りダイナミクスを捉えることができる。再帰型ニューラルネットワーク(RNN)は、シーケンシャル データのパターンを識別するように設計されているため、量子誤りの時間的依存性を捉えるのに最適である。これは、非マルコフ・ノイズに対処するための重要な機能である。
2⃣ 信頼性の向上 
 機械学習モデルは、データの傾向を分析することで、量子誤りの発生と量子系の劣化(デコヒーレンス)を予測し、プロアクティブな量子誤り訂正を可能にする。この予測機能により、量子計算の安定性が時間の経過とともに向上し、量子プロセッサの全体的な信頼性が大幅に向上する。

【4】機械学習・深層学習がQECを向上させた例・アプローチ別
 改めて言及するまでもないが、QECにおける機械学習・深層学習の全ては、復号に繋がっている。
(1) 教師あり学習
0⃣ 能書き 
 教師あり学習では、ラベル付けされたデータセットでモデルを学習し、特定のシンドロームから訂正操作を予測する。QEC の文脈では、これらのデータセットは通常、さまざまなノイズ・モデルの下でQEC符号をシミュレートすることによって生成される。データは、既知の復号アルゴリズムまたは小さな符号の正解を使用してラベル付けされ、教師あり学習モデルが量子誤り訂正戦略を一般化できるようにする。
㈠ FNNと量子自己符号化器 
 FNN(フィードフォワード・ニューラル ネットワーク)は、QECにおける最も初期の教師あり学習アプローチの 1 つである。トーラス符号に対して、FNN ベースの復号器が実証されている。また、量子自己符号化器(オートエンコーダー)は、動的量子誤り訂正の堅牢なソリューションを提供する、とされている。
㈡ CNN 
 空間相関を利用する能力でよく知られているCNN(畳み込みニューラル ネットワーク)は、表面符号などのトポロジカル量子符号に特に効果的であることが証明されている。CNN アーキテクチャは、データ拡張技術とハイパーパラメータ最適化の恩恵を受けており、高い精度とスケーラビリティを実現することが実証されている、とする。
㈢ RNN 
 シーケンシャル データを処理するように設計されたRNN(リカレント・ニューラル ネットワーク ) は、QEC復号器を動的環境に適応させる上で重要な役割を果たしてきた。RNN は、時間発展する量子誤りパターンを追跡し、モデルが変化するノイズ・プロファイルに適応できることが実証されている。
 自己相関ノイズや定常ドリフトなどの現実世界の量子誤りに対処する、超伝導量子ビット用の新しい RNN ベースの「連続的量子誤り訂正(CQEC)プロトコル」🐾9が提案されている。RNN ベースCQEC プロトコルは、ベイズ分類器に匹敵する忠実度を達成している、とされる。
🐾9 射影演算子を使ったスタビライザー演算子のパウリ測定によってシンドロームを生成するのではなく、連続的な測定によってシンドロームを生成する手法。従来手法よりも、より高速でリソース消費も少ないとされる。
㈣ GNN 
 グラフとして構造化されたデータを処理するGNN(グラフ・ニューラルネットワーク)は、QEC符号の格子構造を活用するのに特に適している。GNN は、量子ビットとスタビライザー測定値をそれぞれノードとエッジにマッピングし、符号の幾何学的特性から直接学習できるようにする。
㈤ 深層学習ではない機械学習ベースのQEC
 QECにおける教師あり学習は、ニューラルネットワークに限定されない。サポートベクターマシン (SVM) などの古典的な機械学習方法は、より小さな符号に対して解釈可能な決定境界と競争力のある精度を提供する。ただし、決定木やランダムフォレストなどの方法は、大規模な符号に関連する高次元の量子誤り空間を処理する際に課題に直面する。
1⃣ トランスフォーマーベース復号器 
 グーグルによって開発された再帰型トランスフォーマーベースの復号器であるAlphaQubit(こちらを参照)は、現実的なノイズ条件下でのシミュレーション・データと実験データの両方を活用して表面符号復号における新しいベンチマークを設定し、その堅牢性と精度を強調した。
 トランスフォーマーベースのアーキテクチャは、他の研究者によっても研究されている。QEC符号トランスフォーマー(QECCT)は、ノイズ予測による測定崩壊の克服、微分可能近似を使用した微分不可能な論理誤り率(LER)指標の最適化、および誤りが発生するシンドローム測定を処理するためのプーリング機構の採用など、主要な QEC の課題に対処した。表面符号とトーラス符号に適用された QECCT は、独立および脱分極ノイズ・モデルの下で、MWPMアルゴリズムなどよりも優れた堅牢性とスケーラビリティを示した、とされる。
2⃣⃣ アンサンブル復号 
 複数のニューラル ネットワークを組み合わせたニューラル・アンサンブル復号は、トポロジカル量子符号の復号の堅牢性と精度を向上させるために提案されている。この方法は、特に、相関量子誤りのあるノイズの多い環境で、MWPM などの従来の復号器よりも大幅に優れている、とされる。
3⃣ その他の復号 
 トポロジカル・スタビライザー符号用の高速で、ほぼ最適な機械学習ベースの復号器を構築するための一般的なフレームワークが提案されている。線形予測フレームワークと均一なデータ構築を活用することで、表面符号とカラー符号の優れた復号効率と精度が実証されている。

(2) 教師なし学習
0⃣ 能書き 
 教師なし学習手法は、ラベルなしデータ内のパターン、構造、または相関関係を発見することを目的としている。QEC では、すべての量子誤り構成が簡単にラベル付けされるわけではなく、ノイズ モデルの複雑さが包括的なラベル付きデータセットを生成する能力を上回ることが多いため、これは特に価値がある。シンドロームの隠れた構造を明らかにすることで、教師なし手法は、より適応的でリソース効率の高い量子誤り訂正プロトコルの設計に刺激を与えることができる。
1⃣ クラスタリング 
 k平均法や階層的クラスタリングなどのクラスタリング・アルゴリズムは、従来の復号器が見逃す可能性のある相関量子誤りのグループを識別するために適用されてきた。類似したシンドロームをグループ化することで、これらの方法は QEC 戦略のターゲットを絞った改良を可能にし、従来の処理と量子ビット・リソースのオーバーヘッドを削減する。
 クラスタリングは、強い相関または非ローカル依存関係を持つノイズ パターンの処理に特に効果的で、従来の復号器では捕捉できない洞察を提供する。
2⃣ 次元削減 
 次元削減技術は、高次元シンドローム データを簡素化して解釈し、複雑な量子誤りモデルの視覚化と理解に役立つ。主成分分析(PCA)やt分布型確率的近傍埋め込み法(t-SNE)などの方法は、共通の根本的な原因を持つ主要な量子誤りモードと量子誤りクラスターを強調表示する。これらの洞察は、より直感的で、効率的な復号戦略を開発するためのガイドとなる。
 次元削減は、ハードウェア・ノイズの特性評価もサポートし、カスタマイズされたQECプロトコルで対処できる体系的な量子誤りを識別するため、強力な診断ツールになる。
3⃣ 生成モデル 
 変分自己符号化器(オートエンコーダ、VAE)やその他の生成モデルは、複雑な量子誤り地形のコンパクトな表現を学習し、教師なしパターン認識と下流の教師あり学習または強化学習ステップを統合するハイブリッド復号器を可能にする。VAEは、生のシンドローム・データを低次元の潜在空間に変換し、クラスタリングとパターン認識タスクを簡素化する。これらの潜在空間は、教師あり復号器のパラメータ調整にも役立ち、量子誤り緩和戦略のガイドにもなる。
 生成モデルは、合成誤りシンドロームを作成することでデータ不足に対処し、実験用量子システムの学習データセットの堅牢性を向上させる。
4⃣ トランスフォーマー 
 自己回帰ニューラル ネットワーク、具体的にはトランスフォーマーを使用した教師なし生成モデリングを使用した、QEC を復号するためのフレームワークが導入されている。この復号フレームワークは、スタビライザー、論理演算子、シンドロームの結合確率分布をモデル化し、ラベル付きデータなしで、効率的かつスケーラブルな最尤復号を容易にする。また、複雑な依存関係を捉えることで、複雑なシンドロームの復号を強化し、従来の復号器と比較して優れた論理誤り率を実現する。
 qecGPT🐾10は、計算複雑性を、最尤復号アルゴリズムのO⁢(4k)からO⁢(2k)に削減することで、誤り耐性量子コンピューティングのための効率的かつ並列化可能なソリューションを提供し、QEC のスケーラビリティを大幅に向上させる。ここで、kは論理量子ビット数を表す。
🐾10 生成モデリングによる量子誤り訂正符号復号のための一般的なフレームワーク、ということらしい。トランスフォーマーを利用して、論理演算子とシンドロームの結合確率を学習する。この学習は、ラベル付き学習データを必要とせず、教師なしで行われる[*A-24]。

(3) 半教師あり学習 
0⃣ 能書き 
 半教師あり学習は、ラベル付きデータとラベルなしデータの両方を活用することで、完全教師あり方法と教師なし方法の間のギャップを埋める。具体的に効用を述べると、大規模な完全ラベル付けデータセットへの依存を軽減し、データ生成の従来の計算コストを削減し、ML ベースの復号器のスケーラビリティを向上させるのに役立つ。
1⃣ もう少し詳しく・・・概要 
 QECの文脈では、正確にラベル付けされた学習データの生成は、現実的なノイズ条件下で量子回路をシミュレートする必要があることが多いため、計算コストが高くなる可能性がある。一方、量子デバイスの連続操作から、豊富なラベルなしシンドローム・データを利用できる場合がある。半教師あり方法は、データのボトルネックを緩和し、新しい条件への汎化を改善することで、QEC復号器をより効率的で堅牢なものにすることができる。
 量子プロセッサが拡張されるにつれて、ラベルなしデータを活用し、変化するノイズ環境に迅速に適応する能力は、長期にわたる誤り耐性量子コンピューティングを実現するために重要になる。まとめると、半教師あり学習は、大規模な量子システムで効率的な QEC プロトコルを実現するためのスケーラブルなソリューションとして有用である。
1⃣ 疑似ラベリングと一貫性正則化 
 ラベル付きサンプルの数を減らしながら復号器のパフォーマンスを向上させるために、疑似ラベリングと一貫性正則化(Consistency Regularization)が検討されている。疑似ラベリングでは、事前学習済みモデルを使用してラベルなしデータの人工ラベルを生成し、それを学習プロセスに組み込んでモデルをさらに改良する。一貫性正則化により、モデルは同じ入力の拡張バージョン全体で安定した予測を生成するように強制され、それによって堅牢性が向上する。
 たとえば、半教師ありグラフベースの方法をQEC復号器パイプラインに統合し、ラベル付けリソースが限られているにもかかわらず、基礎となる量子誤り構造を効果的に推論できるようにした手法が提案されている。これらの手法は、量子デバイスの動作中に利用可能な膨大な量のラベルなしデータを効率的に利用することで、パフォーマンスを大幅に向上させる。
2⃣ 転移学習とドメイン適応戦略 
 ノイズ・レジームまたは量子ハードウェア プラットフォーム間で移行する場合、半教師ありアプローチでは、追加のラベル付けを最小限に抑えて、以前に学習した表現を新しい条件に適応させることができる。転移学習では、事前学習済みモデルの知識を新しいタスクまたは環境に再利用し、ドメイン適応では、ソース・ドメインとターゲット・ドメイン間の分布を揃えるようにモデルを調整する。
 このドメイン適応性は、制御パラメーターのドリフト、量子ビットのコヒーレンス時間の変化、またはハードウェアのアップグレードにより、量子誤り地形が時間の経過とともに変化する実際の量子デバイスに特に役立つ。したがって、半教師あり学習は、動的なノイズ条件下で復号器のパフォーマンスを維持するための実用的なアプローチを提供する。

(4) 強化学習 
0⃣ 概要 
 強化学習(RL)技術は、復号問題を、確率的環境(この場合はノイズの影響を受ける量子符号)と対話するエージェントとしてフレーム化する。エージェントは、論理量子ビットの回復が成功した場合は報酬を受け取り、誤った訂正行動や遅延した訂正行動の場合は、ペナルティを受け取る。反復的な探索を通じて、RL エージェントは訂正操作を適応的に選択する方策を学習し、静的または手動で作成された復号規則よりも優れた性能を発揮する可能性がある。
1⃣ おもちゃのノイズ・シナリオ 
 最初は、価値ベースの方法と方策勾配法を使用してトポロジカル符号を復号した。エージェントに成功した論理状態回復のみに基づいて報酬を与えることで、理論上のしきい値 11% に近づく、ほぼ最適なパフォーマンスを達成した。
2⃣ 現実的なノイズ・シナリオ 
 深層Q学習を利用して、簡略化された現象論的ノイズ モデル下で表面符号の復号エージェントを学習することで、復号問題は、強化学習タスクとして再定式化された。このアプローチは、誤りを含むシンドローム測定を処理する際の RL技術の柔軟性を実証し、現実的なノイズ・シナリオに高度な RL アルゴリズムを統合するための基盤を築いた。
3⃣ 脱分極ノイズ 
 脱分極ノイズ下のトーラス符号用の深層Q 学習復号器が導入された。このアプローチでは、深層Q ネットワークを使用して、パウリ誤り訂正を選択するためのQ値を近似し、復号器が相関ビット反転および位相反転誤りを処理できるようにした。RL復号器は、しきい値(16.5%)未満の誤り率で、脱分極ノイズ下のMWPM復号器を上回り、複雑なノイズ・モデルの優れた処理を実証した。
4⃣ より複雑なノイズモデル 
 アクター・クリティック法を統合して、量子誤り統計が変化するにつれて戦略を継続的に改良する、適応型復号器が開発された。このアプローチは、変動するノイズ環境や時間によって変化するノイズ環境でも、高精度の論理量子ビットを維持するのに役立つ。
5⃣ ハイブリッド・アプローチ 
 RL と他の学習パラダイムを組み合わせることも検討されている。例えば、ラベルなしのシンドローム データを使用して探索をガイドし、広範な学習セットの必要性を減らすハイブリッド RL 半教師あり復号器が検討された。さらに、ドメイン固有の知識(既知の対称性やスタビライザー制約など)を RL 報酬関数に組み込むことで、学習を加速し、解釈可能性を向上させることができる、とされる。
6⃣ スケーラビリティと堅牢性の向上 
 (掲題を目的にして)スタビライザー制約と対称性の原理を RL フレームワークに直接組み込む、ドメイン情報に基づく強化学習戦略が提案されている。これらの方法は、高い復号精度を維持しながら、探索の複雑さと学習時間を大幅に削減する。量子デバイスが拡張され、現実的なノイズ モデルの複雑さが増すにつれて、RL の適応性とデータ駆動性により、より自律的な QEC復号器への柔軟な道が開かれる、と期待される。
7⃣ 進行中の取り組み 
 「進行中の取り組み」は、RL ベースの復号器を量子制御スタックに直接統合し、ほぼリアルタイムの復号と、誤り耐性量子プロセッサに適した動的に最適化された量子誤り訂正プロトコルを実現することである。

(5) 深層学習 
0⃣ もわっとした能書き 
 深層学習は、その階層的かつ適応的な学習機能により、スケーラブルな量子システムにおける QEC の複雑さの増大に対処するための有望なフレームワークとなっている。量子ハードウェアが進歩し続けるにつれて、これらのモデルを活用して、多様で変化するノイズ状態に自律的に適応することが、誤り耐性量子コンピューティングを実現するために重要になる。
1⃣ もう少し具体的な概要 
 複数の隠れ層を持つニューラル ネットワークを特徴とする深層学習モデルは、より単純な機械学習方法とは異なり、階層表現を生データから直接学習することに優れており、大規模な機能エンジニアリングの必要性を減らす。教師ありまたは半教師ありパイプラインと一緒に使用すると、深層アーキテクチャは、量子誤り地形の重要な特徴を、より扱いやすい表現に抽出することで、ラベルの負担を軽減できる。
1⃣ 自己符号化器(オートエンコーダー)
 自己符号化器は、破損したシンドローム・データを元の状態に正常にマッピングし、高次元量子システムの効率的な量子誤り回復を実現できることが実証されている。
2⃣ GAN 
 競合する生成器モデルと識別器モデルで構成されるGAN(生成敵対ネットワーク)は、複雑で高次元の量子誤り分布をモデル化することを学習することで、これらの機能を拡張する。GAN は、限られた実験データを補完する合成学習サンプルを生成するために使用され、データ不足の問題を緩和している。
 GANは、複雑な量子誤り統計を再現できることを示しており、教師ありまたは RL ベースの学習フェーズと組み合わせることで、より堅牢な復号器の開発が可能になる、とされる。このような生成モデリングは、学習戦略のハイブリッド化をサポートする。教師なし GAN 事前学習は、教師あり復号器のより優れた初期化を提供したり、RL エージェントに新しいパラメーター レジームを探索するよう通知する。

【5】考察
(1) スタビライザー群をパウリ群のアーベル部分群とする以上、スタビライザー符号ではパウリ誤り以外の量子誤りを正しく検出できない。従って、復号器がパウリ誤り以外に対応しても、意味がない(はず)。その意味でも、表面符号やカラー符号は、終わっていると思う。
(2) IBMが推しているqLDPC符号は、正作用素値測度(POVM)の要素である演算子を使った測定を行う枠組みなので、パウリ誤り以外の量子誤りも検出できる(し、その意味でスタビライザー符号ではない)と理解している。今後、魔法状態蒸留のオーバーヘッド等が課題となってくるのであろう。
(3) 消失誤り符号(こちらを参照)は、様々な量子誤りを「消失誤り」に変換するから、パウリ誤り以外にも対応できる(はず)。また誤り検出が高速で、訂正も容易とされる(ので、当社ではQECの本命と見做している)。複雑な量子誤りモデルに依存する必要もないので、ニューラルネットワークベースの復号器も必要ではない。加えて、魔法状態蒸留のオーバーヘッドも小さい、とされる。

【尾註】
*1 量子技術エコシステム構築を支援する、非営利の私立財団(内国歳入法501(C)(3)団体)。mitiqの開発者でもある。https://unitary.fund/
 コアメンバーがIBMとアクセンチュア。サポーティングメンバーは、IonQ、IQM、Xanadu、Pasqal、Agnostiq、ボストン・コンサルティング・グループなど。サポータに、Rigetti、QCI、QCWare、Zapata、CQC、Strangeworks、グーグル、マイクロソフトなど。
*2 V.Russo et al.、Testing platform-independent quantum error mitigation on noisy quantum computers (https://arxiv.org/pdf/2210.07194.pdf)
 論文著者の一人でもあるWilliam Zengは、ゴールドマン・サックス(GS)の量子リサーチ部門長でUnitaryファンドの個人サポータでもある。オックスフォード大学でPh.D取得後、イェール大学とチューリッヒ工科大学で超伝導量子ビットを研究。Rigettiを経由して、GSに入社。
*3 Z.Cai et al.、Quantum Error Mitigation (https://arxiv.org/pdf/2210.00921.pdf)
*4 ZNEの詳細は、例えば次を参照。T. Giurgica-Tiron et al.、Digital zero noise extrapolation for quantum error mitigation (https://arxiv.org/pdf/2005.10921.pdf)
*5 depolarizingの和訳。他には、分極解消、分極消去といった訳語もある。
*6 99%の確率で、量子状態(密度演算子)が変わらないという意味である。
*7 V. V. Sivak et al.、Real-time quantum error correction beyond break-even (https://arxiv.org/pdf/2211.09116.pdf)
*8 PPOは、2017年OpenAI で開発された、モデルフリー強化学習アルゴリズム。本研究ではNVIDIAのGPUが使用された。
*9 共振器と環境系は、離散系の1量子ビットモデルで表現する。つまり補助量子ビットは、適宜初期化して、再利用する。
*10 Amplitude-dampingエラーは、量子系からエネルギーが損失することに起因する一般的なエラー。長田・山崎・野口(2021)では、「現実に起こるエラーとして最も重要」と記述されている。
*11 C. Ryan-Anderson et al.、Implementing Fault-tolerant Entangling Gates on the Five-qubit Code and the Color Code (https://arxiv.org/pdf/2208.01863.pdf)
*12 Matthew J. Reagor et al.、Hardware optimized parity check gates for superconducting surface codes https://arxiv.org/pdf/2211.06382.pdf
*13 自然放出によるエラーは、状態空間を非一様に覆うように作用してしまうため、ランダム化ベンチマーキングの仮定が崩れてしまう。これに対処するため、敢えてBlochベクトルを回転させて、この効果を打ち消す方法をトワリング(twirling)という。
*14 スタビライザー回路の高速シミュレータ。Stimは距離100の表面符号回路(2万量子ビット、800万ゲート、100万計測値)を15秒で解析し、その後1kHzのレートで回路全体のショットのサンプリングを開始することができる。Stimは、AaronsonとGottesmanのCHPシミュレータに3つの改良を加えている[https://quantum-journal.org/papers/q-2021-07-06-497/]:①回路のスタビライザテーブルの逆数を追跡することにより、決定論的測定の漸近的複雑性を、二次関数から線形に改善する。②キャッシュフレンドリーなデータレイアウトと、256ビット幅のSIMD命令を使用することにより、アルゴリズムの定数係数を向上させた。③高価なスタビライザーテーブル・シミュレーションを、最初の参照サンプル作成にのみ使用する。
*15 最小重み完全マッチングアルゴリズムによる、量子誤り訂正符号の復号用Pythonパッケージ。
*16 Google Quantum AI、Suppressing quantum errors by scaling a surface code logical qubit、
Nature、Vol 614、23 February 2023、pp.676-682 https://www.nature.com/articles/s41586-022-05434-1 
*17 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/22/2209-01.htm
*18 https://www.jst.go.jp/pr/announce/20220930-2/index.html
*19 同名の論文が、natureに投稿された(23年3月)。 https://www.nature.com/articles/s41586-023-05782-6
*20 Harry Levine et al.、Demonstrating a long-coherence dual-rail erasure qubit using tunable transmons、https://arxiv.org/pdf/2307.08737.pdf
 尚、上記論文は、24年3月20日に査読付き論文として、Physical Review Xにて公開された(オープンアクセス) → https://journals.aps.org/prx/abstract/10.1103/PhysRevX.14.011051
*21 Yue Wu et al.、Erasure conversion for fault-tolerant quantum computing in alkaline earth Rydberg atom arrays、https://www.nature.com/articles/s41467-022-32094-6
Supplementary Informationは、https://static-content.springer.com/esm/art%3A10.1038%2Fs41467-022-32094-6/MediaObjects/41467_2022_32094_MOESM1_ESM.pdf
*22 Shuo Ma et al.、High-fidelity gates with mid-circuit erasure conversion in a metastable neutral atom qubit、https://arxiv.org/pdf/2305.05493.pdf
*23 https://event.phys.s.u-tokyo.ac.jp/physlab2022/posts/17/
*24 萩原学、特集B 誤り訂正技術Ⅰ ~基礎編~ 2章 誤り訂正符号の例と将来展望、映像情報メディア学会誌 Vol.70,No.4,pp.567-570(2016)、https://www.jstage.jst.go.jp/article/itej/70/7/70_567/_pdf
*25 M. Grassl & Th. Beth、Codes for the Quantum Erasure Channel、https://arxiv.org/pdf/quant-ph/9610042.pdf
*26 設楽智洋・越野和樹、超強結合~深強結合領域における共振器量子電磁力学、日本物理学会誌 Vol.78, No.3, 2023, pp.125-133
*27 Sangkha Borah et al.、Measurement-based estimator scheme for continuous quantum error correction、https://journals.aps.org/prresearch/pdf/10.1103/PhysRevResearch.4.033207 
*28 https://physinfo.fr/artemis/
*29 https://phys.org/news/2022-09-erasure-key-quantum.html もっとも、消失誤りを使った量子誤り訂正に関する研究がなかったわけではない。例えば、東芝(後藤隼人氏)による特許(2009年)がある。https://patents.google.com/patent/JP4786727B2/ja
*30 Dolev Bluvstein et al.、Logical quantum processor based on reconfigurable atom arrays、https://www.nature.com/articles/s41586-023-06927-3
*31 Minh-Thi Nguyen et al.、Quantum Optimization with Arbitrary Connectivity Using Rydberg Atom Arrays https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.4.010316 
*32 Gurobi Optimizerは、数理最適化の最新技術を取り入れた、最高性能の線形/整数計画ソルバーらしい。カバーしている範囲は、「線形計画、混合整数線形計画、二次計画、二次制約、混合整数二次計画、混合整数二次制約、混合整数非凸二次制約」ということである。出典:https://www.octobersky.jp/products/gurobi
*33 https://www.keio.ac.jp/ja/press-releases/files/2023/12/11/231211-1.pdf
*34 https://www.linkedin.com/posts/qubit-pharmaceuticals_press-release-hyperion-1-activity-7138176101075296258-kK65
*35 SHUNYA KONNOet al.、Logical states for fault-tolerant quantum computation with propagating light、https://www.science.org/doi/10.1126/science.adk7560
*36 Kan Takase et al.、Gottesman-Kitaev-Preskill qubit synthesizer for propagating light、https://www.nature.com/articles/s41534-023-00772-y
*37 福井浩介他、最近の研究から| 光の連続性を活用した量子誤り耐性向上手法、日本物理学会誌 Vol.74, No.10, 2019,pp.720-726、https://www.jstage.jst.go.jp/article/butsuri/74/10/74_720/_pdf
*38 武田俊太郎、解説| 光量子コンピュータの新時代 ループ型を中心として、応用物理 第92巻 第4号(2023)、pp.214-219、https://www.jstage.jst.go.jp/article/oubutsu/92/4/92_214/_pdf
*39 https://www.nict.go.jp/quantum/topics/4otfsk00000bfwmv-att/Quantum_cat_story.pdf
*40 Demid Sychev et al.、RESEARCH ARTICLE |Generating and breeding optical Schrödinger’s cat states、FEBRUARY 28 2018、https://pubs.aip.org/aip/acp/article/1936/1/020018/739390/Generating-and-breeding-optical-Schrodinger-s-cat
*41 設楽智洋・越野和樹、解説| 超強結合~深強結合領域における共振器量子電磁力学、日本物理学会誌 Vol.78, No.3, 2023,pp.125-133、https://www.tmd.ac.jp/artsci/physics/ikuzak/2023buturi.pdf
*42 和久井健太郎、解説 光量子計算機研究の持続的発展のために| 非ガウス型量子操作によるシュレーディンガーの子猫状態の生成、光学37巻12号(2008)、pp.712-715、https://annex.jsap.or.jp/photonics/kogaku/public/37-12-kaisetsu7.pdf
*43 |博士論文|芹川 昂寛、高周波光サイドバンドにおける非ガウス型状態の研究、https://repository.dl.itc.u-tokyo.ac.jp/record/2001996/files/A35844_abstract.pdf
*44 Sergey Bravyi et al.、High-threshold and low-overhead fault-tolerant quantum memory、https://www.nature.com/articles/s41586-024-07107-7
*45 藤田八郎、漸近的に良い連接量子符号の構成、https://www.i.u-tokyo.ac.jp/coe/report/H17/21COE-ISTSC-H17_4_5_3.pdf
*46 杉本宏行、Error marginのある量子状態の識別問題、https://apphy.u-fukui.ac.jp/~nucleus/sugimotoThesis09.pdf
*47 藤井啓祐、岩波 科学ライブラリー289 驚異の量子コンピュータ-宇宙最強マシンへの挑戦、岩波書店、2019
*48 R. Raussendorf et al.、A fault-tolerant one-way quantum computer、https://arxiv.org/pdf/quant-ph/0510135.pdf
 [*47]に、[*48]は(藤井先生が)学部4年のときに公開された、とある。故に、2005年公開で間違いない。
*49 徳永裕己、特集|量子コンピュータ 量子コンピュータの誤り訂正技術ー物理に即したトポロジカル表面符号ー、情報処理 Vol.55 No.7 July 2014、pp.695-701、https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=101754&file_id=1&file_no=1
*50 MORE QUANTUM COMPUTING WITH FEWER QUBITS? MEET OUR NEW ERROR-CORRECTION CODE、https://alice-bob.com/blog/more-quantum-computing-with-fewer-qubits-meet-our-new-error-correction-code/
*51 久保田周治、特集B 誤り訂正技術Ⅱ~応用編~ 第5章無線LANの誤り訂正、映像情報メディア学会誌 2016 年70巻9号、pp.764-769、https://www.jstage.jst.go.jp/article/itej/70/9/70_764/_pdf/-char/ja
*52 内川浩典、解説論文 低密度パリティ検査符号(LDPC符号)ーRobert G. Gallager先生の2020年日本国際賞受賞に寄せて、電子情報通信学会 基礎・境界ソサイエティFundamentals Review 2021 年14巻3号、pp.217-228、https://www.jstage.jst.go.jp/article/essfr/14/3/14_217/_pdf/-char/en
*53 Nikolas P. Breuckmann & Jens Niklas Eberhardt、Quantum LDPC Codes、https://arxiv.org/pdf/2103.06309.pdf
*54 村山立人、[1998年度修士論文]低密度パリティ検査符号の統計力学的解析、物性研究72-6(1999-9)、pp.876-901、https://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/96674/1/KJ00004707668.pdf
*55 井坂元彦、電子情報通信学会『知識の森』1 群(信号・システム)2編(符号理論)6 章 ターボ符号・LDPC 符号、https://www.ieice-hbkb.org/files/01/01gun_02hen_06.pdf
*56 Zunaira Babar et al.、Fifteen Years of Quantum LDPC Coding and Improved Decoding Strategies、https://ieeexplore.ieee.org/document/7336474
*57 Diego Ruiz et al.、LDPC-cat codes for low-overhead quantum computing in 2D、https://arxiv.org/pdf/2401.09541.pdf
*58 https://marketing.idquantique.com/acton/attachment/11868/f-7485d397-bc2b-471a-95b4-6d1775a7730b/1/-/-/-/-/McKinsey%20Digital%20Quantum%20Technology%20Monitor%20-%20April%202024.pdf
*59 Kevin S.Chou et al.、Demonstrating a superconducting dual-rail cavity qubit with erasure-detected logical measurements、https://arxiv.org/pdf/2307.03169
*60 https://www.bcg.com/ja-jp/publications/2024/long-term-forecast-for-quantum-computing-still-looks-bright
*61 Kwok Ho Wan et al.、An iterative transversal CNOT decoder、https://arxiv.org/pdf/2407.20976
*62 Dmitri Maslov et al.、Fast classical simulation of Harvard/QuEra IQP circuits、https://arxiv.org/pdf/2402.03211
*63 https://quantumcircuits.com/resources/quantum-circuits-accelerates-momentum/
*64 Laura Caune et al.、Demonstrating real-time and low-latency quantum error correction with superconducting qubits、https://arxiv.org/pdf/2410.05202
*65 Johannes Bausch et al.、Learning high-accuracy error decoding for quantum processors、https://www.nature.com/articles/s41586-024-08148-8.pdf
*66 佐藤信太郎、富士通における量子コンピューティングへの取り組み、https://www.sekitani-lab.com/printedelectronics/wp-content/uploads/75d6955e936def6eedfec8c51deefdbd.pdf
*67 Hany Ali et al.、Reducing the error rate of a superconducting logical qubit using analog readout information、https://arxiv.org/pdf/2403.00706
*68 https://group.ntt/jp/newsrelease/2022/04/01/220401a.html
*69 Ben Barber et al.、A real-time, scalable, fast and highly resource efficient decoder for a quantum computer、https://arxiv.org/pdf/2309.05558
 査読版は、25年1月7日付けで、nature(electronics)に投稿された。ただし、オープンアクセスではない。また、微妙にタイトルが異なる:A real-time, scalable, fast and resource-efficient decoder for a quantum computer、https://www.nature.com/articles/s41928-024-01319-5
*70 Anthony Ryan O’Rourke & Simon Devitt、Compare the Pair: Rotated vs. Unrotated Surface Codes at Equal Logical Error Rates、https://arxiv.org/pdf/2409.14765
*71 Oscar Higgott et al.、Improved Decoding of Circuit Noise and Fragile Boundaries of Tailored Surface Codes、https://journals.aps.org/prx/abstract/10.1103/PhysRevX.13.031007
*72 Christopher A. Pattison et al.、Improved quantum error correction using soft information、https://arxiv.org/pdf/2107.13589
*73 https://new.nsf.gov/news/final-6-pilot-projects-selected-nsf-national-quantum-virtual#image-caption-credit-block
*74 N. Lacroix et al.、Scaling and logic in the color code on a superconducting quantum processor、https://arxiv.org/pdf/2412.14256
・・・
*86 https://www.scmp.com/news/china/science/article/3299239/quantum-leaps-good-and-bad-news-about-next-big-thing-computing?module=perpetual_scroll_0&pgtype=article
*87 エラー訂正機能を持つ量子コンピューターでの演算(24年5月13日)、https://www.ibm.com/jp-ja/think/insights/qldpc-codes
*88 Why IBM predicts quantum advantage within two years、https://www.rdworldonline.com/why-ibm-predicts-quantum-advantage-within-two-years/
*89 Kazuhiro Seki et al.、Simulating Floquet scrambling circuits on trapped-ion quantum computers、https://journals.aps.org/prresearch/abstract/10.1103/PhysRevResearch.7.023032
*90 全体レポートは巨大(456頁)なので、各章ごとに分割してアクセスできる。第5章は、こちら:https://hai-production.s3.amazonaws.com/files/hai_ai-index-report-2025_chapter5_final.pdf
 ちなみに、全体はこちら:https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
*91 慶大・富士通・理研・九大・東北大・NEC、令和4年度 新計算原理調査研究チーム調査報告書、https://www.mext.go.jp/content/20241017-mxt-jyohoka01-000038418_05.pdf
*92 Benjamin L.Brock et al.、Quantum error correction of qudits beyond break-even、https://www.nature.com/articles/s41586-025-08899-y.pdf
・・・
*111 James Wills et al.、Error-detected coherence metrology of a dual-rail encoded fixed-frequency multimode superconducting qubit、https://arxiv.org/pdf/2506.15420
*112 John Preskill、Beyond NISQ: The Megaquop Machine、https://arxiv.org/pdf/2502.17368
*113 Masoud Mohseni et al.、How to Build a Quantum Supercomputer:Scaling from Hundreds to Millions of Qubits、https://arxiv.org/pdf/2411.10406)
・・・
*117 Yuri Alexeev et al.、Artificial intelligence for quantum computing、https://www.nature.com/articles/s41467-025-65836-3.pdf
*118 Hanrui Wang et al.、Transformer-QEC: Quantum Error Correction Code Decoding with Transferable Transformers、https://arxiv.org/pdf/2311.16082
*119 Tan He et al.、Experimental Quantum Error Correction below the Surface Code Threshold via All-Microwave Leakage Suppression、https://journals.aps.org/prl/abstract/10.1103/rqkg-dw31

*A-1 Pavel Panteleev and Gleb Kalachev、Asymptotically Good Quantum and Locally Testable Classical LDPC Codes https://arxiv.org/pdf/2111.03654.pdf
*A-2 Toni Annala et al.、Topologically protected vortex knots and links https://www.nature.com/articles/s42005-022-01071-2
*A-3 Googleのチームは、22年11月、マヨラナ・エッジ・モードを超伝導量子ビットで初めて実現した、と発表している(https://www.science.org/doi/10.1126/science.abq5769)。Jordan-Wigner変換を用いて、Kitaevが考えたモデルを、量子コンピュータにマッピングした。
*A-4 M.P.da Silva et al.、Demonstration of logical qubits and repeated error correction with better-than-physical error rates、https://arxiv.org/pdf/2404.02280
*A-5 Daniel Gottesman、Quantum fault tolerance in small experiments、https://arxiv.org/pdf/1610.03507
*A-6 https://www.qc.design/news/eicaccelerator
*A-7 S.Bravyi et al.、The Future of Quantum Computing with Superconducting Qubits 、https://arxiv.org/pdf/2209.06841.pdf 
*A-8 Brhyeton Hallet al.、Artificial neural network syndrome decoding on IBM quantum processors、https://journals.aps.org/prresearch/pdf/10.1103/PhysRevResearch.6.L032004
*A-9 佐藤信太郎、富士通における量子コンピューティングへの取り組み、2022年、https://www.sekitani-lab.com/printedelectronics/wp-content/uploads/75d6955e936def6eedfec8c51deefdbd.pdf
*A-10 吉岡信行、第2回量子ソフトウェアワークショップ|量子誤り抑制の進展と展開(23年1月30日)、https://qsw.phys.s.u-tokyo.ac.jp/assets/files/20230130_yoshioka.pdf
*A-11 Z.ナザリオ、最大の難関「エラー訂正」を実行する新手法、日経サイエンス、2022年08月号
*A-12 Youngseok Kim et al.、Evidence for the utility of quantum computing before fault tolerance、https://www.nature.com/articles/s41586-023-06096-3
*A-13 Nicolas Delfosse and Edwin Tham、Low-cost noise reduction for Clifford circuits、https://arxiv.org/pdf/2407.06583
*A-14 https://www.t.u-tokyo.ac.jp/press/pr2023-11-23-001
*A-15 米ハーバード大学、デンマーク・コペンハーゲン大学、仏リヨン大学、独ヘルムホルツ中央研究所。
*A-16 Yihui Quek et al.、Exponentially tighter bounds on limitations of quantum error mitigation、https://www.nature.com/articles/s41567-024-02536-7#Sec24
*A-17 上曽山健介、量子機械学習におけるデータ符号化由来の勾配消失に関する研究(令和6年修士論文)、https://www.icepp.s.u-tokyo.ac.jp/download/master/m2023_kamisoyama.pdf
 もしくは→中川裕也、第66回物性若手夏の学校・集中ゼミ講義ノート:Noisy Intermediate-Scale Quantumデバイスを用いた物性シミュレーションの可能性、物性研究・電子版 Vol.10, No.1, 101217(2022年3月号)、https://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/269387/1/bussei_el_101217.pdf
 あるいは→Nicholas Hunter-Jones、Unitary designs from statistical mechanics in random quantum circuits、https://arxiv.org/pdf/1905.12053
*A-18 Google Quantum AI and Collaborators、Quantum error correction below the surface code threshold、https://arxiv.org/pdf/2408.13687
*A-19 Harald Putterman et al.、Hardware-efficient quantum error correction using concatenated bosonic qubits、https://arxiv.org/pdf/2409.13025
 査読済版は、natureに掲載された(25年2月26日付け):https://www.nature.com/articles/s41586-025-08642-7
*A-20 https://www.riverlane.com/quantum-error-correction-report-2024 
*A-21 Google Quantum AI and Collaborators、Quantum error correction below the surface code threshold、https://www.nature.com/articles/s41586-024-08449-y.pdf
*A-22 Pedro Sales Rodriguez et al.、Experimental demonstration of logical magic state distillation、https://arxiv.org/pdf/2412.15165
 査読済版は、https://www.nature.com/articles/s41586-025-09367-3
*A-23 Zihao Wang&Hao Tang、Artificial Intelligence for Quantum Error Correction: A Comprehensive Review、https://arxiv.org/pdf/2412.20380
*A-24 Hanyan Cao et al.、qecGPT: decoding Quantum Error-correcting Codes with Generative Pre-trained Transformers、https://arxiv.org/pdf/2307.09025
*A-25 https://www.ibm.com/blogs/systems/jp-ja/qldpc-codes/
*A-26 Guanyu Zhu et al.、Non-Clifford and parallelizable fault-tolerant logical gates on constant and almost-constant rate homological quantum LDPC codes via higher symmetries、https://arxiv.org/pdf/2310.16982
*A-27 Amazon Web Services announces new quantum computing chip、https://www.aboutamazon.com/news/aws/quantum-computing-aws-ocelot-chip
*A-28 https://developer.nvidia.com/blog/nvidia-and-quera-decode-quantum-errors-with-ai
*A-29 https://www.riverlane.com/quantum-error-correction-report-2025 ←数点の情報を入力するとダウンロードできる仕組み。

【参考資料】
▪長田有登・山崎歴舟・野口篤史、Q-LEAP量子技術教育プログラム 量子技術序論、2021年3月 (https://www.sqei.c.u-tokyo.ac.jp/qed/QEd_textbook.pdf) 
▪B. Royer et al.、Stabilization of Finite-Energy Gottesman-Kitaev-Preskill States (https://arxiv.org/pdf/2009.07941.pdf)
▪Alec Eickbusch et al.、Fast Universal Control of an Oscillator with Weak Dispersive Coupling to a Qubit(https://arxiv.org/pdf/2111.06414.pdf)
▪Kyungjoo Noh et al.、Low-Overhead Fault-Tolerant Quantum Error Correction with the Surface-GKP Code (https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.3.010315)
▪John Preskill、Lecture Notes for Ph219/CS219: Quantum Information Chapter 3 (http://theory.caltech.edu/~preskill/ph219/chap3_15.pdf)


お問い合わせ
  

TOP