そこ曲がったら、量子坂?(上り) part2
【0】はじめに
スイスの量子関連企業テラ・クォンタムと、ホンダ・リサーチ・インスティチュートのドイツ拠点は、量子古典ハイブリッド・アルゴリズムを、自然災害発生時における緊急避難経路最適化に適用した。その結果を論文[*62→159]†(以下、本論文)にて発表した(23年7月28日@arXiv)。
本論文は、古典アルゴリズムであるダイクストラ法が、経路最適化アルゴリズムとして優れている(唯一、最適性が保証されている)ことを認めた上で、欠点を指摘し、その解決を図っている。強調すべき点は、本論文は、古典アルゴリズムを「高速化した」という内容ではなく、「精度が向上した」と主張している点である。
† 採番ミスにより、再番。
【1】本論文の主張
自然災害時における緊急避難経路最適化に、量子古典ハイブリッド・ニューラルネットワーク(HQNN)を適用し、古典アルゴリズムよりも『精度が7%高かった』と主張した(詳細は、後述)。
【2】事前整理
(1) ダイクストラ法とFiLM
ダイクストラ法は、与えられた出発地と目的地の間の最短経路を見つけるアルゴリズムで、1956年に、Edsger Dijkstraによって開発(59年に発表)された。数学的に言うと、経路(走行経路、飛行経路etc)のネットワークは、有向無巡回グラフG(V,E)で表すことができる。Vは頂点(ノード)、Eは辺(エッジ、枝とも言う)である。ダイクストラ法は、隣接する頂点を繰り返し探索し、各頂点への最短経路と距離を更新することで動作する。目的地までの最短経路が見つかったか、2頂点間に経路がないと判断された時点で、探索プロセスは終了する。
ダイクストラ法が最短経路を探索するには、グラフに関する大域的な情報(正確な最新のグラフ情報)が必要である。しかし、自然災害発生後の緊急避難時に、そのような情報の入手は非現実的である。そこで、本論文では、局所的な情報のみを必要とするアプローチ-具体的には、FiLM(Feature-wise Linear Modulation)を導入する[*63]。FiLMは後述する。
なお、「ヒィボナッチ・ヒープ優先キューを使用したダイクストラ法を上回る量子アルゴリズムは存在しない」、「それに対するチャレンジ」については、こちらを参照。
(2) 問題設定
FiLMを説明する前に、問題設定を簡単に説明する。最適な経路とは、言うまでもなく、移動時間が最も短い避難経路のことである。なお、自然災害は地震を想定しており、具体的な対象地域は、北海道の古平町のようである。
1⃣ 概要
①地震発生地域1 か所と、②すべての交通が向かうべき、事前定義された出口位置が複数、設定される。出口付近の交通量は、時間の経過とともに増加し、その結果、出口付近での移動時間が長くなる。地震は発生後も継続的に道路に影響を及ぼし、被害等を被った道路付近での移動時間が長くなることが想定される。各車両は、そのような結果を反映した、周囲の最新の交通情報にアクセスできる。現在の交通状況に応じて、自動車は時間ステップごとにルート計画を変更できる。車は出口地点に到着し、市街地から離れると避難したとみなされる。
グラフデータには、道路の種類に応じて、制限速度が含まれている。欠落している場合は、公称値を追加する。特定の道路の移動時間は、正規分布に基づいてランダムサンプリングした公称値を基に計算する。 出口ポイントは、グラフ上のいくつかの戦略的な場所で、均一にサンプリングされる。グラフは出口付近で変化するし、地震もグラフに影響を与える。
2⃣ 少しだけ数学的な定式化
グラフ上でエッジの重み(移動時間)が増加する状況をシミュレートするために、3 つのメカニズムが使用される。最初のメカニズムは、地震初期の静的な影響をシミュレートする。2 番目のメカニズムは動的に変化する影響をカバーする。 3 番目のメカニズムは、出口ノードの周囲のダイナミクス、つまり進行中の交通量をシミュレートする。これら 3 つのメカニズムによって、エッジの重みが更新される。詳しい定式化は割愛する。
(3) マルチタスク学習とFiLM[*64]
FiLMについて、説明する。元々、FiLMは画像認識タスクを念頭において導入された手法のようである。引用した参考論文のタイトルもFiLM:Visual Reasoning with a General Conditioning Layerである。本論文では、経路探索最適化に適用した(という点で新しいのであろう)。
画像変換タスク等において、マルチタスク学習が使用されている。マルチタスク学習は、関連する複数の課題を同時に学習させることで、課題間の共通の要因を獲得し、課題の予測精度を向上させるとみなされている。
❶ 共有エンコーダとタスク固有のデコーダで構成されるマルチタスク学習ネットワークでは、タスクごとにデコーダやネットワークの一部を入れ替える必要がある。
❷ 共有エンコーダと共有デコーダで構成される単一のネットワークによるマルチタスク学習は、タスクごとに異なるアクティベーション分布(隠れ層各ノードにおける出力の分布)を持っているため、その対応が必要になる。つまり、タスクごとに異なる分布に調整する必要が生じる。その調整を行う手法の一つがFiLMである。以後、❷=FiLMと考える。
FiLM は、タスク条件信号に基づいたアフィン変換を、ネットワーク(全体)に適用することで、ネットワーク(全体)の出力に与える影響を学習し、タスクごとに異なるアクティベーション分布に調整する。より具体的に言うと、タスク条件信号を入力として「スケーリング係数」および「シフト係数」を出力する関数を、それぞれ学習する。スケーリング係数とシフト係数は、ネットワークのアクティベーションを線形結合の形で調整する。スケーリング係数は、アクティベーションに掛け合わされ、シフト係数は、その掛け合わされた結果に足される。線形結合の文脈で言うと、スケーリング係数は「傾き」で、シフト係数は「切片」である。
【3】本論文のモデル・・・HQNN
本論文のモデルは、「自動車の現状と地図情報に基づいて、グラフ上の次のノードを、繰り返し選択する」量子古典ハイブリッド・ニューラル ネットワーク(HQNN)である。HQNNは、地図の限られた部分にのみアクセスしながら(局所的な情報のみを使用しながら)、ダイクストラ法を近似する。
(1) 本論文のアイデア
ダイクストラ法が最短経路を探索するには、グラフに関する大域的な情報(正確な最新のグラフ情報)が必要であった。地震時の緊急避難経路最適化の文脈で言うと、地震が道路に与える影響等に応じて、ネットワーク(グラフ)全体の大域的な情報を、グラフに反映させてグラフを変更する必要がある。そして、その度にアルゴリズムを実行して、エッジの重み(移動時間)が動的に変化するグラフに、アルゴリズムを適応させる必要がある。本論文では、これをノードごとのダイクストラ法と呼称している。
本論文のモデルは、この「ノードごとのダイクストラ法」をニューラルネットワークで近似した学習モデルである。まず【2】(3)❶(以下、❶。❷も同様)で説明した、⓵タスクごとにデコーダやネットワークの一部を入れ替える必要がある、共有エンコーダとタスク固有のデコーダで構成されるマルチタスク学習ネットワークと、⓶ノードごとのダイクストラ法には、アナロジーがあると考えたのだと推量している。つまり、⓵~⓶である。なお番号を振りすぎて、逆に分かり辛いかもしれないが、❶=⓵である。
マルチタスク学習に、唐突感があるかもしれないが、これは次のように考えれば良いだろう:状況が時々刻々と変化する中で最適避難経路を探索するタスクを、特定時刻の状況における「単一探索タスク」の集合と考えれば、これはマルチタスク学習と見做せる。
閑話休題。そして、画像タスクではないけれど、❶≈❷を期待できるだろうから、⓶~⓵(=❶)において、❶を❷で代替すると、⓶~❷が成り立つ。❷=FiLMは、局所的な情報がネットワーク全体の出力に与える影響を学習するから、⓶~❷が成り立つならば、大域的な情報がなくても(局所的な情報のみでも)⓶を、それなりに近似できるのでは?・・・というのが、本論文の本質的アイデアだと推測している。
(2) アーキテクチャ
古典的に FiLMを実装したニューラルネットワーク(古典NN)と、変分量子回路(VQC)でFiLMを実装した量子ニューラルネットワーク(量子NN)とを、”単純に”合体させたニューラルネットワークが、本論文の量子古典ハイブリッド・教師あり学習モデル(HQNN)である。ノードごとのダイクストラ法によって生成されたラベルを使用して、学習が行われる。ちなみに、HQNNは、QMware ハイブリッド量子シミュレーターで学習された。
0⃣ HQNNに対する入力データは、㊀地震座標、㊁開始ノードの座標、㊂目的地ノードの座標、
㊃エッジ端の座標、㊄所要移動時間、㊅エッジ媒介中心性、㊆ユークリッド距離、㊇コサイン距離、である。ここで、㊆と㊇は、ヒューリスティック指標として導入されている。ドライバーが、あるノードからどこに移動するかを決定するときに、尋ねる可能性のある質問ⅰ 及びⅱ への回答を符号化した:
ⅰ)目的地に近づいていますか?
ⅱ)私は目的地に向かっていますか?
質問に対する回答は、現ノードとターゲット・ノード間の、ユークリッド距離とコサイン距離として、それぞれ符号化される。
1⃣ HQNNにおける古典NN
古典NNは、 2 つの主要なコンポーネントに分かれる。地震座標を入力として受け取る FiLM 層と、標準的なニューラル ネットワーク層である。FiLM 層は、重要な役割を果たし、標準ニューラルネットワークの最後から 2 番目の層と直接インターフェイスする。FiLM 層は、変調エージェントとして機能し、並列ネットワークから得られる中間表現に対して要素ごとのスケーリングとシフト(→傾きを掛けて、切片を足す)を実行する。本論文の文脈で具体的に述べると、FiLM 層は地震座標を利用し、標準ニューラル ネットワーク層を変調して、後続する経路選択ノードの予測をガイドする。
2⃣ HQNNにおける量子NN
残りの2つの量子ビットは、データ再アップロード回路を用いて地震座標を処理する。地震座標を処理する2つの量子ビットと、5つの量子ビットは量子もつれを生成する。し、次に学習可能層が追加され、最後に主要な量子ビットがZ基底で測定される。これらの出力は、古典的なFiLMニューラルネットワークの出力と線形に結合され、結果を生成する。
特徴量と地震座標を入力として受け取り、変分量子状態の期待値のリストを出力する量子NNは、FiLM層とメイン層という 2 つの主要な部分で構成される。量子NNには、7つの量子ビットが存在する。FiLM層には2量子ビット、メイン層には5量子ビットが割り当てる。
FiLM層は 2 つの量子ビットで構成され、パウリ Z 回転ゲートを使用したデータの再アップロード†を使用して地震座標を受け取る。符号化ゲートは、回路内で 5 回繰り返される。そして、パウリ X 回転ゲートと CNOT ゲートから成り、4つの部分層をもつ「基本エンタングラー層」を使用して、変分層を構成する。
量子NNでは、最初に、変分層が基底状態に適用される。次にパウリZ回転層が、最初の特徴サブベクトルを符号化し、その後に別の変分層が続く。このプロセスは、すべてのサブベクトルがシステムで符号化されるまで、複数回繰り返される。
次に、2 つの FiLM 量子ビットは、CNOT ゲートと、状態内のすべての量子ビットに適用される NOTゲートを使用して、メイン層と量子もつれを生成する。メイン層に割り当てられた5つの量子ビットは、「走行経路の開始ノード、現ノード、終了ノードの特徴や隣接ノードに関する情報」等、システムの主な特徴を符号化している。
最後に、別の変分層が量子ビットに適用され、変分回路の最終的な量子状態が出力される。測定は、z基底(計算基底)で行われる。
†ニューラルネットワークの学習プロセスでは、同じデータを繰り返し使用するが、量子データは複製できない(複製不可原理の)ため、この繰り返し使用ができない。つまり、古典データを量子データに変換して行う量子NNでは、毎回データを変換しなければならない。
(3) モデルのパラメータ
1⃣ 全体
・バッチサイズ:2000
・入力数(メイン):34
・入力数(FiLM):2
・出力数:5
・学習率:10-3
・重み減衰率:10-5
・エポック数:100
・オプティマイザー:Adam
・活性化関数:Softmax
・損失関数:交差エントロピー
2⃣ 古典NN
・学習率の初期スケーリング係数:1
・学習率の最終スケーリング係数:0.1
・学習率:10-3
・隠れ層の数:100
・活性化関数:ReLU
・ドロップアウト率:0.5
3⃣ 量子NN
・量子ビット数:7
・学習率:10-3
・変分層の数:4
・反復数:1
【4】比較試験(シミュレーション)の結果
古典NNと量子NNで構成されるHQNNの古典部分(古典NN)と、HQNNを比較している(ようである)。選抜メンバーとアンダーメンバーのミーグリ完売表を比較しているみたいで、ズルい感じもする。
(1) 評価指標
2 つの指標に基づいて評価している。最初の指標は、有効性の指標であり、到達率と呼称している。具体的には、モデルが脱出路を見つけることに成功する=モデルが、グラフの開始ノードから終了ノードまでの経路を見つけることに成功する、確率を定量化した指標である。これは、ランダムな開始ノードと終了ノードのペアをサンプリングし、これら 2 つのノード間の接続経路が見つかる確率を評価することによって計算される。
2 番目の指標は、経路の品質を評価するもので、精度と呼ばれる。これは、「ノードごとのダイクストラ法」の結果と比較して、経路に沿った合計移動時間を計量した指標である。
(2) 比較結果及び実行時間
1⃣ 古典NN モデルは精度 87%、到達率 92%である(本論文では95%とあるが、誤植と思われる)。HQNN モデルの精度は94%、到達率95%である。 また、古典NNは、ノードごとのダイクストラ法よりも良い(移動時間が短い)経路を予測する割合が15%であった。HQNNは、この値が25%である。
本論文では、(本論文の)古典NN及びHQNNが、ノードごとのダイクストラ法よりも良い結果を生み出す理由を、次のように説明している:ノードごとのダイクストラは、グラフ上の現在の移動時間に基づいて、移動する次のエッジを常に選択する。 これにより、次のタイムステップの移動時間が変化した場合に、最適とは言えない選択が生じる可能性がある。(本論文の)古典NN及びHQNNは、動的に時間発展するグラフの存在に関する知識を獲得し、より堅牢な選択を行うことができるようだ。
2⃣ ノードごとのダイクストラ法の実行時間は、O(エッジ数+ノード数log(ノード数))である。一方で、HQNNの実行時間は、O(ノード数)である。
【5】分析及び調査
(1) HQNNにおける古典NNと量子NNの貢献度分析
古典NNと量子NNの出力を統合したHQNNの最終・全結合層の重み行列を解析した結果、古典NNも量子NNも、HQNNの出力に対して同等の寄与を示していた。ある意味、不思議な結果である。
なお、量子NNは、その部分行列要素間の遷移が、より滑らかであった。また、古典NNよりも、量子出力からの寄与が、より均一に分布していた。
(2) 量子回路削減可能性調査・・・ZX計算
量子FiLM回路に対してZX計算を行った結果、削除できる冗長性が含まれている可能性が見つかった。例えば、最後の変分層の、最初の量子ビットに適用される RX回転に対応する学習可能パラメータは、モデルの出力に影響を与えなかった。つまり、削除できる。
※ ZX計算については、こちらも参照。
(3) 量子回路の学習可能パラメータ調査・・・フィッシャー情報量
フィッシャー情報量を用いて、量子回路(量子FiLM層)の学習可能パラメータを調査している。
まず、FiLM層の学習可能なパラメータ数を増加させる要因として、以下の2つをあげている:㊀各変分層の表現力を高める内部変分層の数、㊁FiLM 層のフーリエ表現力を高める外部データ再アップロード層の数。そして、ゼロに近い固有値に遭遇する可能性(学習可能性が低下する可能性)は、学習可能パラメーターの数とともに増加する傾向を発見した。つまり、学習可能パラメーターの数が増えると、学習可能性が低下する傾向を発見した。
【5】考察
本論文で、少しややこしいのは、HQNNを構成する古典NN単体と、HQNNを比較している点である。ベースラインは「ノードごとのダイクストラ法」であり、古典NNとHQNNのそれぞれが、どれだけ良い近似となっているかを調べると共に、古典NNとHQNNの比較を行っている。
そして、HQNN>古典NNであるけれども、古典NNと量子NNの貢献は同程度という、ややこしい結果となっている。つまり、量子アルゴリズムと古典アルゴリズムの比較ではなく、量子と古典を単純に混ぜ合わせると、古典を上回ったという結果である。なお、HQNNは、いわゆる量子古典ハイブリッド・アルゴリズムとは異なる。ハイブリッドは、量子アルゴリズム(≃変分アルゴリズム)を古典コンピュータを使って、効率的に実行するアルゴリズムである。
NISQ(Noisy Intermediate-Scale Quantum)デバイスにおける、量子アルゴリズムとして開発された変分量子アルゴリズム(VQA)は、テンソルネットワーク(TN)を用いた古典的手法で、効率的に模擬できるケースが多い。これはTNが、パラメータ化された量子回路(PQC)を、効率的に記述できるからである。加えてTNは、GPU等の強力な古典ハードウェア・アクセラレータ上で展開することが、可能であり、増々パワーアップしている。このような事情から、”量子対古典という対抗図式”では、量子不利という状況にあった。
実質的なVQAの創始者であるザパタ・コンピューティング[*65]は、逆にTNを利用することで、古典シミュレーションを超える性能をVQAに付与するフレームワークを、論文[*66](以下、本論文)にて紹介した(23年12月15日@nature communications)。このフレームワーク自体は、カリフォルニア大学バークレー校及びフラット・アイアン研究所[*67]の研究者によって、2018年に提案[*68]されている。本論文の位置づけは、同フレームワーク及びその他先行研究で提案されている、各種手法の改良と考えられる。量子>古典、という内容の論文ではない。
【1】本論文の主張
本論文は、㊀TNを使ったPQCの初期化フレームワークは、㊁ランダムにPQCを初期化するフレームワーク及び、恒等写像に近い値でPQCを初期化するフレームワークに比べて、(1)精度が高く、(2)不毛な台地を回避できる、と主張する。本論文では㊀を(改良したフレームワークを)、「相乗的学習フレームワーク」と呼んでいる。
【2】事前整理
(0) 相乗的学習フレームワークの技術要素と先行研究との関係
本論文で紹介されている、「TNを使ってPQCを初期化することで、VQAの性能を向上させる」という発想は、[*68]で提案されたものである。具体的な学習方法は、[*69]で扱われた手法を拡張したものである。[*69]では、結合次元2 の学習済・行列積状態(MPS)が、2 量子ビット・ゲートに変換(分解)され、機械学習タスクの量子回路を初期化するために使用された。
しかし[*69]では、MPSの結合次元は2に制限されていたため、量子モデルの改善に使用できる古典リソースの範囲に制限が課されていた。本論文では結合次元を拡張し、スケールアップを可能にした。なお、MPSをPQCに変換する手法は、[*70]における手法を採用している。
(1) テンソルネットワーク
N 量子ビットの波動関数は、すべての軸が次元 2 を持つ N 次テンソルによって自然に表現される。テンソルネットワークとは、多数の「縮約」演算を通して、複数のテンソルが繋がった構造(ネットワーク)を指す。「縮約」とは何か?を演算として説明すると、「テンソルに付いている添え字で、同一の添え字については和をとる演算」という(木で鼻を括った)説明になる。
量子シミュレーションへの応用の場合、TN の頂点数 N は量子コンピューターの量子ビット数と等しく、N頂点グラフのトポロジーによって、忠実に再現できるもつれの形式が決まる。
(2) 行列積状態
本論文では、TNとして、計算的に扱いやすい行列積状態(MPS)を採用している。その単純さにもかかわらず、十分な結合次元を備えた MPS は、あらゆる N 量子ビットの波動関数をシミュレートできる(非常に多くの自由度を補助変数に割り当てれば、任意の波動関数をMPSで表現することが「原理的には」可能である[*71])。このため、多くの TNアプリケーションにとって、自然な最初の選択肢となる。
MPS の表現力は、結合次元 χ(隣接するテンソル間の共有リンクの次元)によって決まる。量子状態のもつれが大きくて、MPS で正確に再現できない場合は、特異値分解(SVD)を使用して、ほぼ最適な忠実度で低ランクのMPS近似を見つけることができる。
(3) MPSからPQCへの変換
PQC と TN のパラメータは、原則として自由に相互変換できる。ただし実際には、TN→POCの変換では、いくつかの”問題”が発生する。一般的なケースではMPS は、マルチレベル量子ビット(qudit)ゲートに変換される。変換対象はquditゲートではなく、2量子ビット・ゲートが好ましい。この理由は、「マルチ量子ビット・ゲートは計算オーバーヘッド大きく、制御するために必要なパラメータ数も多い(指数関数的に増加する)」からである。
[*70]で開発されたMPS分解プロトコルを使用して、MPSをPQCに変換すると、SU(4)ゲートが生成される。SU(4)†1ゲートは、KAK分解†2により、1量子ビットの回転ゲートU(2)とエンタングルゲート(XX、YY、ZZ:2量子ビット・ゲート)に分解することができる(この分解は、一意ではない)。つまり、最終的には、1量子ビット・ゲートと2量子ビット・ゲートの組で表されるため、計算オーバーヘッドや制御の”問題”は、ないと考えられる。
†1 SU(4)を、記号としてそのまま読むと、次数4の特殊ユニタリー群を意味している。特殊な、4×4ユニタリー行列のリー群とも言い換えられる。「特殊な」とは、行列式=1を意味している。ちなみにSU(4)は、15次元の単純リー群になる。n量子ビットの(回転)操作は、SU(2n)の元で表される。つまり、SU(4)ゲートは、2量子ビットに対する回転操作ゲートということになる。
†2 KAK分解とは、(半単純)リー群を、部分群の積で分解することである。Kは極大コンパクト部分群を指しており、 Aは可換部分群を指す(人名の頭文字というわけではないが、"可換"なのでアーベルを意識して、Aなのだろう)。
【3】相乗的学習フレームワークについての整理
(1) 相乗的学習フレームワークのアーキテクチャ
概略を述べる。まず、量子回路を、TN(正確には、MPS)で表現する。次に、MPSからPQCへの(高忠実度)変換を利用して、MPSをPQCで近似表現する。最後に、量子ゲート(SU(4)ゲート)を追加して、量子回路を拡張する。そして、このように拡張された量子回路は、より優れたパフォーマンスを可能にする(と主張している)。
MPSからPQCへの変換によって、MPSは、2量子ビット・ゲートで構成されるk個の線形層に分解される。SU(4)ゲート で構成される最終層(k+1番目の層)のみ、全結合層である。SU(4)ゲートのパラメーターは、変換された量子状態を大幅に変更しないように、平均0、標準偏差0.01の正規分布からサンプリングされる。なお、追加ゲート(この場合は、SU(4)ゲート)の配置は、問題に依存する可能性が高い(ので、本論文のアーキテクチャに汎用性は期待できない)。
(2) 初期化と精度、初期化と「不毛な台地」の関係
VQAは、最適化問題として定式化されている。最適化の対象となるパラメータは、PQC(一般にはアンザッツと呼ばれることが多い)に実装される。本論文は、PQCの初期化(PQCのパラメータの初期化)がVQAに与える影響は、広く研究されていない、と述べている。
1⃣ 精度との関係について
量子化学の分野では、ハートリー・フォック(HF)法または、結合クラスター法(に属する手法)に基づく、PQCの(古典的)初期化を使用して、より高精度の基底状態エネルギーが得られることが示されている。これは、変分法において、真の波動関数に近い試行関数を選ぶと、エネルギー固有値を精度よく計算できることを考えると、肚に落ちるだろう。
量子化学とは異なり、量子機械学習の分野では、PQC初期化と精度の関係は、あまり研究されていないと、本論文は述べている。つまり、量子化学分野におけるHF状態のような、適切な初期状態が、量子機械学習の分野には、見当たらないという指摘であろう。本論文は、TN(正確には、MPS)を使って求めたパラメータを、初期パラメータとして使うことを提案している。
2⃣ 「不毛な台地」との関係について
PQC初期化には、「不毛な台地(バレン・プラトー:barren plateauの”正式”な和訳)」対応策としての側面もある。[*71]では、「(全てをランダム初期化するのではなく、あくまで)一部をランダム初期化、残りを『PQCが恒等演算子』となるように選ぶ」パラメータ初期化が紹介されている。ちなみに[*71]で引用されている論文[*74]の著者は、英量子ソフトウェア・スタートアップのRahkoとケンブリッジ・クォンタム・コンピューティングの研究者他である。面白いことに、両社とも既に買収されている。[*75]では、ベータ分布を使ってPQC初期化を行う方法が提案されている。ベータ分布のハイパーパラメータは、入力データから推定される。つまり、入力データによってPQCのパラメータ初期値を変更することで、不毛な台地を回避するという戦略である。
不毛な台地とは、言うまでもなく、VQAにおける悪名高い、勾配消失が発生するという困り事である。もう少し正確に述べると、「(十分表現力の高いPQCを使うと、)量子ビット数を増加した場合に、コスト関数の勾配が指数関数的に減衰する」という問題を指す。本論文では、本論文が提案するMPS初期化は、不毛な台地を回避できる、ことを示す。
(3) MPSの学習
0⃣ 前振り
本論文では、相乗的学習フレームワークの利点を評価するために、生成モデリング・タスク(量子機械学習アプリケーションのイメージであろう)と、基底状態探索タスク(量子化学アプリケーションのイメージであろう)、を検証対象として採用している。生成モデリング・タスクでの目標は、学習データによって与えられる離散測定結果の分布(確率分布)関数を、再現する方法を学習することである。コスト関数には、カルバック・ライブラ(KL)情報量を使用している。KL情報量は、確率分布の差異を測る尺度として一般的に使用される。
基底状態探索タスク の目標は、基底状態のエネルギーを探索することである。コスト関数は、ハミルトニアンの期待値である。
1⃣ テンソルネットワーク・ボルンマシン
MPSの学習には、量子回路ボルンマシン(QCBM)のTN等価物であるテンソルネットワーク・ボルンマシン(TNBM)が使用される。QCBMは、量子生成モデルの一例である。確率モデルを表現したり、確率分布をサンプリングすることができる。あくまで特定のタスクやデータセットを、古典コンピューターよりも効率的に処理することができる。TNBMは、TN によってパラメータ化された波動関数を使用して、確率分布を表す生成モデルである。TNBMもQCBMと同様に、ボルン則を使用して、古典的な確率分布をパラメータ化している。
QCBM は完全な量子モデルであり、複雑なデータセットに存在する相関をより適切に再現できる(はずだ)が、現在の量子ハードウェア(NISQデバイス)の性能によって制限されている。TNBM は、強力なGPUの能力を最大限に活用できるが、古典的な意味で効率的にシミュレートできる、量子もつれの程度によって表現力が基本的に制限される。
2⃣ 生成モデリング・タスク用MPSの学習
生成モデリング・タスク用MPSは、コスト関数をKL情報量とする、勾配降下法によって学習される。勾配計算は、密度行列繰り込み群(DMRG)法を用いて行われた。特異値分解(SVD)切断における、しきい値は、結合次元に応じて、5×10-5まで適応的に設定した。学習率は、0.01とした。
3⃣ 基底状態探索タスク用MPSの学習
基底状態探索タスク用MPSは、コスト関数をハミルトニアンの期待値とする、勾配降下法によって学習される。勾配計算は、密度行列繰り込み群(DMRG)法をベースとする計算法を用いて行われた。MPSの計算にはITensorライブラリが使用された。
【4】相乗的学習フレームワークの検証結果
(1) データセット
0⃣ 前振り
前述の通り、相乗的学習フレームワークの利点を評価するために、1⃣生成モデリング・タスクと、2⃣基底状態探索タスク、を検証対象として採用した。
1⃣ 生成モデリング・タスク
生成モデリング・タスク の検証には、2つのデータセットが用いられている。それぞれN=12の長さを持つビット列である。❶1 つ目は、カーディナリティ・データセット。これは、全てのビット列が、N/2のカーディナリティをもつデータセット(0の個数と1の個数が、それぞれN/2であるビット列、を意味していると理解)。❷2 つ目は、2次元ピクセル・レイアウト上に、水平または垂直の線を含む、バー&ストライプ(BAS)画像のデータセット。❶は、隣接するビット間の相関が中程度に低いデータセットであるのに対し、❷は、同じ行または列内のビット間に強い相関を示すデータセットであるため、2次元相関データセットになる。
❶には k = 3 層を使用した。❷には、k = 4 層を使用した。
2⃣ 基底状態探索タスク
このタスクでは、N = 9 量子ビットを使用し、3 × 3 の長方形格子上の 2次元ハイゼンベルグ模型のハミルトニアン期待値を最小化する。また、このタスクでは、k = 4 層を使用した。
(2) 比較対象
⓵ランダム初期化されたPQC、⓶恒等写像に近い値で行う初期化(near-identity初期化)されたPQCが、⓷MPSで初期化されたPQCと比較される。⓶は長いので、以下、NI初期化PQCと呼ぶ。本論文で行われたNI初期化を具体的に述べると、「平均0、標準偏差0.01の正規分布からサンプリングされたパラメータによる初期化」である[*72]。
MPSの結合次元χは、生成モデリング・タスクのカーディナリティ・データセットでは、「2,4,5次元」が用いられた。BASデータセットでは、「2,4,8次元」が用いられた。基底状態探索タスクでも、「2,4,8次元」が用いられた。
(3) 計算環境とハイパーパラメータなど[*72]
1⃣ 計算環境
PQC最適化計算は、全てQulacs量子回路シミュレータで実行された(残念ながら、NISQデバイス実機ではない)。Qulacsは世界最速であり、オープンソース。インターフェースは、ザパタのORQUESTRA®プラットフォームが使用された。
最適化アルゴリズムには、 CMA-ESアルゴリズムが採用された。CMA-ESは、「変数分離不能、悪スケール、多峰性といった困難さをもつ連続最適化問題に対して、効率的な探索法として知られている」。CMAとは、Covariance Matrix Adaptationの略であり、正規分布の共分散行列を学習する。ESとは、Evolution Strategyの略であり、正規分布を用いた多点探索を行う進化計算手法である[*76]。
2⃣ ハイパーパラメータなど
生成モデリング・タスクの場合、初期ステップサイズは1.0×10-2が選ばれた。基底状態探索タスクでは、ランダム初期化とNI初期化については、1.0×10-2が選ばれた。MPS 初期化では、χ = 2 →7.5×10-3、χ = 4 →5.0×10-2、χ = 8 →2.5×10-2が選ばれた。
損失許容値は、5×10-4に設定し、ステップ間の損失値の差がこの閾値以下にとどまった場合、最適化を停止した。
(4) 結果
1⃣ 相乗的学習フレームワークの精度
以下の結果は、試行を6回行い、そのうち最善の値を採用している。カーディナリティ・データセットを用いた生成モデリング・タスク(❶)及びBASデータセットを用いた同タスク(❷)では、最適化計算の反復回数(❶で~1万回、❷で1万5千回)を増やしても、ランダム初期化(⓵)は精度が低い。定量的に述べると ⓵ は、❶及び❷で、KL情報量が100オーダーで停滞してしまう。NI初期化(⓶)は、❶で0.5×10-1程度まで、❷では1.0×10-1程度まで、KL情報量が低減する。
一方、MPS初期化(⓷)は、結合次元χ=2でも、❶で1.0×10-2未満に至る。❷では0.5×10-2程度まで、KL情報量が低減する。❶ではχ=4,5でも、それほど大差はないが、❷ではχ=4,5だと反復回数ほぼ1万回で、KL情報量は、1.0×10-3まで低減する。
基底状態探索タスク(❸)では、⓵の誤差は1.0×10-1程度である。ここで誤差とは、ハミルトニアン期待値と基底エネルギーの厳密解との差、を意味している。⓶とχ=2の⓷とは、差がほぼない。0.5×10-1程度である。χ=4及び8では、1.0×10-2程度となる。
MPS初期化(つまり、ここで言う⓷)は、従来手法(ランダム初期化⓵及び、NI初期化⓶)に比べて、高精度である、と結論としている。
2⃣ 相乗的学習フレームワークは、不毛な台地を回避できるか?
相乗的学習フレームワークは、不毛な台地を回避できるか?という設問に答えるために、量子ビット数を増加させたときに、コスト関数の勾配がどのように推移するかを評価した。勾配は、有限差分法(2次中心差分)で計算している。刻み幅は、10-8。まず、データセットとして、カーディナリティ・データセットを使用した(❶)。結果は、以下の通りである:
ランダム初期化 の場合(⓵)、回路の深さ(1層~15層)と量子ビット数(6量子ビット~20量子ビット)が増加するにつれて、勾配分散は指数関数的に減衰する。MPS初期化(⓷)でχ=2の場合、減衰は回避されている。回路深度に関しては、深くなるにつれて(むしろ)、勾配分散は増加した。①は1000回、②は100回試行した。勾配分散の値は、試行した結果の中央値である。
次にBASデータセット(❷)を用いて、量子ビット数を最大100まで増やして、勾配の大きさを評価した。結果は、以下の通りである:
ランダム初期化(⓵)の場合、勾配の大きさは指数関数的に減少していく。最終的に100量子ビットで、勾配の大きさは1.0×10-24を下回る。MPS初期化(⓷)の場合、χ=2では100量子ビットで、1.0×10-2程度に踏みとどまる。χ=4では 、量子ビット数が100まで増えても、1.0×100程度をずっと保っている。<br>
MPS初期化(つまり、ここで言う⓷)は、ランダム初期化(⓵)とは異なり、不毛な台地を回避している、と結論としている。さらに、それは量子ビット数100にまで及び、スケーラビリティを確保した、としている。
【5】考察
(1) 本論文の検証は、量子シミュレータによるもので、NISQデバイス実機によるものではない。
(2) 本論文は、量子>古典という内容ではない。VQAにおける困り事「不毛な台地」を回避したという内容である。それはPQCの初期化を工夫することで実現した。具体的には、古典的手法を使って学習したパラメータの初期値を使って、初期化を行った。あくまで、VQAを対象として(古典アルゴリズムを対象としていないという意味)、初期化手法の巧拙によって、「不毛な台地」を回避している。その結果、精度も向上した、という内容である。
(3) 先行研究[*69]では『2より大きな結合次元のMPSを学習する場合、厳密でないコンパイル・プロセスを通じて誤差が蓄積し、回路の初期化を悪化させる』と書かれている。つまりχ>2の場合、MPSからPQCへの変換はうまくいかない、として結合次元の拡張が行われなかった。
(4) 本論文では、MPSからPQCへの変換において現れるSU(4)ゲートを、U(2)ゲート×4とエンタングル・ゲート×3に分解し、トポロジーは全結合層として、1層だけ最後に追加した。その新しい「アーキテクチャ」の採用により、結合次元の拡張=量子ビット数のスケールアップを実現させた、という点がオリジナリティになるのだろう。
(5) 良い初期状態から、良い最終結果(精度)が出るのは、当然と感じるかもしれない。当然、良い初期状態を得るために、手間暇をかけている。一見、凡庸な内容に見えるが、初期化の工夫で「不毛な台地」を回避できることは、それほど自明ではないだろう。つまり、凡庸ということはないのだろう。
スペインのマルチバース・コンピューティング他[*77]は、既存暗号の解読に関する論文[*78](以下、本論文)を発表した(23年11月6日@arXiv)。既存暗号とは、直接的には(シミュレーションで実証したのは)、共通鍵方式のDES、AES、Blowfishであるが、公開鍵方式のRSAあるいは、(暗号資産、ブロックチェーンやデジタル認証で広く使われる)ハッシュ関数も含まれる。本論文は、小規模な既存暗号は、既に効率的に解読できる、と解釈できる。効率的に解読できるとは、十分短い時間で、解読できるという意味である。小規模とは、パソコンレベルの通信で扱われる暗号を、パソコンで解読するという意味である。小規模レベルであれば、既存暗号は、従来考えられているよりも脆弱と判断されるだろう。
本論文は、改良した変分量子攻撃アルゴリズム(VQAA)を紹介している。以下、これを改良VQAAと呼ぶ。中国の研究者によるオリジナルVQAAに必要な量子リソースを大幅に減らしたことで、NISQデバイスであっても、実装は可能とする。より重要なポイントは、テンソルネットワークを使ってVQAAを脱量子化することで、純粋に古典的に、既存暗号の解読が可能かもしれないという示唆であろう。
【1】本論文の主張
(1) 鍵長10ビットのS-DESでは、総当たり攻撃で必要な反復回数の「約1/62」に相当する反復回数で、暗号鍵を見つけることができた。
(2) 鍵長16ビットのS-AESでは、総当たり攻撃で必要な反復回数の「約1/33」に相当する反復回数で、暗号鍵を見つけることができた。
(3) 鍵長32ビットのBlowfishでは、総当たり攻撃で必要な反復回数の「約1/24」に相当する反復回数で、暗号鍵を見つけることができた。
【2】事前整理
(1) オリジナルの変分量子攻撃アルゴリズム(VQAA)
0⃣ 前振り
清華大学他に属する中国の研究者[*79]は、DESやAESといった対称鍵暗号に対する効率的な攻撃方法「変分量子攻撃アルゴリズム(VQAA)」を提案する論文を22年7月[*80](arXiv[*81]では22年5月)に発表した。[*80]では、S-DESに対するVQAAためのアンザッツとコスト関数が設計され、VQAAがグローバー・アルゴリズムよりも高速であることを示した、と主張する(この主張自体は、おかしな主張ではない。グローバー・アルゴリズムは、どんな場合でも最速であることが保証されているわけではない。とは言え、主張の真偽は、吟味すべきだろう)。そして、エンタングルメントが高速化に重要な役割を果たしていることを示した。
1⃣ VQAAの概要
大まかに言うと、VQAAは次のように動作する:まず、既知の暗号文を、正則グラフで構成される古典的ハミルトニアンの基底状態で符号化する。さまざまな鍵を試して、そのような基底状態を見つけ、変分パラメーターを最適化することで、暗号鍵を取得する。
2⃣ VQAAにおける変分量子回路の役割
VQAAにおいて、変分量子回路(VQC)(パラメータ化量子回路(PQC)あるいはアンザッツとも呼ばれる)の役割は、平文を暗号化する鍵の(重み付けされた)重ね合わせに相当する、量子状態を生成することである。平たく言えばVQC は、すべての可能な暗号鍵の線形結合を生成する。この暗号鍵の重ね合わせは、暗号化プロセスへの入力として機能する。つまり、入力された平文に対して、考えられる暗号文の重ね合わせを、鍵ごとに生成するために使用される。
3⃣ 暗号鍵の取得
暗号鍵の取得は、最適化計算の枠組みで、次のように行われる:(未知の)暗号鍵に対して、測定された「暗号文」と、期待される(既知であると仮定される)正しい「暗号文」の差が計算される。この計算は、ハミング距離を使用して行われる。 ハミング距離は、2つのバイナリ文字列 aとbとの差、つまりそれらが異なるビット数を測定する。たとえば、a = [10101]、b = [11000] の場合、ハミング距離は、3である(2番目、3番目、5番目の数字が、aとbで異なるため)。なお、二次多項式・高次多項式・pノルムを含む、いくつかの関数を検証した中で、最も効果的であったため、ハミング距離が選ばれている。
ハミング距離の計算は、勾配降下法を使用して更新される。勾配降下法(GD)はネルダー・ミード(NM)法を比較された後に、選択されている(必要な反復回数が、GDでは30~60回程度、NMでは、400回程度だったため)。最後に、正しい鍵の確率が増幅される。
4⃣ オリジナルVQAAに対するツッコミ
オリジナルVQAAは、暗号鍵に対して、N量子ビットを割り当てる。さらにデータ(メッセージ)に対して、N’量子ビットを割り当てる。これが冗長であると看破したことが、本論文の起点である。
(2) 座標変換を用いた勾配降下法の改良
本論文では、(暗号鍵探索用)最適化計算の反復回数を、減らすための特別な施策が施されている。これは本論文とほぼ同じメンバーが開発した手法を利用している(論文[*82]にて、23年4月arXivにて発表)。この手法は、コスト関数自体に依存する、パラメータ空間内の余分な方向を追加することで、より効率的な探索を可能にする、変分回転に似た座標変換に基づく手法である。この手法により、「不毛な台地」や局所極小の影響を緩和することが可能、と主張している。
具体的に[*82]では、「超球面座標アプローチと、平面回転法」と呼ぶ手法を提案している。どちらの方法も、コスト関数を含む変数を高次元空間に拡張する。これにより、よりスムーズな、場合によってはより効率的な最適化が可能になる。
1⃣ 超球面座標アプローチ
このアプローチを文章で説明しても分かり辛いが、まずは文章で説明する。コスト関数(直交座標系で曲線として表現される)と直交座標によって(n + 1)次元空間内の点 P が定義される。このPは、勾配ゼロの平らな台地に、佇んでいる。次に、座標は (n+1) 次元の超球面座標{θ, r}に変換される。最適化はこの新しい超球面座標に対して実行し、パラメータが更新される。
やっていることは実にシンプルである。平らな台地に佇む点Pを、とにかく、平らな台地から脱出させるために、(極座標をイメージして)角度θだけ回転させてやる。そうすると点P’ができる(P’は、コスト関数曲線上にはない)。このP’を、コスト関数を表す曲線に、戻してやる。[*82]ではこれをcollapsed戻し、と呼んでいる。collapsed戻しされたP’はコスト関数曲線上ではPcとなる。こうして、めでたく、勾配ゼロの平らな台地から脱出から脱出することができた。
この方法で、収束に必要な反復回数が減ることが示されている([*82]では、反復回数が12%~84%減った例が示されている)。
2⃣ 平面回転法
このアプローチも文章で説明すると分かり辛いが、まずは文章で説明する。平面回転法も、コスト関数と直交座標によって定義される (n+1) 次元空間内の点 P から始まる。もちろん、このPも平らな台地に佇んでいる。ただし、超球面座標に変換する代わりに、軸の (n + 1) 次元の回転が実行される。
本質的に、超球面座標アプローチとやっていることは変わらないが、 平面回転法は、コスト関数曲線を置き去りにして、直交座標系だけをθだけ回転させてやる。置き去りにされた、元のコスト関数曲線上のPは、平らな台地に佇んでいたが、回転した直交座標系では、そうではない(そうならないように回転させたので、当然!)。めでたく、勾配ゼロの平らな台地から脱出から脱出することができた。
(3) 非直交符号化
非直交符号化は、次のような符号化である:相互に、完全には直交しないが、最大限直交する量子状態のセットを使って、古典的情報を符号化する。 お馴染みのブロッホ球を使って説明すると、ブロッホ球に内接する三角錐の4つの頂点を使って、符号化する。これは、1量子ビットあたり4個の非直交状態を使用する、という意味である。つまり、暗号鍵の複数古典ビット(4ビット)を、1量子ビットに符号化することで、量子アルゴリズムの実行に(量子回路に)必要な量子ビット数を減らすことができ、シミュレーション時間も短縮される。
非直交符号化では、計算基底で測定する代わりに、アルゴリズム内の量子測定により単一量子ビットの量子トモグラフィーが実行される。トモグラフィ-の結果から、非直交状態を区別し、対応する古典的構成が特定される。
(4) S-DES、S-AES、Blowfish
本論文で検証対象となっている共通鍵暗号について、簡単にまとめる。
1⃣ S-DES
S-DES(Simplified Data Encryption Standard)は、1970年代にIBM によって開発され、広く使用されているデータ暗号化標準(DES)アルゴリズムの簡易バージョンである。S-DES は、一連の置換および置換技術を使用して、平文を暗号文に、またはその逆に変換する。S-DESプロトコルは、 8 ビットのデータ・ブロックで動作し、10ビットの鍵長を使用する(ため、教育目的や基本的な暗号化タスクに適している)。
2⃣ S-AES
Simplified Advanced Encryption Standard(S-AES)は、Advanced Encryption Standard(AES) アルゴリズムを教育用に適応させたもので、S-DES よりも複雑である。S-AES は、通常は 8 ビットのデータ・ブロックで動作し、通常は 16 ビットの鍵長を使用する。S-AES は、現代の対称鍵暗号化の中核概念である置換順列ネットワークを採用して、平文を暗号文に、またはその逆に変換する。
3⃣ Blowfish
Blowfish は対称鍵ブロック暗号・暗号化アルゴリズムであり、そのシンプルさと効率性で知られている。 固定サイズのデータ・ブロックで動作し、32 ビットから 448 ビットの範囲の鍵長をサポートするため、さまざまなセキュリティ要件に適応できる。鍵のセットアップ・フェーズは、特に高速であり、迅速な暗号化と復号化のプロセスが可能になる。Blowfish は古い(1993年考案)暗号であるにもかかわらず、その堅牢なセキュリティ機能と速度により、今でも広く使用されている(らしい)。
Blowfishは、「誕生日攻撃(Birthday Attack)に対して弱い」と考えられているにもかかわらず、この暗号に対する効果的な解読法は、現在まで見つかっていない。
【3】本論文のオリジナリティ
(1) 基本アイデア
改良VQAAは、オリジナルVQAAに対する、次の洞察に基づいていて導出された:精度を損なうことなく、より少ない量子ビット数と回路深さで実装することが可能。オリジナルVQAAが、暗号鍵にN量子ビット+メッセージにN’量子ビットを必要としたのに対して、改良VQAAは、暗号鍵に対してのみN量子ビットを必要とし、メッセージには古典ビットを割り当てる(従って、古典コンピュータを使って、純粋に古典的に処理される)。こうして、量子ビット数(及び回路の深さ)の削減を達成している。
なお、先の基本アイデアに加えて、「非直交符号化」を使用して、必要な量子ビット数をさらに減らしている。また、最適化計算に要する反復計算の回数を減らすために、超球面座標アプローチと平面回転法を適用している。
(2) 追加のアイデア
本論文では、VQAAを進化させるであろう手段を、以下の通り、いくつも列挙している。中でも、テンソルネットワークを使った”古典的”VQAAを開発するというアイデアは、興味深い。なお、1⃣と2⃣は対称鍵に限定されるので、公開鍵暗号が主流であることを鑑みると、実効性は乏しいかもしれない。
1⃣ 対称鍵プロトコルの対称性:
S-DES、S-AES、Blowfish などの対称鍵プロトコルに対してVQAAは、暗号化と復号化の間の対称性をまったく使用していない。この対称性により、より効率的な攻撃が可能になると予想される。
2⃣ 二重最適化:
対称鍵プロトコルの場合、暗号文と平文の間の関連性の割合を考慮することで、暗号化プロセスまたは復号化プロセスのどちらかに、さらに焦点を当てることができる。このため、最適化に向けた追加の手がかりが得られる。
3⃣ バッチ処理とツリー構造の最適化:
古典シミュレーションの場合、バッチ処理は、複数のCPU(あるいはGPU)にわたる並列実行を可能にする。このため、古典処理を併用する改良VQAAでは、並列処理によって、計算時間短縮が期待できる。ツリー構造の最適化は、好ましい極小値から最適化プロセスを開始することで、効率的な探索が期待できる。
4⃣ ビットレベルの相関:
ビット間のさまざまなタイプの相関に敏感なコスト関数を設計することも可能である。これは、変分パラメータの更新を強化するために、量子回路内のより複雑な構造の探索を動機づける。
5⃣ 変分パラメータの埋め込み:
変分パラメータを暗号化ブロック内に直接組み込むことで、より効率的に暗号鍵探索が実行できることが期待される。ただし、量子ビット数と計算コストが嵩むという代償が伴う。
6⃣ テンソル ネットワーク:
VQAAは、量子回路を使用して変分状態を生成することに依存している。しかし、必ずしも量子回路を使う必要はない。変分量子回路の代わりに、変分テンソルネットワーク・アンザッツを使用して、完全に古典的な変分テンソルネットワーク攻撃を開発することもできる。
NISQデバイスは、デバイス・ノイズを考慮すると、量子誤り緩和策を使っても、量子シミュレータと同じ結果は出せないから、古典的にVQAAを実装するというアプローチは、興味深い。
【4】比較結果
ベンチマークとして、総当たり攻撃とオリジナルVQAAが採用されている。改良VQAAについては、暗号鍵探索用最適化計算の反復回数を、減らすための施策が施された2種類と、同施策が施されていない、計3種類が検証対象とされている。具体的には、❶超球面座標を使用したケース、❷平面回転法を使用したケース、❸プレーンなケース、の3種類である。
評価指標は、1⃣正しい鍵を回復するために必要な平均反復回数、および2⃣計算時間である(Blowfishは1⃣のみ)。
(0) 計算環境
Python 環境(バージョン 3.9.10)で実行される量子コンピューティング・フレームワークとして、主に Qiskit(バージョン 0.42.1)が利用された。ハードウェアは、Apple M1 Pro プロセッサと 16 GB のメモリを搭載した MacBook Pro 16 インチ 2021 モデルが採用された(OSは、 MacOS Ventura 13.0.1)。H/Wは、パソコンである、というのがポイントである。
(1) S-DESで正しい暗号鍵を見つけるために必要な平均反復回数の比較
オリジナルVQAAと改良VQAA の両方について、100 回の実行を実施した。各実行では、異なるペア(平文、暗号文)が使用され、S-DES を使用して暗号化された。目的は、暗号化に使用された暗号鍵を回復することである。なお、成功率は常に100% である。
1⃣ 反復回数
総当たり攻撃では、鍵を回復するために29 = 512 回の反復が必要である。ここで、9=10ー1であり、10(ビット)は、S-DESの鍵長である。
オリジナルVQAAは平均約 35.27 回の反復で暗号鍵を見つけることができる。改良VQAA は、ほぼ同じ反復計算回数で、暗号鍵を見つけることができる。ただし、オリジナルVQAでは 18 量子ビット(鍵に10量子ビット、平文に 8量子ビット)が必要であるのに対し、改良VQAAでは、実行に必要な量子ビットは、5 量子ビットのみである。
ただ、グローバー・アルゴリズムによる量子総当り攻撃では、18 ~ 25 回の反復で済むので、プレーンな改良VQAAよりも、効率的である。ただし、反復回数と実行時間は、”施策を施す”ことにより、さらに減少する。超球面座標アプローチを適用した場合、反復回数は約 8.3 回にまで減少する。およそ1/62である。
2⃣ 計算時間
改良VQAA+超球面座標アプローチは(100 回の)シミュレーションを、約134.3秒で完了する。オリジナルVQAAは26,926 秒(およそ7.5 時間)を要する。※これは、パソコンで実行した結果である。
(2) S-AES
(通常は)16ビットの鍵長を使うS-AESに対して、オリジナルVQAAでは、鍵に16 量子ビット、平文に16 量子ビットが必要となる。これは、実装が困難なレベルであり、S-DES の場合とは異なり、S-AESに対して、オリジナルVQAAは実行されていない。一方、改良VQAAは、1量子ビットあたり4個の非直交状態の非直交符号化を使用しているため、4 量子ビットのみを必要とする(4×4=16)。つまり、実行が可能である。なお、成功率は常に100% である。
1⃣ 反復回数
総当たり攻撃では、鍵を回復するために215 = 32,768 回の反復が必要である。ここで、15=16ー1であり、16(ビット)は、S-AESの鍵長である。
改良VQAA+超球面座標アプローチでは、982.67 回の反復を必要とした。これは、およそ1/33であり、S-DESの場合よりは性能が落ちている。
2⃣ 計算時間
改良VQAAは、約8,241.01秒を要した。※これは、パソコンで実行した結果である。
(3) Blowfish
Blowfishでも、総当たり攻撃と改良VQAAの比較を行った。総当たり攻撃の場合、鍵長を32ビットとすると、232-1=31 = 2,147,483,648回の反復が必要である。改良VQAAは、89,460,336 回の反復で暗号鍵を見つけることができた。この改良VQAAは、3 層のユニタリ・ゲートを持つ、非直交符号化された8 量子ビット量子回路で実行された。1量子ビットあたり4個の非直交状態の非直交符号化を使用しているため、8 量子ビットで賄える(8×4=32)。
【5】感想
(1) 改良VQAAのシミュレーションを、高度な暗号(2048ビットのRSA)に対して、スパコンwith GPUというハードウェアで行うと、どうなるだろうか。興味がある。ちなみに、富士通は23年1月、次のような発表を行っている(22年12月末に、中国の研究者がRSA2048をNISQマシンで解読できると主張する論文を発表していた):2048ビットのRSA暗号を解読するためには、約104日必要である。ハードウェア要件は、量子ビット数約1万、ゲート数約2兆2300億である[*83]。
(2) テンソルネットワークを使って、どの程度のパフォーマンスが出せるのか、にも興味がある。
今回取り上げた論文は『金融×量子機械学習×精度向上』という内容であり、「速度で、量子>古典」という論文ではない。あくまで量子機械学習(具体的には、量子カーネル法)の精度が向上した、という内容である。米IBM[Quantum]と英国の大手商業銀行HSBCは、金融分野の2値分類タスクにおいて、量子カーネル法の精度を向上させた、と主張する論文[*84](以下、本論文)を発表した(23年12月1日@arXiv)。筆頭著者は、日本人(著者14人中3人が日本人)である。
ポイントは、データから”最適な”カーネルを選択する、カーネル・アラインメント(KA)である。特定タスクの実データを用いてKAを実行し、KAが有効であることを実証している。
【1】本論論文の主張
本論文の主張は、以下の通り。
(1) 『量子マルチプル・カーネル法』は、量子カーネル法に比べて、分類品質を向上させることができる。
(2) 量子カーネル・ベースの手法において、量子ビット数の拡張を困難にする問題を回避できる、量子カーネルを提示した。
(3) 金融分野の実データ3件を用いた実験の内、2件で量子カーネル法は、(古典)カーネル法よりも分類予測精度が高かった(分類精度は、ROC-AUCで、計測している)。
(4) NISQマシンで実行した結果、量子マルチプル・カーネル法は、量子カーネル法に比べて、堅牢な結果を示した。
実データ3件とは、㈠デジタル決済詐欺データセット、㈡ドイツにおける、消費者向け信用リスク・データセット(@1994年)、㈢ポルトガルにおけるダイレクト・マーケティングによって定期預金を申し込んだ否かに関するデータセット(@2014年)、である。また、㈠はHSBC行内のデータ、㈡及び㈢は公開データである。
【2】事前整理
(1) 量子カーネル
量子カーネル法では、各入力データ点 xi は、(与えられる)特徴マップを使用して、n量子ビット量子状態ρ(xi)に符号化される。言わずもがな、ρは密度演算子である。
1⃣ 忠実度量子カーネルKFQ
KFQ(x,x’)=Tr[ρ(x)ρ(x’)]で定義される。言わずもがな、Trはトレース(対角和)である。
2⃣ 射影量子カーネルKPQ
KPQ(x,x’)=exp(ーγ∑|ρk(x)ーρk(x’)|2)で定義される。ここでは、|・|で、フロベニウス・ノルムを表す、とした。γは正のハイパーパラメータ、ρk(x)は、量子ビットk に対する1粒子縮約密度行列(1-RDM)である。つまり、k以外の全てについてトレースをとった(部分和をとった)密度演算子である。
(2) 指数関数的集中(→不毛な台地)
量子ハードウェアで量子カーネルを計算するとき、量子ビット数の増加に伴って、次のような問題が発生しうる。カーネルの計算に必要な特徴量、つまり量子ビットの数が増加すると、異なるデータポイント対のカーネル値の差がますます小さくなり、それらを区別するために必要なショットが、増加する可能性がある。これが、カーネル値の「指数関数的な集中」と呼ばれる現象である。この現象は、カーネル法ベースの学習を妨げ、量子カーネル・ベースの手法を、より多くの特徴量と量子ビットに拡張することを困難にする可能性がある。
本論文で採用する、忠実度量子カーネルと射影量子カーネルは、この 指数関数的な集中を回避できると、本論文は主張している。
(3) カーネル・アラインメントの全体整理と個別整理
0⃣ 全体整理:カーネル・アラインメントとは[*85],[*86]
カーネル法の性能は、カーネルの選択に大きく依存する。与えられたデータセットに対して、タスクに最適なカーネルを選択することを、カーネル・アラインメント(KA)と呼ぶ。
KAのシンプルなアプローチは、基底カーネルの線形結合で、タスク「⓪最適な」カーネルを表現することである。基底カーネルの線形結合で表現したカーネルを、本論文では、マルチプル・カーネルと呼んでいる。
⓪最適なとは、カーネルの類似度を定量化した カーネル・アラインメント・スコア(KAS)を最大化することを意味している(KASの算式は、割愛)。KASは、「㊀ターゲット・カーネル」と、「㊁結合カーネル」の間で計算される。㊀ターゲット・カーネルは、与えられたデータセットに応じて構成される。㊁結合カーネルとは、「㊂基底カーネル」の線形結合で構成されるカーネルのことである。㊂基底カーネルは、パラメータ化された「㊃カーネル・ファミリー」Kiに属する。本論文では、この㊃カーネル・ファミリーとして、先にあげた「忠実度量子カーネル」と「射影量子カーネル」を検討している。
カーネル・ファミリーKiから、例えば、Ki1,・・・,Kinを選択して、{基底カーネルの集合}として固定すれば、後は線形結合係数を、何らかの方法で最適化することで、KAが完了する。
量子カーネル法でも、事情は全く同じであり、与えられたデータセットに対して、タスクに最適な量子カーネルを見つけることが、カーネル・アライメント(あるいは、古典と区別するために、量子カーネル・アラインメント)である。
本論文では、線形結合係数を最適化する手法として、以下1⃣~4⃣⃣を検討している。
1⃣ 個別整理:平均重み(AVE)
本論文内で、特に説明はなされていない。普通に考えると、同じ重みを、割り当てたということであろうか。
2⃣ 個別整理:半正定値計画問題(SDP)によるカーネル・アライメント
KASを最大化する問題は、SDPに置換できる。さらに線形結合係数wiが非負かつ Ki ⪰ 0 の場合には、2次制約付き2次計画問題(QCQP)に還元できるため、実際はQCQPを解くことで、線形結合係数の最適化が行われている。なお、⪰は、majorize†を表す記号である。
3⃣ 個別整理:中心カーネル・アライメント(CENT)
CENT(←本論文での表記に従った)では、カーネルをセンタリングする。つまり、特徴量空間内の各データポイントをセンタリングする。(言うまでもないが)具体的には、データポイントの平均を、各データポイントから減算する。なぜ、わざわざセンタリングするかというと、センタリングするとカーネル法の汎化性能が高まるからである。CENTも最適化問題を解くことで、完了する。
4⃣ 個別整理:射影カーネル・アライメント(PROJ)
PROJ(←本論文での表記に従った)は、最適化問題を解くというアプローチではなく、反復手法を使って最適化を実行する。まず、ターゲット・カーネルとの距離が短い基底カーネルを選択する。次に、選択した基底カーネルをターゲット・カーネルに射影する。最後に、その射影成分をターゲット・カーネルから減算して、残差を得る。この残差のノルムで、線形結合に参加させる基底カーネルを選別することで、より良い結合カーネルを構成する。
† 全てを足し合わせると等しいが、部分和では大小関係が生じるような、2つの数列は、majorizeの関係にある。この場合の数列は、数字の組なので、ベクトルというイメージでもよい。ただし、数値が大きい順に並び替える必要がある。確率変数の組を考えれば、確率分布に対して、majorizeを導入できる。文法的には、majorizationが正しい?
(4) 量子誤り緩和策:コヒーレント・エラーを削減するための、トランスパイル
量子誤り緩和及び、量子誤り訂正方法は、確率的なインコヒーレント・エラーを解決するように設計されている。このため、量子コンピューターで発生する量子誤りは、コヒーレント・エラーよりも、インコヒーレント・エラーが望ましい。コヒーレント・エラーは、クロストーク、不要な量子ビット相関、または多くの短期アルゴリズムに必要な任意の SU(2)回転などのユニタリ・ゲート実装の、不完全な制御から発生する可能性がある。
本論文では、確率的でコヒーレントなゲート誤りのオーバーヘッドを削減するために、1⃣ランダム化トランスパイルと、2⃣,3⃣パルス効率の高いトランスパイルが採用された。
古典演算におけるコンパイルを、量子演算ではトランスパイルと呼ぶ。つまり、所望の量子演算を実行出来るように、ユニタリ演算子を配置して、量子回路を構成することが、トランスパイルである。ユニタリ演算子を配置して、量子回路を構成する方法は一意ではなく、どのように構成すれば「効率的な」量子回路が構築できるかは、工夫の余地がある。
1⃣ ランダム化トランスパイル
トワーリング(twirling)演算子の導入により、コヒーレント・エラーがインコヒーレント・エラーに変換される。これらの回転演算子は、「シンプルな」ゲート (例:パウリ演算子)で構成され、ノイズは独立したランダム・シーケンスを平均することによって調整される。具体的には、UZ(θ)、√X、UZZ(θ)に、合計16個の独立したランダムなパウリ回転シーケンスを使用した。
2⃣ パルス効率の高いトランスパイル
2量子ビット相互作用シーケンスは、量子回路実行における量子誤りの多くに寄与する。指定された量子プロセッサに設定されたネイティブ・ゲートを使用した回路トランスパイルにより、標準の回路トランスパイル・ルーチンを使用するよりも、SU(4)ゲートの実行にかかる時間を短縮できる(つまり、量子誤りの発生を軽減できる)。
パルス効率の高いトランスパイル は、カルタン分解を使用して一般的な SU(4)ゲートに拡張された(SU(4)ゲートは、2量子ビットの回転ゲート)。他の2 量子ビット・ゲートは、UZX(θ)回転の前に基底を変更することによって実装された。
3⃣ CNOTゲートの効率的なトランスパイル
ユニバーサル CNOT ゲートは、ユニタリ UZX(π/2)を選択することで実装されるが、パルス領域のスケーリングを可能にする任意の回転θを使用して、より効率的なトランスパイルを実現できる。本論文では、標準的なダブルCNOT実装と比較してパルス持続時間が1/3近くに短縮されるゲートシーケンスを使用することで、CNOT ゲートに対して効率的なトランスパイルを実現している。
【3】評価検証結果
(0) データセットとモデルの整理
評価検証に用いられたデータセット及びモデルが、やや複雑なので、改めて整理する。
0⃣ カーネルの重みの最適化
本論文では、適切なカーネルの選択は困難な課題であるという認識の下、カーネルの線形結合によって、2値分類タスクに適するカーネルを生成するアプローチを提案している。線形結合係数の最適化では、いくつかのアプローチが採用された。具体的には、①平均重み(AVE)、②半正定値計画問題(SDP)によるカーネル・アライメント(本論文での表記に従って、SDPと表記する)、③中心カーネル・アライメント(CENT)、および④射影カーネル・アライメント(PROJ)が使用された。
1⃣ データセット
3種類のデータセットを使用している:❶HSBC 銀号による、デジタル決済における詐欺データ(詐欺か否かを分類する)、❷ドイツにおける、個人の信用リスクデータセット(二値分類タスクなので、貸せるか貸せないかに分類する)、❸ポルトガルの金融機関におけるマーケティング・データ(定期預金に申し込むか否かを予測して、分類する)。
データセット❶~❸のデータ・ポイント総数は、400個と多い。そこで、分析の堅牢性を確保するために、ランダム抽出された 20 個のサンプルでモデルを評価した。つまり結果は、20個のサンプルの平均である。なお、データは学習、検証、テストのデータセットに分割され、1/3がテストデータとして使用された。残りの2/3については、ハイパーパラメーターの最適化のために 4分割交差検証(クロス・バリデーション)が実行された。
特徴量は、平均値を引き、分散1にスケールすることによって正規化された。さらに、主成分分析を使用して特徴量の次元削減が行われた。結果として、4~20個の特徴量が、使用された。
2⃣ 評価検証モデル
改めて概略的に述べると、本論文では、量子カーネル法に基づく機械学習モデルのカーネルを、単一カーネルではなく、マルチプル・カーネルとしたモデルの評価を行っている。つまり、量子マルチプル・カーネル法(QMKL)の評価を行っている。QMKLのカーネルは、2種類が検討されている。さらに、QMKLは、古典マルチプル・カーネル法(CMKL)、量子カーネル法(QKL)とも比較される。
為念:量子カーネル法に基づく機械学習モデルとは、平たく言えば、量子サポートベクターマシンのことである。
■ 量子マルチプル・カーネル法QMKL)
忠実度量子カーネル(F-QMKL)と、射影量子カーネル(P-QMKL)が検討されている。
■ 古典マルチプル・カーネル法(CMKL)
CMKLは、さまざまなカーネル帯域幅(γ ハイパー パラメーター値)を持つ、動径基底関数(RBF)カーネルを使用して構築された。
3⃣ 評価指標
言わずもがなであるが、達成したい目標は、精度である。二値分類タスクに対する、代表的な評価指標である、ROC-AUC(Area Under the ROC Curve;ROC=Receiver Operating Characteristics Curve)で測定する。
(1)シミュレータでの結果
❶ HSBC 銀号による、デジタル決済における詐欺データ
すべてのパラメーターにわたって最もパフォーマンスの高いモデルは、P-QMKL×AVEであった。P-QMKLとCMKLでは、AVEを使用すると性能が最も高くなる。CENTは、F-QMKLの場合にのみ、良い精度を示した。
❷ ドイツにおける、個人の信用リスクデータセット
F-QMKLがモデルとしては最も精度が高いと言えるだろう。次点がCMKLで、両者ともPROJが、最も効果的な最適化アプローチである。ただし、個別でいうと、CMKL×PROJが最高のパフォーマンスを示す。CENTはP-QMKLの場合にのみ、良い精度を示した。
❸ポルトガルの金融機関におけるマーケティング・データ
P-QMKL×PROJ が最高のパフォーマンスを示す。次点はCMKL×AVEである(本論文の記述とは異なるが、図を見る限り、そう結論できる。従って、誤植かもしれない)。
(2)NISQマシン(実機)を使った実験から得られる示唆
実機は、ibm_aucklandが使用された。データセットは、❸銀行マーケティング・ データセットが使用された。
1⃣ 量子カーネルの選択
忠実度量子カーネル(KFQ)と射影量子カーネル(KPQ)を使った量子マルチプル・カーネル法を、実機とシミュレータで実行する。その結果から、どちらが、実機ベースで使えるか?を評価している。具体的には、シミュレーション結果を説明変数、実機の結果を目的変数として、線形回帰を行い、決定係数R2で判断している。
結論を概略で述べると、KFQは、量子ビット数増加に伴ってR2が急低下するので、KPQが推奨されている。
詳細を述べると、KFQは量子誤り緩和(EM)がない場合、4量子ビット→20量子ビットに増えると、急激にR2が低下する。具体的には、4量子ビットで0.952だったのに、20量子ビットでは0.013にまで低下する。一方、KPQは、0.965が0.648になるだけである。ただ、EMありだと、KFQは0.997→0.905(4→20)である。KPQは、0.999→0.812(4→20)である。
2⃣ 量子誤り緩和策の効果
先の例(つまり1⃣)でも分かるように、EMの効果は大きい。EMない場合、KFQでもKPQでも、8量子ビットですら、R2は、約0.6である。これをもって、
本論文では、EMなしでは4量子ビットを越えて、意味のある結果は得られない、と結論している。
3⃣ マルチプル・カーネルの有効性
単一カーネルとマルチプル・カーネルのROC-AUCを比較して『実機に実装することを考えた場合に』マルチプル・カーネルが有効である、と結論している。具体的には、3種類(8、12、16)の量子ビットに渡り、シミュレーション結果とEMあり実機での結果を、学習データ及びテストデータに対して比較している。マルチプル・カーネルは、重みの最適化アプローチとして全4種類(AVE、SDP、CENT、PROJ)を揃えている。
ざっくり言って、マルチプル・カーネルのROC-AUCの方が高いし、ばらつきも小さい。ばらつきは、㈠シミュレーション結果と実機結果とのばらつき、及び㈡学習データとテストデータとのばらつき、の両方を指している。なお、本論文でも指摘されているように、16量子ビットのマルチプル・カーネル×SDPの実機結果は、外れ値のように精度が低い。
【4】考察
(0) notation等が、やや分かり辛いイメージ。
(1) 改めて整理すると、最高性能を叩き出したのは、❶デジタル決済における詐欺データ:P-QMKL×AVE。❷個人の信用リスクデータセット:CMKL×PROJ。❸マーケティング・データ:P-QMKL×PROJ 。(古典)カーネル法の精度が高かったり、手間暇かけて工夫を凝らしたPROJよりも、単純なAVEの精度が高かったりする。やはり、機械学習は難しい。結論として、タスク・データセット毎に、試行錯誤が必要ということになるだろうか。すると、汎用性は乏しいが、その事実が改めて分かったということが収穫なのだろうか?
(2) (量子カーネル法の中で)マルチプル・カーネルと単一カーネルとの比較で言うと、❷個人の信用リスクデータセットの場合、単一カーネル†1の方が優れている(ベストは、CMKL×PROJ)。やはり、機械学習(この場合、より正確には、量子機械学習)は難しい。
(3) 実機での実行を考えたら、マルチプル・カーネルということになるが、これが隠れ結論?だろうか。
(4) ちなみに、宇宙物理学の分野における銀河形態の分類タスク†2で、カーネル法と量子カーネル法を比較した論文[*87](23年11月8日@arXiv)の結果は、古典=量子であった。宇宙物理と金融は全く違うと思うだろうが、フレームワークは、ほぼ同じ。そして、必要な特徴量が多くなれば、量子優位性が現れるかもしれない、と予測している。カーネル法でさえも、量子機械学習が優位性を発揮するのは難しい。
†1 本論文でSingle(Q)Optと呼ばれる単一カーネルを用いた量子カーネル法。Single(Q)とは、α=0.4(αはカーネル帯域幅)、繰り返し1、線形エンタングルメント・スキームのZZ特徴量マップを採用したモデル。Optは、QMKLのパラメータで、ハイパーパラメータを調整する。
†2 銀河を、渦巻銀河と楕円銀河に分類する。
量子機械学習が古典機械学習の性能を上回るケースは限定的であるという主張は以前から存在したが、散発的であり、少数派であった。近年、その散発的な主張に通底する構造が明らかになり、主張は多数派になりつつある。米エネルギー省傘下の国立研究所であるロス・アラモス研究所、オークリッジ研究所の研究者他[*88]による論文[*89](以下、本論文。23年12月14日にarXivにて公開→24年3月19日(24日)に第2版が公開)は、「不毛な台地」の回避を通して、同様の主張を行った。
本論文は、変分量子アルゴリズム(VQA)において現れる「不毛な台地」を、回避できる問題のほとんどは、古典的にシミュレート可能であろうと予想する。
【1】本論論文の主張
(1) 不毛な台地のない問題は、「古典的に特定できる、多項式程度に大きい部分空間(※)」に存在する。ことを見出した。ただし、コスト関数は、「パラメータ化量子回路(アンザッツ)で時間発展させた密度演算子で計算した、オブザーバブルの期待値」である。本論文で主張1と呼ばれている(ので、本稿でもそう呼ぶ)。
※ 【2】(2)を参照。
(2) 不毛な台地がない問題は、多項式時間で古典的にシミュレート可能であることを見出した。このことから、アンザッツを量子コンピューター上に実装する必要はないことが導かれる。ただし、最初のデータ取得フェーズ(data acquisition phase)で「量子デバイス」から古典データを取得可能である、ことを仮定する。つまり量子デバイス自体は、必要である。本論文で主張2と呼ばれている(ので、本稿でもそう呼ぶ)。
(3) 主張1と主張2から、代表的なユースケースで、VQAに量子優位性はないだろう、と予想する。ここで言う「量子アルゴリズムに量子優位性がない」とは、「量子アルゴリズムを、多項式時間で古典アルゴリズムが、シミュレートできる」ことを指す(量子アルゴリズムが古典アルゴリズムより速いことを意味する量子優位性と、ほぼ同じ)。
【2】事前整理
(1) 不毛な台地とは
本論文の筆頭著者による量子機械学習のレビュー論文[*118]をもとに、掲題を整理する(カバーする範囲が広いので、混乱するかもしれないが、その分一般性は高い)。
0⃣ 敢えて、もわっとした説明
不毛な台地では、コスト関数の形状は、問題サイズに応じて指数関数的に平坦になる(同じ意味であるが、コスト関数の勾配は、指数関数的に減衰する)。大域的極小値を含む谷も、問題サイズとともに指数関数的に縮小し、いわゆる狭い峡谷となる。その結果、コスト関数の極小値を探索するためには、指数関数的なリソース(例えばショット数)が必要となる。
以下に、不毛な台地が発生する、3つのルートを挙げた。併せて、発生を回避する手段も述べた。
1⃣ 事前知識の欠如や不十分な帰納バイアスによる、不毛な台地
ハードウェア効率が高い量子回路(量子ニューラルネットワーク;QNN)では、モデルの表現力が高いために不毛な台地が発生する。「ハードウェア効率が高い」アーキテクチャは、基礎となるデータについて何れの仮定も置かないことで、広範なユニタリー時間発展を準備することができる。つまり、このルートで発生する不毛な台地は、「事前知識(あるいは、十分な帰納バイアス)の欠如」によって引き起こされる。従って、回避手段は、事前知識をQNNに入力することである。具体的には『巧妙な初期化』、事前学習、パラメータ相関など、様々な戦略が開発されている。
初期化の方法を工夫して、不毛の台地を回避した例として、こちらを参照。帰納バイアスを高めたした例として、こちらを参照。
「モデルの表現力が高いために、不毛な台地が発生する」ことに関しては、こちらを参照。
2⃣ 大域的オブザーバブルによる、不毛な台地
大域的オブザーバブル(つまり、すべての量子ビットを測定するオブザーバブル)に基づいてコスト関数を単純に定義すると、コスト関数の分布形状が鋭い(分かり易く言うと、分布形状の「裾が軽い」)浅い回路であっても、不毛な台地が発生する。一方、局所的オブザーバブルであれば、この問題は回避される(ただし、層の深さに上限あり→[*119]を参照)。
つまり回避手段は、局所的オブザーバブルで、コスト関数を構成して、パラメータ最適化を行うことである。
3⃣ 量子もつれによる、不毛な台地
過剰な量子もつれ(エンタングルメント)を生成するQNN(または、埋め込みスキーム)も、不毛な台地を発生させる。QNNの可視量子ビット(QNNの出力で測定される量子ビット)が、隠れ層内の多数の量子ビットと、もつれているときに問題が発生する。
このタイプの不毛な台地に対する回避手段は、QNN全体で生成されるもつれを制御することである。
4⃣ 不毛な台地が発生しないQNN
量子畳み込みニューラルネットワーク(QCNN)は、不毛な台地が発生しないことが知られている。この理由は、「QCNNが、階層構造によって並進不変であるような制約を課せられている」ため、であるらしい。この制約により、コスト関数の分布形状が"鋭く"なるという。
(2) 「不毛な台地がない」問題のクラス
本論文では、不毛な台地がないことが、証明可能な問題の「制限された」クラスを、BP(バレンプラトー)と表記している(実際には、BPに上線(補集合の記号)が付いている)。「制限された」とは、「コスト関数の分散は、適当な多項式との積によって、必ず適当な正定数以上になる」という制約を課していることを指している。つまり、コスト関数の分散は、多項式程度の大きさに留まり、指数関数的に小さくは、ならない。先述した「多項式程度に大きい」とは、そういう意味である。
なお、計算複雑性理論におけるBPP問題のクラスとは無関係である。
(3) 本論文の主張を理解するための前提知識
VQAのコスト関数C(θ)は一般に、オブザーバブルOの期待値を入力とする関数fkの総和として表される[*90]。つまり、C(θ)=∑fk(オブザーバブルOの期待値)と表現されることが多い(添え字kについて総和をとる)。本論文では、C(θ)=オブザーバブルOの期待値、というシンプルな形式を採用している(だからといって、特殊な形式を採用したわけではない)。
1⃣ シュレーディンガー描像(「猫」像ではなく、「描」像)
オブザーバブルの期待値は、(一般的に採用される)シュレーディンガー描像では、(入力状態の)密度演算子ρとOの積に対してトレースを取ることで得られる。ここでρは、時間発展のユニタリ演算子U(t)で、t=0の初期状態ρ0から、時間発展させられた密度演算子である。つまり、ρ=U(t)†ρ0U(t)である。なお、量子計算を考えているから、ρは純粋状態の密度演算子ということになる。また、変分量子計算の文脈で、時間発展のユニタリ演算子は、パラメータ化された量子回路U(t)=U(θ(t))=U(θ)である。
2⃣ ハイゼンベルグ描像
一方ハイゼンベルグ描像では、時間発展を密度演算子ではなく、オブザーバブルに担わせる。時間発展のユニタリ演算子U(θ(t))で、時間発展させたオブザーバブル(ハイゼンベルグ演算子とも呼ばれる)U(θ)†OU(θ)とρ0の積に対して、トレースを取って、オブザーバブルの期待値(=コスト関数)を得る。本論文では、ベクトル空間(ヒルベルト空間)におけるハイゼンベルグ演算子の挙動(どこまで到達するか?)が肝であるから、本論文では、ハイゼンベルグ描像を採用している。言うまでもなく、シュレーディンガー描像とハイゼンベルグ描像は、見方が異なるだけで、等価である。
【3】本論文の主張の詳細
(1) 主張1の根拠(ロジック)
1⃣ 「不毛な台地」と、それを回避することの本質
本論文では、ハイゼンベルグ演算子U(θ)†OU(θ)と、密度演算子ρ(正確には、初期状態ρ0であるが、以降(も)、ことさら区別しない)の両方が、指数関数的に大きなベクトル空間に存在することを鑑み、この重なり(ヒルベルト・シュミット内積。以下では、単に、内積と呼ぶ)は、θ にわたる平均で指数関数的に小さいことを予想する。本論文では、「これが不毛な台地、つまり次元の呪いの本質である」と主張する。その主張を是とすれば、時間発展したオブザーバブル(ハイゼンベルグ演算子)が、”多項式的程度に大きい”部分空間(以下、多項式部分空間と呼ぶ)に存在している場合は、コスト関数は、多項式部分空間内の内積となり、不毛な台地を回避できる。
この主張を是とすることが正しいことは『(広く使用されている)不毛な台地のないモデルを詳細に分析した結果、主張した通りの構造(※)で不毛な台地を回避している』ことを根拠としている。つまり、代表的な例が全てそうなので、それは真実に近いだろう、と見立てた(反例があれば、受け付けるというスタンスだろうか)。
※ 為念:以下のような共通した”構造”を意味している・・・既知の代表的な「不毛な台地を回避できるモデル」は、多項式部分空間かつ、「古典的に特定できる部分空間」に問題を符号化することによって、不毛な台地を回避している。
2⃣ 「不毛な台地のない」モデル
本論文で検証された、既知の代表的な「不毛な台地を回避できるモデル」とは、以下の8つである。
❶ 深さが浅いハードウェア効率が高いアンザッツを用いたモデル†1
❷ 量子畳み込みニューラルネットワーク
❸ U(1)-equivariantモデル
❹ Sn-equivariantモデル
❺ マッチゲート回路を用いたモデル
❻ 小さな回転角度を用いてアンザッツを初期化するモデル
❼ 次元が小さい†2リー代数を使用したモデル
❽ 特定クラスの量子生成モデル†3
†1 局所測定を使用している。
†2 時間発展の過程で、代数的分解がシステムサイズに対して高々、多項式的にしか変化しないことを指しているらしい[*91]。
†3 量子回路ボルンマシン(QCBM)と量子敵対的生成ネットワーク。ただし、QCBMは、maximum mean discrepancyに基づくコスト関数を採用した場合を考えている。
‖補足‖
❸ U(1)-equivariantモデルとは、計算基底状態のハミング重みを保存する量子回路を使用したモデルであることを意味する。ハミング重み保存回路は、量子化学、凝縮系物質、ポートフォリオ最適化などで使われている(らしい)。密度演算子ρは、固定ハミング重みkを持つn量子ビットの純粋状態(の密度演算子)である。
❹ Sn-equivariantモデルとは、対称群Snに関して不変であるパラメトリック量子回路を用いたモデルを意味する。このモデルは、量子回路内のn個の量子ビットが、どのような順列に変化しても不変(置換不変)であることを表現している。
❺ マッチゲートは、1次元の最近傍量子ビットに作用する2量子ビットゲートである。
❽ 米ザパタ・コンピューティングは、「量子回路ボルンマシンを使った量子生成モデルは、量子優位性をもたらす」と喧伝しているが、その範囲は狭まるのかもしれない。
3⃣ 為念:仮定の補足
密度演算子ρ は、全てゼロの状態に作用するときに、O(poly(n))ゲートの回路によって準備可能な n 量子ビット状態とする。為念:poly(n)とは、n次の多項式を意味する。オブザーバブルOは、計算基底において対角であるパウリ演算子(たとえば、O = Z⊗nあるいは、µ ∈ {1,・・・,n}に対してO = Zµ)とする。さらに、量子回路内の全てのゲートがパラメータ化されており、全パラメータが均一にランダム・サンプリングされていると、仮定する。
(2) 主張2の根拠(ロジック)
多項式部分空間に問題のクラスが存在して、古典的に特定(識別)可能だとしても、古典的にシミュレート可能とは限らない。刺激的な言い方をすれば、不毛な台地はないが、古典的にシミュレート不可能なVQAも存在する。実際、本論文では、付録B: Examples of non-concentrated but also non-simulable loss functionsに例が示されている。ただし、そういった例で使用される量子回路は汎用的ではなく、意図的に構築されている。そのため、ハイゼンベルグ演算子と密度演算子の両方が指数関数的に大きなベクトル空間に存在し、内積が指数関数的に小さい、という仮定が成立していない。
本論文では、検証した「不毛な台地のない」モデル全てに対して、ケース・バイ・ケースの分析を経て、(各モデル毎に)多項式時間で古典的にシミュレートする方法を見つけた。そこで、不毛な台地のないモデルは、古典的に特定できるという主張1と合わせて、本論文で検証しなかった「不毛な台地のないモデル」に対しても、多項式時間で古典的にシミュレートする方法が見つかるであろう、という見立てを立てた。根拠(ロジック)としては、そう表現できるだろう。
3⃣ 「不毛な台地がない」問題に対するシミュレーション・アルゴリズム
掲題アルゴリズムを表にまとめた。注釈†1及び†2は、下記参照。
†1 古典的シャドウ[*92]:スコット・アーロンソンが考案したらしい(なお、本論文の引用論文である[*92]は、2020年公開)。古典的シャドウのモチベーションは、少ない測定回数でトモグラフィーを成功裏に実行することである。アーロンソンは、「量子系の完全な古典的記述を要求することは過剰であり、特定の性質(ターゲット関数)を正確に予測できれば十分な」こと、及び「ターゲット関数 は、密度行列ρの線形関数であることが多い」ことを指摘した。ここで、量子状態ρ自体が未知であっても、ρに対する最小の(=十分なサイズの)古典的スケッチSρ(古典的シャドウ)があれば、ターゲット関数は推定できるところが、肝である。ただし、本件はターゲット関数ではなく、ρそのものが知りたいので、古典的シャドウがうまくフィットするのか、若干の疑問が残る。
古典的シャドウは、 「ユニタリー変換ρ → UρU†を適用し、計算基底の全ての量子ビットを測定する」という手順を繰り返す。Uは、ユニタリー演算子の”アンサンブル”からランダムに選ばれる(ところも重要)。測定回数は、システムサイズに依存しない。
†2 置換不変(Permutation Invariantを訳した。正式ではない)シャドウ[*93]:置換不変(PI)シャドウは、密度行列(密度演算子)ではなく、置換不変密度行列ρPIを採用する(ちなみに、なお、本論文の引用論文である[*93]は2010年の論文で、古い)。ρPIは、(1/N!)∑πkρπkで定義される(添え字kについて総和をとる)。πk量子ビットの全てを置換することを意味する。[*93]では、次の2つの理由㊀、㊁から、「PIシャドウから得られる密度行列は、実験的に達成された状態の密度行列に近いことが期待される」としている:㊀シングルモード光ファイバー中の光子は常にPI量子状態であり、その特性決定に必要な測定はわずかであること。㊁ほとんど全ての多粒子実験がPI量子状態を用いて行われていること。
PIシャドウのモチベーションも古典的シャドウと同じである。しかし、PIシャドウで測定回数は、システムの大きさに対して二次関数的に増加する(ので、古典的シャドウに比べると、スケーラビリティが低い)。
(3) 本論文の主張の射程
1⃣ コスト関数の射程
コスト関数は、「アンザッツで表現されたユニタリ演算子で時間発展する密度演算子で測定したオブザーバブルの期待値」として、定式化される(※)。この定式化について、本論文では、次のように説明している:この形式のコスト関数は、最も標準的な変分量子アルゴリズム、多くの量子機械学習モデル、および量子生成モデルの特定のファミリーを含む、一般的な量子アーキテクチャの大部分が含まれる。ただし、考えられる、全ての量子学習プロトコルをカバーしているわけではない。
※ シュレーディンガー描像で説明されているが、ハイゼンベルグ描像で説明した方が親切だろう。
2⃣ 主張の射程外
本論文は、ハイゼンベルグ演算子が多項式部分空間に存在しているケース以外にも、「不毛な台地がないモデルが、存在する可能性がある」ことを否定しない。その例として、㊀と㊁を上げている:㊀小さな部分空間が、未知の場合。㊁問題が指数関数的に大きな部分空間に存在するが、高度に構造化されている場合。㊁の場合は、さらに次のような記述を与えている:「巧みな初期化戦略」によって探索できる部分空間の、部分領域で発生する可能性がある。
不毛な台地を回避する初期化戦略としては、a)ランダムにアンザッツを初期化する戦略や、b)恒等写像に近い値でアンザッツを初期化する戦略がある。「巧みな初期化戦略」としては、ザパタ・コンピューティングによる研究がある。ザパタの研究では、テンソルネットワークを使って得られた初期値を使って、アンザッツを初期化するという戦略が採用されている。
また、射程外の代表的なモデルとして、異なるタイプのコスト関数を使用する量子ボルツマン・マシンが上げられている。
3⃣ 量子優位性
多項式時間で古典的にシミュレート可能であれば、一般的に量子優位性はない、とみなされる。しかし、本論文では「コスト関数が多項式時間で古典的にシミュレーションできるからといって、それが依然として実用的であることを意味するわけではない」、と主張する。
例1・・・実装するには法外なコストがかかる可能性のある古典アルゴリズム。
例2・・・コスト関数が異なれば、シミュレーション用の古典アルゴリズムも異なる。このため、量子アルゴリズムが、全てのコスト関数に対応できる場合は、古典アルゴリズムよりも量子アルゴリズムが選ばれる可能性がある。
【4】考察
(1) 量子機械学習(量子カーネル法)はその限りではないが、量子ニューラルネットワークで量子優位性を達成するのは難しいだろうという、傍証が増えた。また、量子生成モデルも、量子優位性を達成するモデルは、限定的となる可能性が高い。
(2) NISQマシンで量子優位性を達成するのも難しいだろうという、傍証が増えた(量子誤り緩和策を実施するか否かに関わらず・・・)。従来から言われているように、サンプリングには、使えるのだろう。誤り耐性量子コンピューター待ちという状況も相変わらず。
(3) リゲッティがご執心の、シグネチャ・カーネル及び量子シグネチャ・カーネルで、どういう結果がでるか楽しみである。
(4) 古典的シャドウの発想は、ブラックボックス最適化・能動学習・強化学習と相性が良いと思うが、そのようなアプローチは研究されているのだろうか。
変分量子アルゴリズム(VQA)は、リー群を自然に表現するパラメータ化量子回路(アンザッツ)を利用する。初期状態をアンザッツに送り込み、次に(高々、多項式数の)測定を実行して、問題に適した損失関数🐾1を符号化するオブザーバブルの期待値を推定する。その後、推定された損失関数(またはその勾配)は、「損失関数を最小化するように回路パラメータを更新しようとする」古典的なオプティマイザに供給される。
VQAの多くの特性(勾配消失や不毛な台地)は、対応する群を研究することで理解できると仮定されてきたが、理論的導出は行われていない。不毛な台地とは、問題のサイズが大きくなるにつれて、この損失関数(およびその勾配)がパラメータ空間に指数関数的に集中する現象を指す。指数関数的に集中するため、指数関数的な数の測定ショットを使用しない限り、損失を最小化する方向を見つけて損失地形を探索するのに十分な精度は得られない。つまり、モデルは学習できなくなる。
カリフォルニア大学デービス校・米ロスアラモス国立研究所他[*139]の研究者は、「不毛な台地の原因全てを、一つのフレームワークで理解できる」と主張する論文[*140](以下、本論文)を発表した(24年8月22日@nature communications)。[*140]の著者の一部は、「変分量子アルゴリズムに量子優位性は、”ほぼない”と予想する」論文[*89]の著者でもある(こちらを参照)。本論文は、[*89]の結論を支持する内容となっている。
🐾1 ことさら、コスト関数と区別しない。
【1】本論文の主張
本論文は、以下を主張する(詳細は【2】を参照。ここでは頭出しのみ):
特定ケース(※)の量子回路に対して、
(1) dynamicalリー代数(DLA)gの次元dim(g)が、Ω(bn)🐾2であれば、下記(2)及び(3)に関わらず、不毛な台地が発生する。ただし、b>2であり、nは量子ビット数(以下、同じ)。
言葉で説明すると、表現力が十分に高い(dim(g)が大きい)量子回路では、不毛な台地が発生する。
🐾2 O(・)が漸近的な上界を与えるのに対して、Ω(・)は漸近的な下界を与える。
(2) 初期量子状態を表す密度演算子ρのg純粋度Pg(ρ)が、Pg(ρ)∊O(1/bn)であれば、(1)に関わらず、不毛な台地が発生する。
言葉で説明すると、(一般化された)エンタングルメントが十分に大きい場合(量子もつれが高度な場合)、不毛の台地が発生する。
(3) 測定演算子Oのg純粋度Ogが、Og∊O(1/bn)であれば、(1)に関わらず、不毛な台地が発生する。
言葉で説明すると、一般化された局所性が失われて、高度に非局所的(大域的)な測定が行われる場合に、不毛な台地が発生する。
※ 特定ケースとは、以下の通り:
壱)量子回路は、Gj=exp(gj)上で🐾3、ユニタリー2デザインを成す。☛【2】(3)
弐)ノイズは、なし。☛【3】(1)
🐾3 g1⊕g2⊕・・・⊕gk-1⊕gk=gである。量子回路が十分に深ければ、dynamicalリー代数gは「簡約可能なリー代数(簡約リー代数)」となる(らしい)。定義に従って、簡約リー代数は、「半単純リー代数」と「中心」の直和として分解できる。半単純リー代数は、単純リー代数の直和として表現できる。g1⊕g2⊕・・・⊕gk-1が半単純リー代数で、gkが中心である。また、gj(j=1~k-1)が単純リー代数となる。
❚note❚ 上記壱)と🐾3を合わせると、本論文の主張は、「量子回路が十分に深い」という条件下で成立するように見えるが、主張(2)及び(3)は、浅い回路でも成立する。回路が浅くて表現力が高いというのは一般的ではない(と思われる)ので、主張(1)についてコメントは不要だろう。尚、回路の深さは、本論文のMethodで定量的に議論されている。
【2】用語説明
(1) dynamicalリー代数(DLA)[*141],[*142]
リー代数(環の構造を持つので、リー環とも呼ばれる)は、リー群から導出した方がスッキリする。数学的に”相当ザックリ”と定義すると、リー群は、微分可能な連続群ということになる。物理的な意味合いで言うと、リー群は、(空間の連続的な)対称性を抽象化したものらしい[*143]。そして、量子回路は、特定の対称性に従う場合、不毛な台地が回避される[*144]。感覚的に言えば、ここで、リー群と不毛な台地が、邂逅する。ただし、一般に、リー群は線形空間ではないので、扱いづらい。そこで、リー群に付随する線形空間であるリー代数を考える(リー群は微分可能なので、微分を使って線形近似が可能)。
量子コンピューティングの文脈で重要なことは、「リー群がユニタリー群の場合、リー代数の生成子はエルミート演算子になる」ことである。つまり、リー代数の生成子をハミルトニアンとして良い。物理的(量子コンピューティング的)には、リー代数は、「ハミルトニアンの成す代数的構造(対称性)」という認識で良いらしい。
先端的な物理における数学の利用における「あるある」であるが、dynamicalリー代数(DLA:おそらく正式な和訳はない→動的リー代数、で良いらしい)も、その数学的定義では、物理的なイメージは全く湧かない。物理学に寄せてDLAを説明すると、利用可能な(あるいは、与えられた)ハミルトニアンの組(例えば、対象とする物理系に対応するハミルトニアン{H1,H2,・・・})から生成される🐾4リー代数のことを、特に、dynamicalリー代数(DLA)と呼ぶ。言葉を替えると、DLAを使って(も)、「実現可能なユニタリー演算子の集合」を決めることができる。量子コンピューティングの文脈で述べると、実現可能なユニタリー演算子は、量子ビットゲートに実装されている。量子回路は、(多様な)量子ビットゲートで構成される。
結論的な表現をすれば、「DLAを使用することで、パラメーター化量子回路(アンザッツ)の表現力を定量化することも、可能」である。DLAは記号(アルファベット)でgと表現される(しばしば、ドイツ文字の)。
🐾4 生成子の組{g1,g2,・・・,gn}が与えられたとき、その要素同士の交換子積を繰り返しとることで得られるリー代数を、{g1,g2,・・・,gn}から”生成される”リー代数と呼ぶ。生成子は、任意の微小変換を表すのに必要なベクトルに相当する。
(2) g純粋度
一般的に量子力学の文脈で、純粋度(purity)と言えば、Tr[ρ2]のことである。純粋度=1が純粋状態を表し、純粋度<1が混合状態を表す。
密度演算子ρのg純粋度は、Tr[ρg2]である。エンタングルメントの一般化された尺度とされる。ここで、ρgは、生成子による線形結合全体の成す集合(線形包)へのρの直交射影を表す。線形結合の係数∊ℂである。
測定演算子Oのg純粋度Ogも、同様の式で定義される。
(3) ユニタリー2デザインについて
Gj = exp(gj) (j = 1, …, k) 上でユニタリー2デザインを成すとは、「量子回路から得られるユニタリ分布の最初の2つのモーメントが、各Gj上のハール測度のモーメントと一致する」ことを意味する。リー群上の積分を介して、損失関数の分散(2次モーメント)を計算するために、必要な設定である。
(4) 一般化された局所性
測定演算子Oのg純粋度Ogが、Og=Oの場合、一般化された局所性と呼ぶ。
【3】追補
(1) 本論文では、ノイズなしと仮定されているが、SPAMノイズの影響も定性的に検討されている。状態準備ノイズは、グローバル脱分極ノイズ🐾5として考慮できる、とする。そして、これは、一般化されたエンタングルメントによる不毛の台地につながる可能性がある、としている。測定エラー(ノイズ)については、一般化された局所性による不毛の台地につながる可能性がある、としている。NISQⓍ実運用フェーズにおいて、量子機械学習が有用性・優位性を示すケースは極めて少ないのだろう、と推量される。
回路実行中に発生するコヒーレント・エラー(ノイズ)については、DLAが変化するので、どのように変化するかを調べる必要がある、とする。
🐾5 グローバル脱分極チャネルN(ρ)=(1-p)ρ+pI/2n。I/2nは最大混合状態、Iは恒等演算子。
(2) 本論文の射程は、密度演算子ρと測定演算子OがDLAに含まれる場合に限られる。ただし、多くの量子アルゴリズムは、その射程内にある、と主張している。また、ノイズチャネルが、ユニタリー2デザインを成す量子回路とインターリーブ(交互に配置)している、現実的なノイズ設定は、射程外である(ので、別のフレームワークが必要である)。そのようなノイズ設定は、こちらで考慮されている。
(3) 本論文は"積分計算の都合上"、ユニタリー2デザインを成す量子回路を対象としている。一方で、「不毛な台地は、量子回路がユニタリー2デザインを成すことが原因の一つである」とされている[*145]。従って、不毛な台地の原因全てを理解できるフレームワークの舞台として、適切なのか?という疑問が湧かないでもない。
変分モデルを、非古典的にシミュレーション可能な領域にスケーリングすることを妨げる可能性のある限界を理解するために始まった、不毛な台地(Barren Plateau:BP)の研究は大きく前進した。BPの主原因は解明済みである(☞【5】(1)にまとめた)し、BPを回避するアーキテクチャの特定も、進んだ。しかし当然ながら、未解決問題が存在する。例えば、平坦なBP地形においても、指数的に狭い領域では、大きな勾配を示すことがある。その狭い渓谷を簡単に見つける方法は(存在性も含めて)、未解決である。さらに、狭い渓谷が有用で有意義な学習を可能にするか?も未解決である。
異なる意味合いでの未解決問題も存在する。古典機械学習は、ヒューリスティックとの組み合わせによって推進され、理論だけでは予測できない成功を収めてきた。変分量子アルゴリズムも、ヒューリスティックとの組み合わせによって前進することが期待されるが、大規模なヒューリスティック実装を実行するために必要な量子ハードウェアはまだ実現していない。
米ロス・アラモス国立研究所他🐾1の研究者は、BPに関する包括的なレビュー論文(以下、本論文[*236])を発表した(25年5月8日@arXiv)。ロス・アラモス国立研究所はBP研究の一大拠点で、これまでにも重要な論文(例えば、[*89],[*140])を発表してきた(それぞれ、こちらとこちらを参照)。本論文は、本質的な部分では、24年8月にnature communicationsで公開された[*140]と変わらないが、包括的な構成となっている。
🐾1 スイス連邦工科大学ローザンヌ校、泰チュラロンコン大学、米カルテック、米IBMワトソン研究所、米NASAエイムズ研究所、米Simons Institute for the Theory of Computing、米Normal Computing Corporation(※)、米オークリッジ国立研究所、米グーグル(Quantum AI)
※ 確率論的AI及び量子AI向け機械学習フレームワークを開発したGoogle BrainおよびGoogle Xの元メンバーによって設立されたスタートアップ。
【1】まとめ(主要箇所のみ)
(0) BPの発生は、本質的にはすべて「次元の呪い」に起因する。古典的な勾配消失問題は、「深さの呪い」に起因する(☞【4】(1)1⃣)。
(1) BPには、確率論的BPと決定論的BPが存在する。一般的にBPと言えば、確率論的BPである。(☞【3】(1)1⃣,2⃣)
(2) 確率論的BPは、アンザッツの表現力の高さに起因する。アンザッツの表現力の高さは、動的リー代数を使って、定量化できる(☞【3】(2)2⃣及び❚補足2❚)。
(3) BPを軽減/回避する施策はあるものの、その施策を実行することで、量子優位性が失われる可能性がある(☞【3】(4))。
【2】事前整理
(1) 群上の加群
加群には、体上の加群(ベクトル空間)、環上の加群(R-module)、群上の加群(G-module)等がある。例えば、柏原正樹・京大(数理解析研究所特任)教授が2025年に受賞したアーベル賞の対象はD加群であるが、D加群は、環上の加群(微分作用素環D上の加群)である。
一般に加群というと、ベクトル空間の一般化とみなせる「環上の加群」を指すが、本論文で扱われているのは、群上の加群である。群上の加群は、2n次元複素ヒルベルト空間 H上の有界線形演算子の集合=ベクトル空間B(H)上の、動的リー群の既約表現のことらしい。動的リー群は、下記(2)参照。
(2) アンザッツの表現力
アンザッツの表現力は、動的リー代数❚補足1❚(Dynamic Lie Algebra:DLA)gによって定量化できる。これは、アンザッツによって生成される任意のユニタリ演算子U(θ)が、動的リー群G = exp(g)に属するためである。ここで、代数の次元が大きいほどアンザッツの表現力は高く、制御可能なアンザッツはg = su(2n)となるものとして定義される。ここでsu(・)は、特殊ユニタリー・リー代数で、特殊ユニタリー群 SU(・)に対応するリー代数である。
もちろん、浅い回路は動的リー群G全体をカバーすることはできない。なぜなら、それらはGの部分集合内のユニタリ演算子しか生成できないからである。
❚補足1❚
利用可能な(あるいは、与えられた)ハミルトニアンの組(例えば、対象とする物理系に対応するハミルトニアン{H1,H2,・・・})から生成されるリー代数のことを、特に、動的リー代数と呼ぶらしい。言葉を替えるとDLAを使って、「実現可能なユニタリー演算子の集合」を決めることができる。
(3) ユニタリーt-デザイン
n個の量子ビット上のユニタリー群U(2n)におけるハール分布(測度)の確率的性質のうち、操作的に有用な部分集合を表現する手段として、ユニタリーt-デザインという概念が導入された([*237],2009年)らしい。特に、2-デザインを形成するユニタリー演算子の集合は、幅広い応用が可能である。
数学的には、t-wise独立性という概念の量子拡張として、ユニタリーt-デザインをとらえることができるらしい[*238]。対称群上の確率分布に対して、t-wise独立という概念が定義される。ザックリ言うと、対称群をユニタリー群に置き換えることで、ユニタリーt-デザインが定義される。一般的には、t次までのモーメント演算子で定義される「t次までの性質」が、ユニタリー群上の一様分布と同じであるユニタリー分布を、ユニタリーt-デザインと呼ぶ。
BP寄りに表現すると、アンザッツがユニタリーt-デザインを形成するとは、以下の意味である:アンザッツの入力回路を構成するユニタリー演算子の出力と、動的リー群G = exp(g)上のハール分布から選択したユニタリー演算子の出力が、t次モーメントまで近似的に一致する。ここでgはアンザッツの動的リー代数である。BPの文脈において、t-デザインの中で2-デザインを特に粒立てる理由は、BPが損失関数の分散で測定され、2次モーメントが分散を表すからである。つまりは、計算上の都合に過ぎない。実際、2以上のt-デザインに対して、BPは発生する。
ユニタリーt-デザインはユニタリー回路で効率的に、近似的に生成することが可能であるが、ユニタリーt-デザインであることを検証することは難しい[*238](➡つまりは、暗号への応用可能性がある)。
【3】本論文・主要箇所
(0) 為念・・・不毛な台地(Barren Plateau:BP)とは
変分量子アルゴリズムにおける不毛な台地(BP)とは、量子ビット数nが増加するにつれて、損失関数またはその勾配が、平均値の周囲に指数関数的に集中する状態を指す。この場合の損失関数は、目的関数あるいはコスト関数と区別されない(同じと見做して良い)。
量子コンピューターは、有限個の測定回数Nを持つ期待値しか推定できない。このため、指数関数的に小さな変化を解決し損失を最適化するには、指数関数的に膨大な数の測定(ショット)が必要となる。その場合、変分量子アルゴリズムはスケーラブルではなくなる。ショット数が少ない(十分ではない)場合、最適化計算は、情報価値のない統計的変動によって生じる変化に追従してしまい、パラメータ更新は損失地形における無意味なランダムウォークにつながることになる。
(1) BPの種類・分類
一般的にBPと言った場合、確率論的BPを指す。しかし正確に言うとBPには、確率論的BPと決定論的BPが存在する。
1⃣ 確率論的BP
既述通り、最も一般的な損失関数の集中(つまり、最も一般的なBP)のタイプは、確率論的集中(言い換えれば、確率論的BP)として知られている。定性的に表現すると、確率的BPが発生した場合は、損失地形の大部分が特徴のない地形であることを意味する。式もどきを使って説明すると、
損失関数の分散 ∊ O(1/bn)
が成立する場合、損失関数は確率論的BPを示すと言う。ここで、nは物理量子ビット数であり、bは1より大きい適当な数である。確率論的BP は、全ての変分パラメータによる勾配(偏微分)が平均値の周囲に集中している場合のみならず、一部の変分パラメータによる勾配が集中している場合にも発生する。
2⃣ 決定論的BP
決定論的BPは、損失地形全体が真に平坦である。やはり、式もどきを使って説明すると、
|損失関数ー損失関数の平均値| ∊ O(1/bn)
となる。nとbは確率論的BPと同じである。決定論的BPは、量子状態=密度演算子ρ(θ) がすべての変分パラメータθ の値に対して、オブザーバブルと指数的に小さな重なりしか持たないことによって生じる。したがって、決定論的BPは、入力状態と測定演算子にのみ依存する。決定論的BPは、入力状態における高いエンタングルメントand/orアンザッツにおけるユニタル・ノイズ🐾2によって発生する可能性がある。
なお、決定論的BPは確率論的BPと異なり、全ての変分パラメータに対して成立している。
🐾2 ❚補足3❚を参照。
(2) BPの起源
1⃣ 全体ナヴィゲーション
皮肉なことに、変分量子計算の魅力の源泉たるヒルベルト空間の指数関数的に大きな次元が、BPの起源である。メルヘンチックに物語風に表現すると、「長所と短所が表裏一体の場合、一般的に言って、利活用は難しいよね」となるだろうか。数学的に表現すると、損失関数は以下の通り:指数関数的に大きな次元を持つヒルベルト空間上で定義される有界線形作用素の集合(=ベクトル空間である)内の、2つのベクトルから計算されるヒルベルト・シュミット内積。2つのベクトルを具体的に述べると、密度演算子ρとオブザーバブルOである。従って、損失関数=⟨ρ, O⟩🐾3である。
本論文は、「BPは、次元の呪いという概念を通じて、統一的に理解できる」と主張している。以下の2⃣で、⟨ρ, O⟩を3つの要素に分解し、3⃣を含めてBPの発生源を細かく吟味する。さらに、4⃣では、BPの別の発生源候補について議論する。
🐾3 ここでは簡潔さを優先して、パラメータθを省いた。θを含めてシュレーディンガー描像であれば⟨ρ(θ), O⟩、ハイゼンベルク描像であれば⟨ρ, O(θ)⟩である。言わずもがなであるが、適当なユニタリ時間発展演算子U(θ)を使って、O(θ)=U(θ)†OU(θ)である。
2⃣ さらに、3つの要素に分解してみる
BPは、アンザッツが「深い」ことと直接結びついている。ここで言う「深い」とは、㊀層数が十分に大きいことに加えて、㊁アンザッツの入力回路を構成するユニタリー演算子の集合が、ユニタリー2-デザイン(☞【2】(3)を参照)を形成する、ことを指している🐾4。
1⃣では、損失関数を密度演算子ρとオブザーバブルOとのヒルベルト・シュミット内積⟨ρ, O⟩で表したが、これをさらに要素還元する。ρとOに仮定🐾5を設けることで、「損失関数の分散」を3つの要素に分解できる。それぞれは、❶入力状態、❷測定演算子、❸アンザッツの表現力に対応し❚補足2❚、「損失関数の分散」=❶×❷/❸である。
つまり、❶と❷が指数的に小さければ、損失関数の分散が指数的に小さくなり、BPが生じる(☞補足的に、3⃣を参照)。同様に、❸が(指数的に)大きければ、損失関数の分散が指数的に小さくなり、BPが生じる。
🐾4 ㊁を含めた理由は、「浅い」の意味が、2-デザインの排除を含むようにするためであろうか。
🐾5 ρまたはOのいずれかが、随伴(転置及び複素共役をとる=エルミート共役。記号で表せば、上付きの†)に関して、(非自明な)モジュールMに属していると仮定する。ここで、モジュールとは「群上の加群(以下、加群とする)」を指している(☞加群は、【2】(1)を参照)。
❚補足2❚
本論文では、❶はPM(ρ)、❷はPM(O)、❸はdim(M)という記号で表現されている(駐:本論文で❶,❷,❸という識別はされていない)。Mはモジュール(加群)である。dim(M)は、Mの次元🐾6を表している。PM(・)は、加群 M への射影のノルムである。例えば、ρに対して具体的に書くと、PM(ρ)=∑μtr[Hμρ]2となる。ここで、{Hμ}は、M のエルミート直交基底である。
🐾6 群上の加群は、群の作用に関して閉じた、ベクトル空間であるから次元を自然に導入できる。
3⃣ (補足的に)入力状態と測定演算子
通常、BPの発生は、アンザッツの表現力(2⃣での表記でいうと❸)との関係で語られることが多い。
❶~❸のバランスで言うと、❶と❷がどうであろうと、❸によって有無を言わさずBP(確率論的BP)は発生する。2⃣で扱ったケースは、❸の影響が小さいケースであった。数式的に表すと、dim(M) ∊ O(nの多項式)というケースである。つまり指数的でなく、あくまで多項式的な大きさに限定される場合である。その場合に、他の要素❶入力状態と❷測定演算子が悪さをするよ、ということであった。
しかし(おそらく🐾7)❸の影響が小さいケースで、かつ❶と❷が悪さをするケースで発生するBPは、決定論的BPだけと思われる。つまり、確率論的BPはもたらさない、と思われる。従って、通常の意味でBPを語る場合(すなわち、確率論的BPを語る場合)、アンザッツの表現力がBPをもたらす、と表現しても問題はないと思われる。
🐾7 ここでの「おそらく」は文言として、本論文において現れていない。あくまで、筆者の理解(解釈)。
4⃣ ハードウェア・ノイズ
ハードウェア・ノイズの存在は、損失地形に大きな影響を与え、BPを引き起こす可能性がある。ノイズによってはBPを軽減する❚補足3❚ことも示されており、BPに対するノイズの影響は全て理解されているわけではないが、ノイズを次元の呪いの一種として捉えられるケースがある。
注意すべき点は、「ノイズ由来のBPは、ノイズがない場合の損失関数が指数的集中を起こしているか否か、に関わらず発生する」ことである。つまり、ノイズのない損失地形に不毛な台地が存在しない場合であっても、アンザッツが十分に深い場合、グローバル脱分極ノイズの存在によって不毛な台地が発生する可能性がある。
❚補足3❚
非ユニタル・ノイズの場合、BPを軽減することがあるらしい。非ユニタル・ノイズを説明するに際し、ノイズを一旦、ノイズ・チャネルと混同する。量子の文脈でチャネルとは、量子変換=写像であった。ノイズは量子系に悪さをするが、これを量子系と環境(あるいは補助系=アンシラ)との相互作用と捉えれば、量子の文脈で、ノイズとノイズ・チャネルを区別する意味はあまりない。ということで、ユニタル・チャネルCを定義すると、C(恒等写像)=恒等写像、である。非ユニタル・チャネルであれば≠である。従って、非ユニタル・ノイズ・チャネルNは、N(恒等写像)≠恒等写像ということになる。
尚、お馴染みの脱分極ノイズは(誤り率が小さい限りにおいて、ほぼ)、ユニタル・ノイズであり、Amplitude-Dampingノイズは、非ユニタル・ノイズである。
(3) 有名・有用なアンザッツとBPの関係
1⃣ ハードウェア効率の高いアンザッツ
「ハードウェア効率の高いアンザッツ」とは、1量子ビットの回転ゲートと(固定またはパラメータ化された)エンタングルメント・ゲートを交互に配置した非構造化アンザッツを指す一般的な用語である。ハードウェア効率の高いアンザッツは、回路の深さが深い場合(→❸)、❶入力状態や❷測定演算子に関係なく BP を示す。
2⃣ 問題に着想を得たアンザッツ
「問題に着想を得たアンザッツ」とは、問題に関する帰納的バイアスを回路アーキテクチャ自体に組み込むモデルを指す包括的な用語である。問題に着想を得たアンザッツは、特定のゲートセット、異なるエンタングルメント・ゲート・トポロジ、あるいはパラメータをタスクの対称性に合わせることで回路の表現力を調整する。このため、問題に着想を得たアンザッツがBPを示すか否かは、タスク次第のケース・バイ・ケースである。
本論文では具体的に、以下3つのアンザッツが取り上げられている。
㈠ ハミルトン変分アンザッツ(HVA)
HVAは、もともと変分量子固有値解析の文脈で導入された。ハミルトニアンHの基底状態を求めることが目標である。BPが発生するかは、対象となるハミルトニアンH(つまりは、タスク)が何であるかに大きく依存する。例えば、1 次元の並進対称性を持つハミルトニアンの大部分は、BPをもたらすことが示されている(らしい)。
㈡ QAOAアンザッツ
QAOAは近似的量子最適化アルゴリズムの略であり、 変分法を用いて組合せ最適化問題を解くために広く用いられている。基底状態に関心のある組合せ問題の解を符号化しているハミルトニアンの基底状態を求める、という仕組みである。アンザッツが十分に深い場合に、BP を示す。
ただし、QAOAアンザッツの場合、ポイントはQAOA がどの程度の深さであれば、古典的手法を上回ることができるか?である。しかし残念なことに、深さが1であっても、 QAOAアンザッツがBPを発生させるケースが存在する。その一方で、BPが発生しないように━例えば、小規模な問題で古典的に学習し、パラメータを転送するなど━して、QAOAを学習するというアプローチが存在する。しかし、そのアプローチであっても、大規模環境における性能は未解決の問題である。
㈢ UCCSDアンザッツ
CCSD法sup>❚補足4❚を、量子ハードウェア(ユニタリ量子回路)に実装したアンザッツが、ユニタリCCSD(UCCSD)アンザッツである。問題サイズに比例する励起数を持つ部分空間内に、対象量子状態が存在する場合、ランダムに深く初期化されたUCCSDアンザッツはBPを示す(らしい)。
❚補足4❚
定性的に化学現象を理解するには十分正確とされる、量子化学計算における代表選手として、ハートリー・フォック法がある。量子化学計算は、 分子軌道(Molecular Orbital:MO)法と密度汎関数理論(Density Functional Theory)に基づく計算に大別されるが、ハートリー・フォック(HF)法はMO法に属する。より高度(高精度)な計算を行う場合、HF法を修正するというアプローチが採用される。修正したHF法は、ポストHF法と呼ばれる。ポストHF法は、変分法、摂動法または、それらの組み合わせに分類できる。摂動法を用いたポストHF法の例として、結合クラスター(CC)法がある。CC法は、摂動を1電子励起(シングル:S)+2電子励起(ダブル:D)で打ち切った場合、CCSD法と呼ばれる。
(4) BPを回避/軽減するための戦略
0⃣ ナヴィゲーション
BPの発見以来、その有害な影響を軽減するための試みがなされてきた。その試みは2パターンに分けられる。一つ目は、指数的に大きな空間ではなく、高々多項式的程度の大きさの「小さな」空間に制限することでBPを軽減しようとする、という試みである(☞1⃣、2⃣)。二つ目、指数的に大きな空間であってもBPを軽減しようとする試みである(☞3⃣)。ただし少なくとも1⃣と3⃣の試みは、変分量子アルゴリズムが古典アルゴリズムに対して有する優位性の喪失と、表裏一体の関係にあると考えられる。
1⃣ 測定を制限する
BPを回避する最も簡単な方法の一つは、”浅い”アンザッツを用いること、と考えられている。浅いアンザッツかつ、「特定の測定」というセットアップにおいて、確率論的BPと決定論的BPの両方が、軽減されると期待できる。ここで言う「特定の測定」とは、測定を、高々多項式的程度の小さな空間に制限することを意味している。具体例として、「局所測定」を用いた、対数深さの(つまり浅い)アンザッツがあげられる。測定演算子が探索できる空間を制限することで、たとえランダムに初期化されたとしても、BP を回避できることが期待される。
ただし、浅いアンザッツには欠点が、いくつかあると考えられている。その一つは、到達可能性不足という問題である。これは、回路の深さを浅く=量子ゲート数を少なくすると、最適化から得られたパラメータ・セットが、タスクの十分に良い解に対応しない可能性がある、という問題である。つまり、BPを(単純な手を使って)回避すると、変分アルゴリズムの性能が不十分になる、という問題である。一般に、モデルが到達可能性不足に至るか否かを簡単に知る方法はなく、ケースバイケースの分析が必要である。別の問題として、浅いアンザッツは、偽の局所最小値を持つ可能性があることも報告されている。
2⃣ 可変構造アンザッツ
大きな括りとしては、測定を小さな空間に制限するという試みである。1⃣との違いは、浅いアンザッツという箇所を改良している点である(という理解)。可変構造アンザッツは、古典機械学習プロトコルを活用することで、損失関数を縮小させつつ、大きな勾配を維持する量子ゲートを配置または削除する。そうすることで、アンザッツを反復的・逐次的に適正化する。そのような慎重なアプローチを採用することで、表現力とノイズ由来の決定論的BPを軽減しようと試みる。測定を制限することで、表現力が高いゲートセットの使用を許容させる、という仕組みと考えられる。
最も有望な可変構造アンザッツとして、ADAPT-VQEアンザッツがあげられる。このアンザッツは、エンタングルメント・ゲートが少なく、勾配の大きい領域に焦点を合わせたハードウェア効率の高いアンザッツを実現し、多くの場合良好な解が得られることが示されている。
3⃣ 初期化戦略
パラメータをランダムに初期化することは良い考えではない。初期化方法が、モデルの最終的な性能を決定する上で重要になる可能性があることはよく知られている。古典モデルにおけるこの観察に基づいて、変分量子アルゴリズムにおける初期化戦略がいくつも提案されている。それらの初期化戦略のいくつかは、ヒューリスティックな成功を示しているため、BP を軽減するための有望な方法の 1 つとされる。古典機械学習モデルは、量子モデルと同様に勾配消失問題を示す可能性があり、スマート初期化は、古典機械学習モデルで使用される主要なツールの1つである。さらに、基底状態を見つけるというタスクでは、初期化は通常、平均場アプローチによる初期化などの問題構造を取り入れることによって行われる。したがって、ウォーム・スタートが変分量子アルゴリズムにおいて基本的な役割を果たすと期待される。
ただし、これらの初期化戦略には懸念もある。大きな勾配を持つ可能性があるが、大域的最小値と十分に接続されていない領域で初期化してしまうという懸念(つまり局所最適値しか見つけれられないかもしれないという懸念)。あるいは、古典的にシミュレーション可能と考えられる領域で初期化してしまうという懸念(つまり古典アルゴリズムに対して優位性を失うという懸念)である。
(5) BPを回避できない対策
BPを防止または軽減するための対策は数多く考案されてきた。しかし、以下に示すように、BPの根本的な原因に対処していないために失敗する対策もある。
1⃣ 最適化手法の変更
最適化手法を変更することで、(ランダムに初期化された)BP地形をナビゲートできるという主張はよく見られる。しかし、これらのアプローチでは、損失最小化方向を得るために依然として指数関数的な数の測定が必要であることが研究で示されている。
2⃣ 量子誤り緩和
量子誤り緩和でノイズを除去することで、ノイズに由来するBPを軽減するには、最悪のケースで指数関数的なリソースが必要になることが示されている。これは、深さが対数以下であっても(つまり、浅くても)当てはまる。従って最悪のケースでは、 量子誤り緩和でBP発生を回避することは、現実的ではない。さらに重要なことは、この最悪のケースが、レアなのかレアでないのかが、不明であるということである。
【4】本論文・為参考的な箇所
(1) 勾配消失問題との関連
1⃣ 相違点|次元の呪いvs深さの呪い
古典的な勾配消失問題の中で最もよく知られているのは、深さとともにノルムが消失または爆発する現象である。これは活性化関数による重みの増加または減少によって引き起こされる。この現象は変分量子アルゴリズムにおけるBPとは異なる。変分量子計算では、(ノイズに起因しない)BPは回路の深さではなく、量子ビット数の増加に伴って発生する。つまり、量子的には「次元の呪い」があるが、古典的にはこの問題はより正確には「深さの呪い」と表現されるべきだろう。
さらに、変分量子アルゴリズムにおけるBPは、入力状態と測定演算子に、密接に結びついている。
2⃣ 勾配消失に対する古典的な解決策の量子応用
古典的な勾配消失に対しては、多くの解決策が開発されてきた。バッチ正規化、層ごとの正規化、ReLU活性化関数の使用などである。それらの解決策は、量子の場合に直接適用できるとは限らない。
範囲を制限した初期化戦略と事前学習法は、勾配消失問題を回避するのに古典的に有効であることが証明されている。しかし、量子における損失地形はパラメータ化が不十分な領域で多数の局所最小値を持つことが示されていることを考えると、この戦略はあまり期待できないと考えられる。
3⃣ 別の発想
タスクに自然なバイアスを持つパラメータ化によっても、BPは軽減/回避できる、と考えられる。
4⃣ 正確度(precision)のコスト
古典ケースでは、損失と勾配の値は、O(log(1/ε)) にスケールするリソースで正確度(precision)εまで取得できることが多いため、勾配が急速に消失する場合でも、追加の正確度で補償できる。
対照的に、期待値に基づくほとんどの量子モデルでは、振幅増幅を巧みに使用して、1/ε2 または 1/ε のコストで確率的サンプリングを行うしかない。これは、勾配減衰に関するあらゆる問題が、量子の場合に指数関数的に拡大されることが多いことを意味する。量子モデルにおいてこ、の問題を回避する興味深い戦略としては、以下があげられる:期待値ではなく最尤値を使用する。サンプリングなしで、高正解度に確実に決定できる、他の決定論的出力を採用する。
(2) 議論すべき他のテーマ
1⃣ 局所的最小値
変分量子アルゴリズムにおける損失地形は、指数的に多数の準最適な局所的最小値に悩まされる可能性がある。つまり、変分量子アルゴリズムは、最適化が極めて困難な可能性がある。この問題は、浅いアンザッツと深いアンザッツの両方において存在する。
浅いアンザッツの場合、損失地形に偽の局所最小値が現れる可能性があることがわかっている。これらの最小値はアンザッツを過剰パラメータ化することで削除できるものの、過剰パラメータ化は深いアンザッツを必要とする可能性がある(ので、あまり意味はない?)。
2⃣ 古典アルゴリズムを使用することでBPを回避する
量子コンピュータからの測定値(例えば、量子回路が生成した量子特徴量を測定して得られた古典特徴量)を利用する古典アルゴリズム(例えば、古典機械学習モデル)は「特定タスクでは」、完全に古典的なアルゴリズムよりも、大幅に強力になり得ることが示されている🐾8。
さらに付言すると、変分量子コンピューティングと同じアプリケーションに取り組む完全に古典的な機械学習アプローチが多数存在する。それらのアプローチは、量子システムを古典的にシミュレーションすることの本質的な課題によって制限されているが、自然にBPを回避することができる(はず)。
🐾8 それを量子優位性と呼べるかは、別問題だろう。
(3) 変分量子アルゴリズム以外のBP
1⃣ 量子生成モデル
量子回路ボルンマシン及び量子ボルツマン・マシンも、BPを発生させる。ただし量子ボルツマン・マシンの場合、損失地形が凸状となる学習が可能である。その場合は、最適な学習モデルが確実に見つかる。
2⃣ カーネル法
BPはカーネル法でも発生するが、損失地形は凸状なので、”最適な学習モデル”自体は、確実に見つかる。もっとも、BPが発生した場合、カーネルには、入力データに関する有意義な情報が含まれない可能性が高い。つまり、精度が低いモデルとなる可能性が高い。
3⃣ テンソルネットワーク
テンソルネットワークに基づく機械学習モデルは、グローバル損失に対しては BPを示すが、ローカル損失に対しては BPを示さない。
【5】考察
(1) BPの発生についてまとめると、次のようになる:BPの発生源は4つある。①アンザッツの表現力が高い、②アンザッツがユニタリー2-デザインを形成する、③測定が非局所的、④ハードウェア・ノイズ。
①のBPは確率論的BPであり、アンザッツの表現力は動的リー代数で定量化される。【3】(2)2⃣の記号で言うと、❸である。②のBPは決定論的BPである(と理解)。②をもう少し正確に言うと、アンザッツの入力回路を構成するユニタリー演算子(の集合)が、ユニタリー2-デザインという性質を持つ場合を指す。【3】(2)2⃣の記号で言うと、❶である。③のBPも決定論的BPである(と理解)。局所的測定であればBPの発生を回避することができ、非局所的測定であればBPが発生する可能性がある(高い)。④は、ユニタル・ノイズの場合、BPが発生する可能性がある。非ユニタル・ノイズの場合、BPが軽減/回避される可能性がある。
(2) BPの呪いは深い。まず、量子アルゴリズムの優位性の源泉である指数的に大きい空間が、本質的にBPをもたらしている。そして、ユニタリー演算子の操作に対する優れた性質として導入されたユニタリーt-デザインが、BPをもたらしている。
つまり、量子の良い性質とBPは表裏一体の関係にある、と考えられる。つまり、変分量子アルゴリズムの量子優位性は、BPと密接不可分な関係にある、と考えてよい。故に、BPを回避する策を講じると、量子優位性が失われてしまう可能性が高い。ほぼ、オワコンと言われる所以であろう。
材料や化学物質を対象とする量子シミュレーション(以下、本稿では、材料QSと略す)は、量子コンピューティングの最も有望なアプリケーションの1つであることに議論の余地はないであろう。しかし、材料QSに必要なリソース要件は、NISQデバイスによる実現値とは残念ながら、かけ離れている。
そのような背景の下、英国の量子ソフトウェア・スタートアップPhasecraft[*94]は、「材料に関する量子シミュレーションに必要なリソースを大幅に削減できた」と主張する論文[*95](以下、本論文。補足情報は[*96])を公開した(2024年1月24日@nature communications)[*97]。
ただしPhasecraftは、「NISQデバイスで、材料QSが量子優位性をもたらす」ことを主張しているわけではない(同時に、可能性を否定することもしていない)。
【1】本論文の主張
本論文は、ベースライン(※)と比べて本論文のセットアップは、(1)ゲート数が最大8桁、(2)回路深さが最大 6 桁改善された、主張する。
射程は、基底状態を求める「変分量子アルゴリズム(VQA)†1」と、量子系のダイナミクスを計算する「ハミルトニアン・シミュレーション(本論文の文言は、TDS:Time Dynamics Simulation)†1」の双方である。また、対象とした物質(材料)には、強相関電子系に属する遷移金属酸化物(強相関酸化物)バナジン酸ストロンチウム(SrVO3)も含まれている(※)。
※ 【4】ベースラインとの比較結果、を参照。
†1 変分量子固有ソルバー法(VQE)と、特に区別しない。
†2 材料科学の文脈では、材料の応答関数とスペクトル特性を推定するために使用できる。
【2】事前整理
(1) ブロッホ基底
第一原理計算では、電子の波動関数を、何らかの(もちろん、性質の良い)基底関数の線形結合で表現する。結晶構造には周期構造が存在するから、周期ポテンシャルが導入できる。平面波展開した波動関数は、周期ポテンシャル場におけるシュレーディンガー方程式の解となる(電子状態は、結晶全体に広がった波として表される)。すなわち、平面波は、結晶を対象とした量子シミュレーションと相性が良い。平面波を基底関数として展開した波動関数が、ブロッホ関数である。このとき、平面波はブロッホ波と呼ばれる。
(2) ワニエ基底と最局在ワニエ関数
ブロッホ波を運動量空間に関してフーリエ変換することにより得られる、局在した関数をワニエ関数(局在軌道)と呼ぶ。ワニエ関数の中心位置は電子分布の平均位置を表し、ワニエ関数の自乗は電子の分布を表す。ただし、一般にワニエ関数は一意に定まらない。ワニエ関数は直交性さえ満足すれば、関数の表現には任意性を持つ(ブロッホ関数に含まれる周期関数について、ユニタリ変換に関する任意性がある)。ワニエ関数の広がり(分散)が最小になるように変換することにより得られる、一意に定まる関数を最局在ワニエ関数という。
【3】本論文のアイデア
(0) 量子リソースを削減するための指針
指針は、「VQEとTDS のシミュレーション目標に忠実でありながら、できるだけ少ない量子ビットを使用して、ユニタリ回路Uを最短の回路で実装すること」。ここで言及しているユニタリ回路Uは、VQEであればΠkexp(itlk・hk)、TDSであればΠkexp(iδt・hk)の形式をとる。ただし、tlkは変分パラメータ、δtは鈴木トロッター分解における「短い時間間隔」である。またハミルトニアンH = ∑khkである。VQEでもTDSでも同じ形式を取っている(ので、本論文では、U=U(a) = Πkexp(iak・hk)という表記を使用している)。
最短回路でU(a)を実装するために、できるだけ小さいヒルベルト空間を使用し、量子ビット数を減らす。具体的には。㊀ハミルトニアンHを忠実に表現するために必要な項の数(上の表記で言えば、k)を最小限に抑え、㊁U(a) のエントリ数(つまりkの数)を削減する。そして、㊂コンパイル・ルーチンと共に表現を選択して、個々のステップexp(iak・hk)の実行コストを最小限に抑える。
上記㊀~㊂は、それぞれ以下によって、達成される: ㊀→①適切な活性空間を特定する。㊁→②活性空間上で、最局在ワニエ関数でハミルトニアンの係数を計算し、小さな項を切り捨てる。 ㊂→③ハイブリッド・フェルミオン符号化とフェルミオン・スワップ・ネットワークを組み合わせて、相互作用の実行コスト(量子リソース)を最小限に抑える。
以下、上記①~③について、本論文でどのように、実行されているかを述べる(①→(1)、②→(2)、③→(3))。
(1) 適切な活性空間を特定する
材料系のシミュレーションを考えたとき、ハミルトニアンの並進対称性は大きな効果を発揮する。雑に材料系と述べたが、有用な材料や化学物質を指している。それらの物質は、生成あるいは合成が可能なはずであるから、一般的には結晶構造を取る(ことにしておく)。結晶構造をとれば、ハミルトニアンには、(当然、対象とする材料や化学物質によって異なる)その結晶構造を反映した並進対称性が、存在することになる。この対称性により、ブロッホ基底での効率的な近似対角化が可能になる。引いては、フェルミ準位付近の1粒子(状態の)ヒルベルト空間の部分空間を特定することが容易になる。活性空間を、この部分空間に縮小する(特定する)ことにより、必要な量子ビットの数とハミルトニアンの項の数を減らすことができる。
材料の低エネルギー特性の多くは、フェルミ準位付近の限られた数の電子自由度によって決まる。d電子やf電子が絡む強相関電子系でも同様であることは、密度行列埋め込み理論(DMET)や動的平均場理論(DMFT)などの埋め込みアプローチが機能していることから理解できる。そのような背景から、上記のような活性空間を特定することに、物理的な妥当性が与えられる。活性空間が特定されると、DFT計算†で求められた、活性空間内のコーン-シャム固有状態を使用して、最局在ワニエ関数(MLWF)が生成される。
† Quantum Espressoで実行された。ONCVPSPライブラリの擬ポテンシャルが使用された。
(2) MLWFでハミルトニアンの係数を計算し、項数を減らす
本論文では、ハミルトニアンを(第二量子化形式で)表現する適当な基底として、ブロッホ基底ではなく、MLWFを採用する。言うまでもなく、第二量子化形式による表現は、量子化学における計算や強束縛模型を扱う場合に便利である。 MLWFを採用した大きな理由は、次の2点である:㊀この基底では、相互作用が高度に局所化される可能性があり、ハミルトニアンの支配的な項数が減少する、㊁高度に局所的な相互作用が、量子ビット・デバイスでの効率的な表現に適している。
ブロッホ基底とワニエ基底は物理的に等価であるが、量子リソースを抑制した量子計算には、ワニエ基底がより好ましい、という主張である。目からウロコという感じであろうか。
(3) ハイブリッド・フェルミオン符号化とスワップ・ネットワーク
0⃣ 解題
量子コンピューターでフェルミオン系のシミュレーションを実行するには、フェルミオンのヒルベルト空間と量子ビットのヒルベルト空間との間で、変換が必要となる。この変換は一意ではない。広く知られていてシンプルな変換として、ジョルダン-ウィグナー(Jordan-Wigner:JW)変換がある(元は、正準反交換関係を満たすように、パウリ行列(スピン系)をフェルミオン表現に変換するための手法)。
ハミルトニアンのモード間に高度な相互作用がある場合、変換の選択に関係なく、全ての相互作用を低「重みが低い」演算子に変換することは不可能である。ここで「重みが低い演算子」とは、作用するモードあるいは量子ビットの数が少ない演算子を意味する。量子リソースが抑制できるた演算子と言っても良いであろう。ワニエ基底(今の場合、正確にはMLWF)を採用した場合で、密な短距離相互作用と疎な長距離相互作用の両方を考慮する場合は、疎な長距離相互作用のみが「重みが低い演算子」で表すことができる。本論文では、JW変換(+スワップ・ネットワーク)とコンパクト符号化を組み合わせたハイブリッド手法を採用し、相互作用の実行コスト(量子リソース)を最小限に抑えている。JW変換(+スワップ・ネットワーク)で密な短距離相互作用に対応し、コンパクト符号化で疎な長距離相互作用に対応している。後者は、量子リソースが抑制できているので、特に深堀しない(前者は1⃣へ)。
なお1⃣で改めて述べているが、JW変換+スワップ・ネットワークというセットアップ自体は、本論文のオリジナルではない(がカスタマイズはされている)。
1⃣ 密な短距離相互作用への対応
ワニエ基底では、各単位格子座標Rは、多数の密に相互作用するモードで構成される粗粒度の「サイト」と考えることができる。これらのモードは、隣接するサイトとは密に相互作用するが、離れたサイトとは疎らに相互作用する。(記述が重複するが、)この密な短距離相互作用(同じサイト上の=同じ格子サイト・インデックスRを持つ、モード間の相互作用)を、「重みが低い演算子」に変換することは出来ない。
そのため、取り得る最善策は、JW変換を使用して(同じ格子サイト・インデックスRを共有する)全モードを量子ビットに変換し、フェルミオン・スワップ(fswap)プロトコルを使用して、(結果として得られる)演算子の重みを軽減することである。JW変換とフェルミオン ・スワップの組み合わせは、深度の浅い回路を実現することが知られている(→JW変換はキタエフ変換に劣後するような言われ方をすることもあるが、実際のところ、そうではないらしい)。本論文の補足情報Cでは、「両者の組み合わせが、ほぼ全てのアルゴリズムの中で、(ハードウェア効率の意味で)最適に近い」と述べられている。
2⃣ フェルミオン ・スワップ・ネットワーク
まず言葉の説明:スワップ・ネットワークとは、スワップ・ゲートのみで構成される回路である。フェルミオン系を物理量子ビットへ変換する場合を区別したければ、 フェルミオン ・スワップ・ネットワークと呼ぶ。
本論文のスワップ・ネットワークは、先行研究[*98],[*99]で導入された量子リソースが少ない(ハードウェア効率の高い)アーキテクチャが、基本的には踏襲されているものの、カスタマイズが施される。本論文では、2つ~4つのモードで発生する可能性のある相互作用をターゲットとしている。各相互作用には、独自の隣接条件がある。(挿入可能な)スワップ・ゲートの組み合わせを探索する、探索ルーチンには、最急降下ヒューリスティックが採用されている。fswap層(スワップ・ゲートで構成される量子回路)は、残りの相互作用の理想的な隣接構成からの距離を、どれだけ短縮するかによって、候補プールから選択される。この戦略が成功するかどうかは、効率的なプロトコルにつながる距離の概念を慎重に選択するかどうかにかかっている(らしい)。
【4】ベースラインとの比較結果
1⃣ 前説
各材料のハミルトニアンをシミュレートする単一のVQE層を実装するのに必要な量子リソースを推定した。比較は、本論文のセットアップと、「ベースライン」†1である。対象となった材料は、次の5つである:①ガリウム砒素(GaAs)、②二硫化水素(H3S)、③リチウム銅酸化物(Li2CuO2)、④シリコン、⑤バナジン酸ストロンチウム(SrVO3)。推定した量子リソースは、❶量子ビット数、❷ゲート数及び❸量子回路深さ†2、である。ただし、初期状態の準備は考慮されていない。
†1 ブロッホ基底を採用し、フェルミオン系↔量子ビットの変換に、ジョルダン・ウィグナー変換を用いたセットアップ。材料および化学物質の量子シミュレーションにおけるコストのオーバーヘッドを見積もる際に、一般的に使用される標準的なアプローチでもある。
†2 「回路深さ」とは、並列化可能なゲートをグループ化した、当該グループの数を指す。
2⃣ 結果
以下、[]内は、ベースラインでの推定結果である。
① ❶1120[1500]、❷4.1×105[3.0×1012]、❸7.9×105[3.5×109]
② ❶1870[1500]、❷2.4×106[3.0×1012]、❸3.7×104[3.5×109]
③ ❶1024[1260]、❷2.3×105[1.5×1012]、❸8.4×103[2.1×109]
④ ❶1120[750]、❷4.5×105[1.8×1011]、❸8.5×103[4.3×108]
⑤ ❶180[864]、❷7.5×103[3.2×1011]、❸8.8×102[6.7×108]
3⃣ 評価
ザックリ言って、ゲート数は、106~108削減されている。
回路深さは、105~106削減されている。
【5】感想
リソースの削減幅は劇的であるが、施策自体は地味というか、目からウロコ的である。
航空機の主翼上の散乱した圧力データから境界層の剥離を検出し最小化することは、安定的かつ効率的な航行を確保するために極めて重要である。ナヴィエ・ストークス方程式の厳密解が求められていない現状では、境界層剥離の検出は、数値シミュレーションもしくは、機械学習・深層学習で研究することになる。本論文は、機械学習を用いている。
上海交通大学他[*100]の研究者は、剥離発生に関する分類タスクにおいて、量子サポートベクターマシン(量子SVM)は、古典SVMに比べて、”優れている”と主張する論文[*101](以下、本論文)を発表した(23年11月21日)。”優れている”点は、速度ではなく、精度(Accuracy: 正解率)である。
【1】本論文の主張
本論文は、以下を主張する。なお、量子SVMは、量子回路を使ったNISQマシンではなく、量子アニーリング・マシンで実行される。
(1) 二値分類において、量子SVMは90.9%の正解率(Accuracy)を示した。古典SVMは81.8%であり、正解率が11.1%向上した。
(2) マルチ・タスク分類において、(平均)正解率は、量子SVMは79%を示した。古典SVMは67%であり、(平均)正解率が17.9%向上した。
実は、正解率が量子>古典である理由は、必ずしも、量子アニーリング法にあるわけではない。
【2】事前整理
(1) 翼のレイノルズ数
流体力学で最も重要な無次元数はレイノルズ数Reである。Re=速度×代表長さ/動粘度、である。航空機の翼を対象とする場合、翼弦長(一般にコードと呼ばれる)を代表長さとして、レイノルズ数を計算する。なお、翼弦長は、翼の前縁と後縁を結んだ直線(翼弦線)の長さ、である。この場合、(区別するため)特別にRecと表記されることがある。
巡航速度をマッハ0.8とした場合、主翼のRecは10億程度となる。
(2) 境界層及び境界層の剥離
0⃣ 層流と乱流
流れには、層流と乱流という分け方があり、境界層にも、層流境界層と乱流境界層という分け方がある。雑に言うと、大小様々な渦の存在が、乱流の本質と考えられている。乱流でなければ、層流となる。教科書には、Re≧2000で乱流と書いてあるが、Reが2000以下でも乱流は発生する。というより、自然界に層流は、ほぼ存在しない。
1⃣ 境界層
粘性流体中を物体が運動している状況を考える。そのような場合、粘性流体の粘性の影響により、物体表面近傍では、流体の速度が遅くなっているはずである。この速度が遅くなっている場所は、物体表面から鉛直方向に存在する、非常に薄い層である。この薄い層を境界層と呼ぶ。境界層の流体側の面は滑らかであると仮定することができて、境界層の外側は非粘性流と扱って構わない。
境界層の厚さは、流体の速度や表面形状などによって変わる。層流境界層内の流れは、乱れておらず、きれいな(放物線状の)速度分布形状を想定できる。乱流境界層内の流れは、乱れており、大小様々な渦が存在する。速度分布形状は、べき乗則に従う急峻な形状となる。境界層内の流速が、一様速度と一致する箇所で境界層(層流境界層、乱流境界層)は終わる。乱流境界層は層流境界層に比べて、逆圧力勾配下での剥離への耐性が強くなる(つまり、剥がれ難くい)。ゴルフボールのディンプルは、乱流境界層を形成するために、造形されている(抗力が減って飛距離が出る)。
本論文は、航空機の主翼を考えているのだから、流れは乱流で、境界層も乱流境界層である。
2⃣ 境界層の剥離
境界層は、様々な要因で物体表面から剥がれる(剥がれても、もちろん再生する)。境界層剥離に伴って後流(伴流とも呼ばれる、英語ではwake)が発生すると、揚力(英語ではlift)が低下・抗力(英語ではdrag)が増大し、速度が低下する。航空機で言えば、失速・墜落につながる可能性がある。
剥離(流体では、英語でseparation。流体以外の分野によっては、delaminationという文言もある)には(も)、層流剥離と乱流剥離が存在する。また、剥離した境界層は再付着(英語では、reattachment)する。一般には、再付着に伴って速度が減速する共に、流れの安定性が損なわれる(翼に関しては、層流剥離泡という議論がなされる[*102],[*103])。
(3) 迎角
迎角(英語では、angle of attack:AoAあるいはAOA)は、先の 翼弦線と流れ方向とが成す角を言う。揚力は、迎角がある値に達するまでは増加するが、その値を超えると、急激に低下する。その値を失速迎角と呼ぶ。
失速迎角のスイートスポットは、15°~18°程度のようである。また、20°を超えることは無いようである。ちなみに、迎角0でも揚力は発生する(ように主翼は設計されている)。
【3】セットアップ
(1) 問題セットアップ
量子及び古典サポートベクターマシン(SVM)を使って、「境界層剥離の発生」と「迎角および流速」との対応関係を、学習する。ちなみに、2次計画問題の定式化は、線形分離不可能な場合の、ラグランジュ双対問題の形式で行われている。
1⃣ タスク
タスクは、分類タスクで、以下の2種類が設定された:㈠境界層剥離が発生したか、発生しなかったを(二値)分類する、㈡剥離が発生した場合の迎角を判断する(マルチ・クラス分類)。具体的には、迎角を4つのグループ(14°と15°、16°と17°、18°と19°、及び20°)に分け、剥離が発生した迎角が、どのグループに属するかを、マルチ・クラス分類として定式化した。
2⃣ 計算環境とハイパーパラメータ
量子SVMは、2次計画問題を2次制約なし二値最適化問題(QUBO)形式に変換して、D-Waveのアニーリングマシン(Advantage 4.1 システム)で解いた。古典SVMは、㈠はscikit-learnのsvm.SVCで、㈡はscikit-learn の Nusvcが使用された。カーネル関数は、ガウシアン・カーネル(RBFカーネルとも呼ばれる)が採用された。ハイパーパラメータは以下の通り:
㈠正則化パラメータ(コスト・パラメータとも呼ばれる)C=3、幅パラメータγ=1。量子SVMに対しては、さらにB=K= 2、というハイパーパラメータが用いられた。Bは、符号化に用いられる基底。Kは双対変数を符号化する二値変数の数。
㈡正則化パラメータC= 21、γ=0.27、ν=0.3。νは、サポートベクターの数と学習時誤差を調整する役割を果たすらしい。量子SVMのハイパーパラメータは、B= 4、K= 3である。
(2) データの取得
1⃣ 風洞実験
データは、風洞実験及び数値シミュレーションから取得した。風洞実験では、粒子画像流速測定を行い速度データを取得した。迎角αは、翼型(NACA0018翼†1を使用)を固定した回転テーブルを回転させて α=0 ~ 19 °の範囲で調整した。α≤10°の場合は2°刻みで、>10°の場合は1°刻みなので、迎角は15個。流速(平均自由流速度)は 10、13、および 17m/sの3個。データ総数は、15×3=45個である。境界層剥離は、翼型モデルの中央部に、10 個の圧力タップを配置して、測定した。
2⃣ 数値シミュレーション
数値シミュレーションでは、NACA633-018翼型†2を使用している。迎角は0°~20°の範囲を、1°刻みで設定した。つまり、21個が設定された。流速(m/秒)は、40~120m/sの範囲を、10m/s刻みで設定した。つまり9個が設定された。データ総数は、21×9=189個である。境界層剥離検出のための圧力測定は、翼表面に均等配置した106点で行った。
なお、数値シミュレーションに用いたソルバーは、ANSYS Fluentである。ハードウェアはワークステーションが使われた。乱流モデルは、航空力学分野で多用されている[*105]、SST k-ωモデル†3を採用している。蛇足ながら、差分は中心差分が採用され、陰解法で解かれている。
†1 「風車、送風機などの流体機械にしばしば使われる代表的翼型」とされる[*104]。
†2 後縁失速タイプの翼型と言われている[*103]。633の最後の3は、下付き文字で、誤植ではない。
†3 SSTは、Shear Stress Transport(せん断応力輸送)の略である。境界層内部におけるレイノルズ応力(せん断応力)の輸送効果を考慮している、という意味である。k-ωモデルは、kとωという2つの乱流量を導入した2方程式モデルである。kは乱流エネルギー、εは乱流消失率、という物理量である。一般的な流体工学では、k-ωモデルよりもk-εモデルが使われる。ω=ε/kは、乱流の時間スケールの逆数に対応する[*105]。航空分野ではk-εモデルよりも、k-ωモデル(やSST k-ωモデル)が使われる。その理由は[*105]に、「航空分野(流速でマッハ0.8、レイノルズ数10億)で考慮する乱流にとって重要な物理量は、時間スケールであり、ωは、レイノルズ応力やkに直結する大きな空間スケールの変動に固有の時間スケールである」と書かれている。
(3) データセット
1⃣ 境界層剥離
風洞実験のデータ45点で構成。34点が学習用、11点がテスト用に使われた。
2⃣ 剥離が発生した場合の迎角判断
迎角14°~20° の範囲を1°刻みで設定した7個のデータで構成されており、各角度で 9 個のデータ ポイントが含まれている(流速40~120m/sの範囲を、10m/s刻みで設定したので9個)。総数は7×9=63個である。学習データ43個、テスト用20個に分割した。隣接する 2°を 1 クラス、20°のデータを単独のクラスとして分類し、データセットを 4 つのクラスに分割した。
分類能力をより適切にテストするために、データを 10 回シャッフルし、異なる学習用データセットとテスト用データセットを取得した。
【4】比較結果
(1) 境界層剥離の発生検出
1⃣ 計量指標
比較に用いた計量指標は、❶F値(F1スコア)、❷正解率(Accuracy)、❸適合率(Precision)、❹再現率(Recall)の4つ。これらは、分類タスクにおける標準的な指標である。ここで、❶=2×❸×❹/(❸+❹)。❷=(TP+TN)/(TP+TN+FP+FN)である。TP:剥離が実際に発生し、剥離発生を(正しく)予測した件数。TN:剥離が実際に発生せず、剥離が発生しないことを(正しく)予測した件数。FP:剥離が実際に発生しなかったが、剥離発生を(間違って)予測してしまった件数。FN:剥離が実際発生したが、剥離が発生しないと(間違って)予測した件数。❸=TP/(TP+FP)、❹=TP/(TP+FN)
2⃣ ベンチマーク
ベンチマーク(古典SVM)は、scikit-learn 1.0.2 によって提供される svm.SVCである。カーネル関数は、ガウシアン・カーネル(RBFカーネル)を採用しており、正則化パラメータ(あるいはコスト・パラメータ)C=3、幅パラメータγ=1である。量子SVMには、さらに次のハイパーパラメータが用いられる:B=K= 2。Kは双対変数を符号化する二値変数の数。Bは、符号化に用いられる基底である。
3⃣ 結果
量子SVMの結果をq、古典SVMの結果をcで表すと、❶(q,c)=(0.9091、0.7143)、❷(q,c)=(0.9091、0.8182)、❸(q,c)=(1.0、1.0)、❹(q,c)=(0.8333、0.6667)となった。なお、❶と❷でqの数値は同じであるが、誤植ではない(ただし、本論文のママという意味)。
(2) 迎角のマルチタスク分類
10個のデータセットを使った結果の中から、良い方の5つを抽出する。ハイパーパラメータは、5つの平均を採る。決定関数は、その平均値から計算される。
ベンチマーク(古典SVM)は scikit-learn の Nusvcである。ハイパーパラメータは、γ= 0.27、C= 21、ν=0.3。νは、サポートベクターの数と学習時誤差を調整する役割を果たすらしい。量子SVMで追加されるハイパーパラメータは、B= 4、K= 3である。
計量指標である「平均正解率」は、古典SVMは 0.67、量子SVMは 0.79 である(なお、標準偏差は 古典SVM 0.121、量子SVM 0.097)。
【5】考察
(0) 本論文が掲載されたジャーナルは、サイエンス・パートナー・ジャーナル(SPJ)である。一流科学雑誌米サイエンスに属する、オンラインのみのオープン・ジャーナルである。ネイチャーも同様のネイチャー・パートナー・ジャーナル(npj)を立ち上げている。ただ、どちらも、特定の研究機関と共同で作成するらしい。本論文が掲載されたのは、SPJのIntelligent Computingであり、中国の之江実験室と共同で作成されるジャーナルである[*106](ので、お手盛りの可能性は否定できない?)。なお、之江実験室とは、浙江省・浙江大学・アリババが共同出資して設立した「研究機関」らしい(浙江省は、100億元(≒1637億円≒US$1.4bil)を拠出したらしい)[*107]。
(1) データセット作成において、 風洞実験ではNACA0018翼を使用し、数値シミュレーションではNACA633-018翼型を使用しているが、同じ翼型を使うべきだと思えるが、どうなのだろうか。また、NACA0018翼を航空機の主翼の翼型として使用することが妥当か、という議論もあるように思える。ソルバー(Fluent)と乱流モデル(SST k-ω)は標準的である。
(2) 量子>古典の度合が、やや行き過ぎていて、眉唾に感じてしまう。量子SVMは、二値分類で11.1%、マルチ・タスク分類で17.9%も”優秀”である。通常であれば、トントンもしくは、かろうじて量子>古典であろう。
(3) マルチ・タスク分類で量子SVM>古典SVMとなった理由を、本論文では、「量子アニーリングが、必ずしも大域的最適解を返さないことにある」と考えている。つまり、最適解に近い解をいくつか使用することによって、精度が上がるという主張である。アンサンブル平均のイメージであろうか。これが「もし、本当なら」、量子アニーリング・マシンの使い道は、グッと広がると思われる。
ポーランドAGH科学技術大学と印ビールマータジジャー・バーイー工科大学の研究者は、洪水予測に古典モデルと量子モデル(古典モデルの量子バージョン)を適用して比較した論文[*Supp-2]を公開した(24年7月1日@arXiv)。|為念|スペインのマルチバース・コンピューティングは、英オックスフォード・クォンタム・サーキッツ、米ムーディーズ・アナリティクスと共に、量子古典ハイブリッドPINNを使った、洪水予測モデルを開発すると発表している(23年10月31日)[*Supp-3]。
ドイツのヴッパー川(ライン川の支流)を対象とする。2010~2023年までの河川データ・気象データ及び、リアルタイムの監視データを基に、2023年に起きた洪水の再現性を比較した。比較のために取り上げられたモデルは多数あるが、SVMとQSVMの比較のみ示す。指標は、二値分類の精度(accuracy)。
SVM99.8%、QSVM97%。
❚❚❚追 加 1⃣❚❚❚ 医療画像の識別・診断で、量子SVM>古典SVMという論文
研究フローは以下の通り:まず、アンサンブル深層学習モデルを使って、脳MRI画像から特徴量を抽出する。当該特徴量を、量子SVM、古典SVMの入力として、多値分類タスクを行う。量子SVMと古典SVMの結果を比較する。アンサンブル深層学習モデルとは、「VGG16⚡5+ResNet-50⚡6」を意味している。
機械学習モデルの評価指標は、(分類タスクであるが、医療分野なのでギョーカイに併せて)以下の通り:❶正診率(accuracy)、❷陽性的中率(precision)、❸感度(recall⚡7)、❹F1スコア、❺ROC-AUC。※ただし、そもそも、グランドトルゥースは明示されていない。
比較指標を、「(量子SVMの結果-古典SVMの結果)/古典SVMの結果」⚡8とすると、❶15.1%、❷13.1%、❸14.1%、❹13.2%、❺10.4%となる⚡9。額面通りに受け取れば、”大幅に、性能がアップ”している(鵜呑みにはできないと思っている☛医学系の論文は捏造が多いから・・・)。
ちなみに、XⅧで同じことをすると、❶11.1%、❷0.0%、❸25.0%、❹27.3%となる。怪しさが、さらに増す。
⚡1 詳細な情報なし(→査読者は指摘しないのだろうか?)。詳細と言っても、量子カーネル=量子状態の内積=具体的な「符号化の方法」、が分かれば十分である。「符号化の方法」は、この文脈では、一般に特徴量マップと呼ばれる。最も有名なのが、ZZ特徴量マップである。
⚡2 詳細な情報なし(→査読者は指摘しないのだろうか?)。詳細と言っても、古典でも、カーネル関数の詳細が分かれば十分である。
⚡3 正確には、この3つが何を表してるか不明である(説明がない→査読者は指摘しないのだろうか?)が、バリー・ライスバーグ博士によるアルツハイマー病の7段階の、2,3,4段階に相当するとしておく。cf.https://www.alz.org/asian/about/stages.asp?nL=JA&dL=JA
⚡4 ADNIデータベースから抽出されている。ADNI(Alzheimer’s Disease Neuroimaging Initiative)は、アルツハイマー病発症過程を縦断する脳画像研究であり、日本,米国,欧州,豪州において、同一プロトコルを用いて実施される、非ランダム化長期観察研究である。2005年に米国で発案、開始された。日本のADNIは、J-ADNIと呼ばれる。
⚡5 16層からなるVGGNet。VGGNetは、オックスフォード大学のVisual Geometry Group(VGG)が開発した(深層)畳み込みニューラルネットワーク・モデルで、画像識別分野では有名。VGGNetの中でも、VGG16とVGG19が優れているとされる。
⚡6 50層からなるResNet。ResNetは、多層化による勾配消失問題をスキップ接続で解消した(深層)畳み込みニューラルネットワーク・モデル。画像識別分野では有名。ResとはResidual(残差)の意味で、スキップ接続を含むブロックを残差ブロックと呼ぶ。
👉 VGGNet、ResNetでは、過学習防止策として、バッチ正則化及びドロップアウトを採用(ドロップアウト率は、不明)。
👉 VGGNet、ResNetのハイパーパラメータ等は以下の通り:バッチサイズ=64、学習率=1.0×10-4、オプティマイザ=SGD(Stochastic Gradient Descent:確率的勾配降下法)、損失関数=交差エントロピー、エポック数=125。
⚡7 一般的な分類タスクの文脈で再現率(recall)と呼ばれる指標は、医療分野ではsensitivity(日本語では、感度)と呼ばれる(→査読者は指摘しないのだろうか?)。その意味でも、この論文は、やや中途半端な感じがする。
⚡8 論文[*131]に、このような結果が示されているわけではない(弊社が計算しただけ)。
⚡9 ちなみに、アンサンブル学習とともに、それぞれ1⃣VGG16単体、2⃣ResNet-50単体で特徴量を抽出した結果も存在する:
1⃣❶12.2%、❷12.3%、❸11.7%、❹12.3%、❺10.8%。2⃣❶11.3%、❷11.8%、❸6.7%、❹7.3%、❺15.1%。
トロント大学他[*108],インシリコ・メディシン[*109],ザパタ・コンピューティングは、「量子古典ハイブリッド生成モデルは、古典生成モデルよりも、高質な†ヒット化合物を探索できる」と主張する論文[*110](以下、本論文)を発表した(2024年2月13日)。
本論文の主張は、「量子古典ハイブリッドモデルの探索結果が、古典モデルよりも優れている」という内容であり、「量子モデルが古典モデルよりも高速」という内容ではない。量子古典ハイブリッドモデル(のモデル・アーキテクチャ)は、量子生成モデルと古典的深層学習モデルで構成される、敵対的生成ネットワークである。さらに、量子生成モデルは量子回路ボルンマシンであり、古典的深層学習モデルは、LSTM(Long Short Term Memory)である。
† ヒット化合物と標的タンパク質とが強く結合する、という意味である。
【1】本論文の主張
(1) 3つの標的タンパク質のうち一つで、ハイブリッド生成モデルは、古典生成モデルと比べて、ドッキング・スコアで優れたヒット化合物を探索することができた。
(2) 「量子モデルの複雑さと、高品質の分子生成の有効性との間に、直接の関係がある」ことが示され、この傾向は、「量子モデルの量子ビット数を増加させて分子設計の結果を体系的に改善できる可能性を強調している」。
(3) KRASG12D、 G12Rへの結合を示すKRAS阻害剤(抗がん剤)候補化合物を生成した。それらは、WT NRASとHRAS及びWT HRASとNRASに対しても結合を示した。さらに、独特の阻害プロファイルを示しており、有望な抗がん剤となる可能性がある。
【2】事前整理
(1) 機械学習・深層学習を用いた創薬プロセス
まず、低分子化合物を対象とした前臨床までの創薬プロセス[*111]について、簡単に整理する。最初のステップは、「スクリーニング」である。つまり、化合物ライブラリーからヒット化合物をスクリーニングする、というステップである。ヒット化合物は、創薬標的に対して活性が確認されたという状態である。次のステップは、「リード探索」である。ヒット化合物の中から、(ざっくり言って)薬理作用を有する化合物を探索する。薬理作用が確認されたヒット化合物は、リード化合物と呼ばれる。最後のステップは、「リード最適化」である。リード化合物は、安全性と十分な薬理作用が期待できるように最適化できた場合、前臨床候補化合物となる。
スクリーニングのステップにおける旧来型の手法は、ウェット実験で確認するという手法である。
この「化合物と標的タンパク質とが結合するか否かを実験的に確かめる」手法は、手間暇がかかる。具体的には、1つの化合物につき約1万円を要する[*112]らしい。ヒット化合物を見つける確率が約1/1万であることを鑑みると、ヒット化合物の値段は1億円~ということになる。このコスト及びウェット実験にかかる時間を削減するために、コンピュータを使った「仮想スクリーニング」が指向されるようになった。仮想スクリーニングは、マシンパワー頼みで、総当たり方式(ブルート・フォース)で行う方法と機械学習・深層学習を使って計算コストを抑えた方式がある。本論文で扱っている仮想スクリーニングは、後者である。
一般に、機械学習・深層学習を使った創薬では、3つのことが期待される[*113]。㊀時間とコストの削減(この場合の時間とは、ヒット化合物及びリード化合物を同定するまでのトータル時間である)、㊁成功確率の向上(ここで言及されている確率は、治験をクリアする確率である)、㊂新規性。本論文では、㊂において、面白い結果が示されている。
(2) RASタンパク質及び、KRAS阻害剤
RASタンパク質は、低分子GTPアーゼ・タンパク質(あるいはGTP結合タンパク質)のサブ・ファミリーである。GTPアーゼは、アーゼの接尾語がついている通り、酵素である。具体的には、GTP(グアノシン3リン酸)の3番目のリン酸を、GDP(グアノシン2リン酸)に加水分解(脱リン酸化)する加水分解酵素(ファミリー)である。RASタンパク質には、HRASタンパク質、KRASタンパク質、NRASタンパク質という3種類のサブタイプが存在し、それぞれHRAS遺伝子、KRAS遺伝子、NRAS遺伝子から作り出される。3つのRASタンパク質は、全てがん発生に関与することが分かっている。
GTPアーゼは、通常の酵素とは異なる。基質であるGTPと分解物であるGDPと、それぞれ結合した上で安定的に共存し、細胞内シグナル伝達を担う分子スイッチとして機能する。このため、結合タンパク質とも呼ばれる。正確に言うと、GTPアーゼ=RASタンパク質がGDPと結合した状態はシグナル伝達に関わらないオフ・スイッチであり、GTPと結合した状態はシグナル伝達に関わるオン・スイッチである。つまり、RASタンパク質が基質に結合することによりスイッチが入り、基質を分解するにつれて、スイッチが切れる(実際には、GDPからGTPへの変換(を加速)する因子、GTPからGDPへの加水分解を促進する因子も関わり、より複雑なプロセスとなっている)。分子スイッチとしてのRASタンパク質は、細胞増殖シグナル伝達の上流に位置している。RAS遺伝子が変異することでRASタンパク質が変異し、GTP結合状態が増えると、シグナル伝達が恒常的に活性化される。その結果、がん化が引き起こされる。
RASファミリーの中でも、KRASは最も高頻度に変異し、KRAS変異はRAS変異によって促進されるがんの約80%を占めている。さらにKRAS変異は、特に致命的ながんに多く、膵臓がんの77%、大腸がんの43%、非小細胞性肺がんの27%に存在している。このため、KRAS変異を持つがんを効果的に抑制することは、極めて重要と認識されており、KRAS変異が原因となるがんについて研究開発が進められている[*114]。
KRAS変異によって引き起こされるシグナル伝達の恒常的な活性化を阻害することを作用機序とする薬剤(以下、KRAS阻害剤と呼ぶ)の開発は困難であった。その理由は、㊀KRASに疎水性のポケットがなく活性向上が困難であるにもかかわらず、㊁細胞内に豊富に存在するGTPと KRAS の親和性が高く、非常に高い阻害活性が要求されるからであった[*115]。
KRASの最も一般的な変異は、12番目のグリシン(G12)で発生する。G12での変異は、さらに9つのサブタイプ(G12C、G12D、G12R、G12S、G12Vなど)が存在する。非小細胞性肺がんは、G12C変異を最も多く含む。米カリフォルニア大学サンフランシスコ校のチームは、G12Cに不可逆的に結合し、恒常的なシグナル伝達を阻害することに成功した(2013年)。この成果を契機に研究が進展し、米アムジェンはKRAS阻害剤ルマケラス(一般名ソトラシブ)を開発することに成功した。ルマケラスは、非小細胞性肺がんを適用対象として、2021年5月にFDA承認を得た。現状、KRAS阻害剤は12GCを標的にしたルマケラスのみである。
(3) 量子回路ボルンマシン(QCBM)という生成モデル
ザパタは、QCBMは量子優位をもたらすというキャンペーンを以前から展開している。QCBMは変分法に基づく量子生成モデルである。つまり、パラメータ化された量子回路(アンザッツ)|ψ(θ)⟩ によって構築される。QCBMの学習には、アンザッツのパラメーターを最適化して、ターゲット確率分布に近似する確率分布を生成することが含まれる(パラメータ最適化には、古典的オプティマイザーが使用される)。この確率分布は、量子力学のボルン則に従って生成される。量子力学のボルン則は、測定基準(密度演算子ρ)が与えられれば、それだけで、特定の結果|x⟩ の測定結果を取得する確率pが、計算できるという”法則”である。純粋系のρは、アンザッツによってρ=|ψ(θ)⟩⟨ψ(θ)|と計算(構成)され、確率pは、p=|⟨x|ψ(θ)⟩|2 と計算される。確率pを|x⟩の関数p(|x⟩)→p(x)として捉えれば、確率分布関数となる。
生成モデルは、観測されるデータから、その観測データを生み出している隠れモデルを見つけるという学習モデルである。観測データは、確率分布関数から生み出されるとして定式化されるから、生成モデルの構築は、観測データが従う確率分布関数を推定することを意味する。QCBMに基づく生成モデルは、ボルン則に基づいてデータから確率分布関数を推定する生成モデルと考えることができる。
(4) その他
1⃣ STONED-SELFIES アルゴリズム
分子表現としてSELFIESを使用した「化合物生成アルゴリズム」である。ステップは以下の通り:㊀SMILESの入力から同じ意味を持つSMILESを複数ランダムに生成する、㊁生成したSMILESをSELFIESに変換する、㊂SELFIESをランダムに変異させる、㊃SELFIESからSMILESに変換する。
2⃣ VirtualFlow[*116]
VirtualFlowは、バッチシステムで管理された、Linuxベースのコンピュータ・クラスタ上(バイ・ネームで言えば、AWS)で仮想スクリーニング関連タスクを実行するための、汎用性の高い並列ワークフロー・プラットフォームである。VirtualFlowはオープンソース・プロジェクトで、ハーバード大学(のChristoph Gorgulla)が当該プロジェクトの開発者であり、リード・デベロッパーである。現在、VirtualFlowには2つのバージョンがあり、それぞれ異なるタイプのタスクに対応している。VFLP: リガンド†調製用VirtualFlow、VFVS:仮想スクリーニング用VirtualFlow。これらはワークフロー管理と並列化に関して同じコア技術を使用しており、個別に使用することも、互いに連携して使用することもできる。今後、追加バージョンの登場が予定されている。VFVS用のビルド済みリガンド・ライブラリは無償で入手可能である。
† 一般に「標的タンパク質上の結合部位に結合することでシグナルを生成する分子」と定義される。比喩的には、標的タンパク質が鍵穴、リガンドが鍵に例えられる。
【3】本論文におけるモデル詳細
(0) 創薬の文脈から見たモデルの説明
本論文は、ある特定の疾患における標的タンパク質とリガンドの結合作用を基に、ヒット化合物を探索する(創薬における1つの)ステップを対象としている。具体的に言えば、特定疾患は癌であり、標的タンパク質は、KRASタンパク質である。つまりKRAS阻害を作用機序とする抗がん剤候補(ヒット化合物)を探索するステップが、本論文の研究対象となっている。
(1) データセットの生成
KRAS タンパク質をターゲットとする生成モデルを学習するための堅牢なデータセットが構築されている。当該データセットは、広範な文献レビューを通じてキュレーションされた、実験的に確認された約650のKRAS 阻害剤からスタートしている。続いて、㈠仮想スクリーニングと、㈡局所的な化学空間探索を使って、データを増やした。
㈠ 仮想スクリーニングでは、まずVirtual Flow 2.0を使用して 1 億個の分子をスクリーニングした。次に、分子ドッキング技術と組み合わせて Enamine社†の REAL®ライブラリを利用した[*117]。このスクリーニングの上位 250,000 個の化合物は、最も低いドッキング スコアを示し、その後データセットに統合された。
㈡ 局所化学空間探索は、STONED-SELFIES アルゴリズムを使用して実施され、実験的に得られた 650 件のヒット化合物に適用された。得られた誘導体は、合成可能性に基づいてフィルタリングされ、最終的に 85 万個の分子が学習セットに追加された。
† Enamine(https://enamine.net)は1991年、早期創薬におけるハイスループットスクリーニングの出現とともに設立された。Enamineはスクリーニング化合物、ビルディング・ブロック、フラグメントのグローバルプロバイダーとして、製薬会社、バイオテクノロジー企業、創薬センター、学術機関、その他世界中の研究機関が実施する幅広い研究プログラムをサポートしている。
(2) モデル・アーキテクチャ
1⃣ 全体構成
モデルアーキテクチャは、敵対的生成ネットワークである。まず、深層学習の文脈のみで説明すると、以下のようになる:生成器としてLSTMを用いる。生成器の入力となる確率が従う確率分布のサンプラーとして、QCBMが用いられている。識別器は、インシリコ・メディシンの低分子化合物生成プラットフォームChemistry42である。
創薬の文脈で補足すると、QCBMは、標的タンパク質への結合能を失わない範囲で、あるリガンドが別のリガンドに変換される写像を、確率分布関数として学習していると解釈できる。学習済みのQCBMがサンプリングする確率を受け取って、LSTMは新たなリガンドを生成する。新たに生成されたリガンドは、Chemistry42によって、薬理学的フィルタリングをかけられる。
2⃣ LSTMのアーキテクチャ等
LSTMの損失関数は、負の対数尤度関数である。Adamオプティマイザーを使用して学習され、過学習を軽減するために、ドロップアウトなどの正則化手法が実装されている。活性化関数には、シグモイド関数(とtanh関数)を使用している。エポック数は40。
3⃣ QCBMのアーキテクチャ等
IBMの量子ハードウェア(16量子ビットのNISQマシン)と量子シミュレータで実行される。QCBMの損失関数も、負の対数尤度である。オプティマイザーにはCOBYLA を使用して、合計96 のパラメーターが最適化される。線形トポロジーが採用され、16 量子ビットと 4 層でネットワークが構築される。エポック数は30。
【4】比較結果
(1) 3つのタンパク質に対する事前検証
0⃣ 標的タンパク質
「1SYH(受容体)、6Y2F(酵素)、4LDE(受容体)」という3つの標的タンパク質に焦点を当てた。㊀1SYH は、アルツハイマー病、パーキンソン病、てんかんなどの神経疾患および精神疾患に関連するイオンチャネル型グルタミン酸受容体である。㊁6Y2FはSARS-CoV-2ウイルスの主要なプロテアーゼであり、RNA翻訳に重要である。㊂4LDEは、β2 アドレナリン受容体である。詳しく述べると、筋弛緩と気管支拡張に関与するホルモンであるアドレナリンに結合する細胞膜貫通受容体(GPCR)である。
1⃣ 目的と評価指標
本論文で提示するハイブリッドモデルが、標的タンパク質に対して強い結合親和性を示す新規分子を生成すること及び、ドッキング スコアを最小限に抑えること、を目標として事前検証を実施した。評価指標としては、ドッキングスコアと成功率(success rate:SR)を採用した。ドッキングスコアは、2種類のドッキング・シミュレーション用ソフトウェア(QuickVinaとSMINA)を使って計算する。成功率とは、事前に定義された構造ベンチマークを満たす分子の割合を示す。
2⃣ 比較対象モデル
本論文で提示されているハイブリッドモデルを(長いので)BM-LSTMとする。BM-LSTMの比較対象となる古典モデルとしては、以下が選択された:VAE(分子表現として、SMILESとSELFIESを使う)、MoFlow(Flowベースのグラフ生成モデル)、REINVENT(再帰型ニューラルネットワークに基づくSMILES生成モデル)、GB-GA(グラフベースの遺伝的アルゴリズムに基づく生成モデル)、JANUS(STONED-SELFIES アルゴリズムを採用した遺伝的アルゴリズムに基づく生成モデル)、LSTM(分子表現として、SMILESとSELFIESを使う)。
3⃣ 結果
以下に示すように、実に微妙な結果である。BM-LSTMは、古典モデルに比べて、標的タンパク質に対して強い結合親和性を示す新規分子を生成できていない。
㊀1SYHでは、REINVENTのドッキングスコアが、QuickVina・SMINAとも最も優れていた(最小であった。以下、同じ)。成功率はBM-LSTMが最も優れていた。㊁6Y2Fでは、JANUSのドッキングスコアが、QuickVina・SMINAとも最も優れていた。成功率はBM-LSTMが最も優れていた。㊂4LDEでは、QuickVinaのドッキングスコアはBM-LSTMが最も優れていた。SMINAのドッキングスコアは、GB-GAが最も優れていた。成功率はBM-LSTMが最も優れていた。
4⃣ スケーラビリティの期待
量子ビットの数を2量子ビットから18量子ビット増やした場合の成功率が、直線的に増加していることをもって、「量子モデルの複雑さと、高品質の分子生成の有効性との間に、直接の関係があることを示している」と結論してる。そして、「この傾向は、量子モデルの量子ビット数を増加させて分子設計の結果を体系的に改善できる可能性を強調している」とかなり大風呂敷を広げている。
(2) KRAS阻害剤
1⃣ フィルタリング
KRAS阻害剤として有望なリガンド構造を抽出するために、BM-LSTMによって生成された低分子化合物は、様々なフィルターを通してふるいにかけられた。
🛎 2次元構造フィルターで、水素結合供与体、酸素原子、芳香族原子の割合、回転可能な結合などの単純な構造パラメーターと組成パラメーターを評価する。
🛎 2D 特性フィルターで、分子量、親油性、トポロジカル極性表面積(tPSA)、分子の柔軟性などの推定化合物特性を評価する。
🛎 医薬化学フィルターにより、望ましくない、または問題のある構造フラグメントを特定する。
2⃣ 追加の条件
以下のような条件が課せられた。
🧪 すべての Chemistry42 フィルターを正常に通過する。
🧪 タンパク質-リガンド相互作用スコアが 、-8 kcal/mol 未満。
🧪 0.7 を超えるファーマコフォア一致スコア。
🧪 合成Accessibility (ReRSA) スコアが 5 未満。
3⃣ 特性評価の結果
1⃣で課したハードルを越えた15の化合物が実際に化学合成され、特性評価された。最終的に、2つの化合物ISM061-018-2(以下、ISM18と呼ぶ) および ISM061-22(以下、ISM22と呼ぶ)が選ばれた。
ISM18は、KRAS12GDへの結合を示した。またWT NRASとHRASに対して結合を示した。
ISM22は、KRAS12GDへの結合は示さないが、G12R (及びQ61H)への結合を示した。また、WT HRAS及びNRASに対して結合を示した。さらに、ISM22は、RASタンパク質とRAFタンパク質の相互作用曲線において50% の最大活性で安定するという独特の阻害プロファイルを示した。これは、ISM22がシグナル伝達経路に与える影響が独特であることを示しており、有望な薬剤となる可能性がある。
【5】考察
(1) QCBMがサンプラーとして優秀であることは、肚落ちする。数学的なアルゴリズムを使って計算機上で発生させる乱数より、物理乱数の方が、よりランダムであることと本質的には符号する(と考えている)。
(2) とは言え、本論文で提示されている量子古典ハイブリッド生成モデルが、古典生成モデルよりも優れているかというと、3戦して1勝2敗であるから、答えはノーであろう。古典モデルであっても深層学習モデルは、優秀なので、量子モデルが凌駕することは難しい。これは、当然、創薬以外の分野でも共通して観察される。
(3) 不毛な台地を回避できる量子アルゴリズムの多くは、古典アルゴリズムで効率的にシミュレート出来るという論文(こちら)は、QCBMも、その範疇に含んでいる。ただし、それはmaximum mean discrepancyに基づくコスト関数を使用している場合であり、本論文のQCBMは該当しないと思われる。と同時にそれは、量子優位性を保証するものでもない。本論文は、(本論文で提示した)ハイブリッド生成モデルが量子優位性を示していないことを認識しているし、量子優位性をウリにしようともしていない(と思われる)。
(4) KRAS阻害剤が上市できれば、ブロックバスターの可能性も夢ではないだろう。30年以上KRASを標的とする薬剤が開発できなかったところ、KRASG12Cを標的としたルマケラスが、2021年5月にFDAで承認された。現状KRAS阻害剤は、ルマケラス1つのみである。
G12Cは非小細胞性肺がんに多い変異であった(G12D、G12Vも含む)。すい臓がんではG12D、G12V、G12R変異が多い。大腸がんでは、G12DおよびG12Vが最も多く、G12Sが含まれることもある[*114]。今回、G12DやG12Rに活性を示す低分子化合物が見つかっているから、ベストシナリオだと、すい臓がんに対する抗がん剤が開発できるかもしれない。これは大きな福音であろう。
量子計算界隈は今、量子計算が、実アプリケーション(ビジネス)において役立つことを、示す必要に迫られている。正確には、当面NISQデバイス⚔1しか存在しないという前提の下、NISQデバイスでも、ビジネスに役立つと示すことが、求められている。これは、暫時ハイプを喧伝した結果故の自業自得でもある⚔2。
IBM(Quantumニューヨーク及び東京)とモデルナ[*120]の研究者は、「mRNA(メッセンジャーRNA)の二次構造予測問題における、変分量子アルゴリズムのスケーリングを検証」した論文[*121](以下、本論文)を公開した(24年5月30日@arXiv)。本論文は、量子アルゴリズムと古典アルゴリズムとを比較し、計算速度が高速か、あるいは計算結果が高精度か、を議論する内容ではない。本論文の問題設定は、次の通りである:
問題のサイズが大きくなるにつれて、古典アルゴリズムでは、手に負えなくなる。その領域(サイズ)で、変分アルゴリズムは問題を解くことができるだろうか。その問いに答えることが、本論文のテーマである。しかも、対象としている問題は、役に立つ実用的な問題(創薬に結びつく生命科学分野の問題)である。
⚔1 Noisy Intermediate-Scale Quantumデバイス。量子誤り訂正が実装されていない量子計算実行装置を指す。ニスクと発音する。名付け親であるMITの理論物理学者John Preskill教授によれば、イントネーションは-皮肉なのか-リスク(risk)と同じである。NISQデバイスの計算結果には、かなりの誤差が含まれていると考えられるので、通常は、量子誤り緩和(策)と呼ばれる、古典コンピュータを用いた統計的処理によって計算誤差を除去する。実行的なノイズ除去には、ハードウェア固有のノイズを考慮する必要がある。
⚔2 そのため、ヘンテコな主張がまかり通っている。曰く「量子コンピューターはこのムーアの法則を笑いものにする力をもっているわけです。2年で2倍どころか。2年で数兆倍になります[*122]」。もし仮に、それが本当なら、確かに凄い。直ぐに、光の速度を越えそうだ。
【1】本論文の主張
本論文は、以下を主張する:
(1) 量子誤り緩和策を使用しなくても、アルゴリズムとオプティマイザを工夫すれば、「NISQデバイスで実行される変分量子アルゴリズムは、mRNAの二次構造予測において、最良の古典ソルバーと遜色がない」。使用した量子アルゴリズムはVQEで、より正確にはCVaR-VQE(☞【2】(1))である。
(2) 問題のサイズ(mRNAの配列長)が増加した場合に、(1)設定において、量子加速性を期待はできるが、明言はできなかった(☞【4】(4))。
❚為念・注釈❚
あくまで、(2)がメインである。(1)は古典>量子を主張しているようで驚くかもしれない。しかし、系のサイズが小さい問題で古典計算を凌駕しなくても、量子計算にとってはダメージはない。量子計算の主戦場は、系のサイズが大きい問題である。
【2】事前整理
(0) mRNAの二次構造予測問題
mRNA(RNA)の二次構造予測問題は、塩基配列の最も安定した折り畳みを見つける問題である。二次構造の二次は、部分という意味合いである。最も安定した折り畳みを予測するには、「生理学的条件下で、RNAが最も採用する可能性の高いコンフォメーションである、折り畳まれていない状態」と比較して、最も低い自由エネルギー(MFE)を持つ構造を、計算モデルで決定する必要がある。
0⃣ mRNAと医薬品
リボソームに、タンパク質の設計図を運ぶ。これが、メッセンジャーRNA(リボ核酸)の役目である。リボソームは、タンパク質(アミノ酸)を翻訳・合成する細胞内の小器官である。設計図は、DNA(デオキシリボ核酸)から、mRNAに転写(コピー)される。
ここで、重要なことは、タンパク質を直接作らせるのは、mRNAであってDNAではない、ということである。言い換えると、mRNAを”人工的に”合成し、リボソームに届けることができれば、”人工的に”タンパク質を、細胞内(体内)で合成できる、ことになる⚔3。改めて、薬学的に表現すると、医薬品となり得るタンパク質を、体内で生産できる、ことになる。このシナリオを、新型コロナウィルスのワクチンという形で実証したのが、モデルナであった⚔4。ただし、モデルナの新型コロナウィルス・ワクチンで、mRNAが合成させるタンパク質は、医薬品ではなく、抗原である。ワクチンは、獲得免疫の性質を利用するので、これは当然である。
⚔3 人工的なmRNAは、生体内で分解されやすい、炎症反応を惹起する、という2つの問題があった。後者は、mRNAの塩基(ウラシルー正確には、ウリジン)を化学的に修飾することで、解決された。そして、解決した人物が、2023年のノーベル生理学・医学賞を受賞した、米ペンシルベニア大学のカタリン・カリコ博士と、ドリュー・ワイスマン博士である。
⚔4 [*123]によれば、mRNAを使ってヒトにクスリを作らせるというアイデアは、米ハーバード大学メディカル・スクールのデリック・ロッシから、フラッグシップ・バイオニアリングというベンチャー・キャピタルに持ち込まれたものらしい。モデルナは、フラッグシップが設立し、CEOのステファン・バンセルも、フラッグシップが見つけたらしい。
1⃣ 二次構造及び擬似ノット
生命科学分野において、二次構造という言葉は、タンパク質やDNA、RNA等に対して適用される。1本鎖であるRNAの文脈では、部分的に形成される2本鎖を二次構造と呼ぶ。RNAを構成する4種類の塩基(アデニンA,シトシンC,グアニンG,ウラシルU)は、水素結合により塩基対を形成する。この、水素結合により形成された塩基対構造が、二次構造である。mRNA(を含むRNA)の機能性は、二次構造に本質的に関連している。
RNAの二次構造には、「ヘアピンループ、内部ループ、多分岐ループ、バルジ、ヘリックス、および擬似ノット」と呼ばれる構造が存在する。擬似ノット⚔5を持つRNA二次構造予測の問題はNP完全であるが、幸い、擬似ノットが現れる回数は、他の塩基対に比べ非常に少ない。そのため、通常は、擬似ノットを無視して、RNA二次構造予測が行われる。擬似ノットを無視しても、実験室で観察される二次構造の予測において 65~73% の精度が達成されている。
本論文では、すべてのケースにおいて、擬似ノットは無視されている(と思われる)。
⚔5 RNA二次構造における塩基対は、一般的に、「入れ子」構造として現れる。「入れ子」でない塩基対が、擬似ノットである。
2⃣ NussinovアルゴリズムとZukerスキーム
RNAの二次構造を予測する有名な古典アルゴリズムには、 NussinovアルゴリズムとZukerスキームがある。これらの方法を、概略的に述べると、次のようになる:すべての可能な塩基対を体系的に評価→熱力学モデルを適用して、安定性を推定→最小自由エネルギー(MFE)構造を計算。
ただし、本論文では、上記アルゴリズムを使用するわけではない。RNA二次構造予測問題を、二次制約無し二値最適化問題に置換し、古典ソルバー(CPLEX⚔6)と量子アルゴリズムとで比較する。このため、上記アルゴリズムに関しては、軽く触れるのみに留める。
Nussinov アルゴリズムは、1 本の RNA 配列に対して、塩基対数が最大となる二次構造を求めるアルゴリズムである。Nussinov アルゴリズムは、動的計画法に基づいており、行列の値を再帰的に求める。Zukerスキームは、Nussinovアルゴリズムよりも、複雑にエネルギーを計算する。二次構造のエネルギーは、ループの自由エネルギーの和として近似される。
⚔6 IBM® ILOG CPLEX Optimization Studioは、数理計画と制約プログラミングを利用した意思決定最適化モデルの迅速な開発と実装を可能にする、処方的分析ソリューション。出所)https://www.ibm.com/jp-ja/products/ilog-cplex-optimization-studio
まずザックリ言うと、CVaR-VQEは、「(離散)最適化問題の収束を高速化する」アルゴリズムとされている。
本論文の量子アルゴリズムは、VQE(Variational Quantum Eigensolver:変分量子固有値ソルバー法)である。正確には、改良型のVQE、つまりCVaR-VQEが採用されている。CVaRとは、金融リスク管理において名が知られているConditional VaR(Value at Risk)-条件付きバリューアットリスクである。金融分野では、期待ショートフォール(Expected shortfall:ES)とも呼ばれる。IBM及び仏高等師範学校が開発した手法で、[*124]において紹介されている。
VQE(やQAOA)は、 (しばしばアンザッツと呼ばれる)パラメータ付き量子回路U(θ)を用いて、試行波動関数|ψ(θ)⟩を生成(U(θ)|0⟩=|ψ(θ)⟩)し、期待値⟨ψ(θ)|H|ψ(θ)⟩を最小化することで、最適化問題を解くという枠組みである。CVaR-VQEでは、期待値を最小化するのではなく、CVaRを最小化する。
1⃣ 定量的な説明
以下、やや詳しく、VQEとCVaR-VQEの違いについて述べる。VQEは、試行波動関数|ψ(θ)⟩ の測定後に、サンプリングされたビット列の確率分布とそれに対応するエネルギー(ハミルトニアン)を使用して、適切なコスト関数=期待値⟨ψ(θ)|H|ψ(θ)⟩を計算する。そして、古典的な最適化スキームによって、コスト関数を最小化するパラメーターθを特定することで、最適化問題を解く。
一方、CVaR-VQEでは、CVaR ベースのコスト関数を使用する。CVaR ベースのコスト関数は、サンプリングされたビット列確率分布の下側 α テールの平均として定義される。具体的には、サンプリングされ昇順に並べられたビット列に対応するエネルギーの集合を{Ei}(i=1~K)として、CVaR(α)は
CVaR(α)=1/⌈αK⌉∑Ei
で表される。⌈αK⌉は、αKを越えない最大整数を意味する。以降、CVaR-VQEをCVaR(α)-VQEと表記する。期待値⟨ψ(θ)|H|ψ(θ)⟩は、CVaR(α)のα=1に相当するから、CVaR(α)-VQEはVQEの一般化と捉えることができる。
2⃣ CVaR(α)-VQEの特徴及び利点
[*124]では、 CVaR(α)-VQEが、組み合わせ最適化問題に対する、ヒューリスティック解法の実用的な目標により近いことを主張している。具体的に、組み合わせ最適化問題の文脈でVQE(及びQAOA)の性能と堅牢性を大幅に改善することを、解析的、数値的に示したとしている。ただし、最新の古典的ヒューリスティクスと、”同等の性能が得られる”とは主張していない。
別の文献[*125]では、「CVaR(α)-VQEは、量子ハードウェア・ノイズに対して堅牢」とされている。さらに、α を (0, 1] の範囲で使用すると、古典的オプティマイザの収束挙動が改善される、と期待される。
(2) 中西-藤井-藤堂(NFT)アルゴリズム[*126]
0⃣ 概要
本論文では、ハードウェア・ノイズの下で、比較的優れていることが判明したNFT アルゴリズムを古典的オプティマイザとして使用している。NFTアルゴリズムは、「パラメータ付き量子回路(アンザッツ)用に特別に設計された、より優れた最適化アルゴリズムが存在するかどうかは、まだ十分に調査されていない」という問題意識の下、開発された(と思われる)。そして、その問題意識は、「サポートベクターマシンにおける最適化手順では、二次計画問題の特徴的な構造を利用して、各ステップで2つのパラメータに関してコスト関数を正確に最小化する逐次最小最適化が広く使用されている」という事実にインスパイアされている(と思われる)。
まとめ的に言うと、NFTアルゴリズムは、「アンザッツに基づく量子古典ハイブリッドアルゴリズムに特化した最適化手法」であり、「コスト関数は、アンザッツの特徴的な構造を使用して、各ステップで特定の選択されたパラメータに関して正確に最小化される」。
1⃣ NFTアルゴリズムの特徴及び利点
標語的に頭出しを行えば、「ハイパーパラメータフリー、高速な収束、パラメータの初期選択への依存度が低い、統計誤差に対して堅牢」となる。
やや補足すると、以下のようになる。期待値を推定するためのサンプル数が有限であるために、統計誤差が存在する場合、NFTアルゴリズムは、既存のオプティマイザよりも速く収束する。NFTアルゴリズムは、初期パラメータの選択とは、ほとんど関係なく収束するが、他の方法は、特定の初期パラメータでは失敗する。まとめると、実用的な状況で、NFTアルゴリズムは、ほぼすべての量子古典ハイブリッドアルゴリズムを、大幅に容易に加速する。
2⃣ NFTアルゴリズムのカラクリ
NFTアルゴリズムは、以下の特性を利用する:アンザッツが A2 = I に従うユニタリ・ゲート exp(iθA)で構成されている場合、コスト関数は、3つのパラメータ θiを持つ周期 2π の正弦関数として表現できる。この特性のおかげで、3 つの異なるθiで、コスト関数を評価することによって、コスト関数の正確な最小値を与えるθiを決定できる。最適なθiは、正弦関数を最小化する角度に対応する。
収束を保証するにはコスト関数の不偏推定値が必要であるが、数値シミュレーションの結果、有限サンプリングでも NFTアルゴリズムが堅牢であることが示された(らしい)。
3⃣ NFTアルゴリズムが成立する前提条件
前提条件は、以下の3つである。アンザッツを備えた量子古典ハイブリッドアルゴリズムのほとんどは、この前提条件を満たしている(らしい)。ちなみに、本論文では、㈡の固定ユニタリ・ゲートはCZゲート(ECRゲート⚔7)で、回転ゲートのユニタリ演算子Aは、パウリYである。
㈠ アンザッツのパラメータは、互いに独立している。
㈡ アンザッツは、固定ユニタリ・ゲートと回転ゲートのみで構成される。回転ゲートは、 A2 = I に従うユニタリ・ゲート exp(iθA)である。Iは恒等演算子である。
㈢ コスト関数は、K個の期待値の、重み付き合計で表される。
⚔7 Echoed Cross Resonanceゲート。IBM用語であり、IBMのNISQデバイスで使用可能な2量子ビットゲート。
(3) 行列フリー測定緩和
行列フリー測定緩和 (M3)は、サイズ 2n の完全な割り当て行列に基づいて作業する代わりに、ノイズの多いビット文字列によって形成される、遥かに小さな部分空間を使用する。そうすることで、通常は大規模なシステムを効率的に処理できるようにする。
【3】本論文におけるセットアップ
(1) アルゴリズム
最適化問題を解く量子アルゴリズムは、CVaR(α)-VQEである。オプティマイザは、NFTアルゴリズムである。「量子誤り緩和(QEM)のオーバーヘッドを最小限に抑えたい」という理由で、代表的なQEMであるZNE(Zero-Noise Extrapolation:ゼロノイズ外挿)⚔8やPEC(Probabilistic Error Cancellation:確率的誤りキャンセル)⚔9は使っていない。代わりに、動的デカップリング⚔10を使用する。また、読み出し誤りの緩和には、行列フリー測定緩和を採用している。
⚔8 ZNEでは、異なるノイズレベルで実行されるように量子プログラムを変更し、計算結果をノイズのないレベルで推定した値に外挿する。具体的には、量子システムのノイズレベルを無次元のスケールファクターλでパラメータ化する。λ = 0の場合、ノイズは除去され、λ = 1の場合、物理的ハードウェアの真のノイズレベルと一致する。[*127]が詳しい。非マルコフ的ノイズには、有効に対応できないと評価されている。
⚔9 PECでは、ノイズのない期待値は、ノイズのある量子回路からの期待値の線形結合として書くことができることに注目する。ノイズのある量子回路から、ノイズがない(理想的な)量子回路を推定するには、(物理ハードウェアに実装可能な)ノイズの多い「基底演算」の集合を選択する必要がある。PECでは、当該基底演算は、ある種のトモグラフィーを通じて、実験においてノイズの多いハードウェアから学習されると仮定する。例えば、[*128]を参照。
⚔10 回路のアイドル時にパルスを追加し、オーバーヘッドを追加することなく量子誤りを抑制するのに役立つ。
(2) アルゴリズムの実行
0⃣ 概要
mRNA二次構造予測問題は、二次制約付き二値最適化問題(QUBO)として定式化できる。QUBOと言えば、量子アニーラ(量子アニーリング・マシン)であるが、本論文では、IBMのNISQデバイスを使う。もちろん、変分量子アルゴリズムのスケーリングを議論するためである。ハードウェアとして、量子シミュレータとNISQデバイス実機を使用する。
1⃣ 量子シミュレータ
量子シミュレータは、Qiskit⚔11の行列積状態シミュレータ(つまり、テンソルネットワーク・シミュレータ)であり、CVaR(α)-VQEの”ノイズフリー”シミュレーションを実行した。量子ビット数は{10,15,20,25,30,35,40}が選択された。αは0.1に設定された。アンザッツの層数は、2である。アンザッツの層数とは、「一組の量子回路としてのアンザッツ」の個数を指す。
ショット数 Nshotsは、量子ビット数=10で、25、量子ビット数=15で 210、その他で 213とした。NFTアルゴリズムは、各反復で、neval= 3 セットの回路パラメーターを評価する。nevalは、新しい回路パラメータ セットを提案するために、各反復で評価される、回路パラメータの異なるセット数を表す。各反復は、neval × Nshotsの回路呼び出しで構成される。最適化スキームは、CVaR 値の十分な収束が観察されるまで、反復回数Niter=100 ~ 200で実行される。
NFT などの従来の最適化プログラムは、局所的最小値で行き詰まる傾向があるため、各問題インスタンスに対して Ntrial= 10 回の独立した CVaR(α)-VQE 試行を実行する。各試行は、一様分布からランダムに初期化された一連の回路パラメータから開始される。
⚔11 IBMの量子計算フレームワーク。
2⃣ 実機
実機では、配列長25、30及び42のmRNA二次構造予測問題を解く。配列長25に対しては、量子ビット数を26とした。配列長30は、量子ビット数を40及び50とした。配列長42は、量子ビット数を80とした。
NISQデバイス実機には、IBMブリスベーン、IBM大阪、IBMトリノの3機種が選択された。ブリスベーンと大阪は、127量子ビット・プロセッサーEagleが搭載されている。トリノは、133量子ビット・プロセッサーHeronとチューナブル・カプラーを搭載している。HeronはEagleに比べて、3~5倍の性能向上を実現しているらしい。量子回路は、1量子ビットゲートがYゲートで、2量子ビットゲートがECRゲート(ブリスベーン、大阪)あるいはCZゲート(トリノ)である。
量子ビット数26,40,50のケースには、ブリスベーン及び大阪が割り当てられた。α=0.25、アンザッツの層数は、1である。試行回数は、量子ビット数に対して、それぞれ、8回、8回、5回である。量子ビット数80のケースには、トリノが割り当てられた。α = 0.1、アンザッツの層数は2である。ショット数は、26 量子ビットの場合は 28、それ以外は 213に設定した。
①回路深さ、②NFTアルゴリズムを実行する最大回数、③2量子ビットゲート数とすると、量子ビット数26→①18,②104,③25|40→ ①20,②320,③39|50→ ①20,②600,③49|80→ ①17,②なし,③158である。
【4】変分量子アルゴリズムのスケーリング検証
(1) 指標
指標は、成功確率と最適性ギャップ(L1相対誤差)である。グランドトルゥースは、CPLEXの解である。CPLEXの解と、同一の最低エネルギーのビット文字列が見つかった場合に、量子アルゴリズムの出力は、成功と見なされる。成功確率 psuccは Nsucc/Ntrialとして定義される。ここで、Nsuccは成功した試行の数である。
(2) 検証のための予備的な結果~量子シミュレータ
量子ビット数に応じて、平均成功確率は、ザックリ言って40%~の範囲である。平均は、試行回数(10回)にわたる単純平均である。量子ビット数は{10,15,20,25,30,35,40}で、25量子ビットまでは平均成功確率が90%を越えている。30量子ビットで70%程度に急落し、35では40%~50%の間である。40量子ビットでは、やや上がって60%程度である。
平均最適性ギャップ(=L1相対誤差)も量子ビット数に応じて、0~20%である。25量子ビットまでは、ほぼ0である。30量子ビットで10%近くに増加し、35では20%程度に達する。40量子ビットでは、やや下がって15%程度である。
どちらの指標も、量子ビット数の増加とともに、明らかにかつ急激に、悪化している。アンザッツの層数を増やしたり、α の選択を最適化したり、CVaR(α)-VQEアルゴリズムの進歩を組み込んだりすることで、結果は改善されると期待しているらしい。
(3) 検証のための予備的な結果~NISQデバイス実機
平均成功確率は、26量子ビットで50%程度。40量子ビットで40%を下回り、50量子ビットで40%といったところ。当然、ノイズありなので、シミュレータの結果よりも悪い。80量子ビットの結果は、示されていない。
平均最適性ギャップ(=L1相対誤差)は、26量子ビットで20%を下回るものの、40量子ビットで20%を上回り、50量子ビットで30%~40%の間といったところ。こちらも当然、ノイズありなので、シミュレータの結果よりも悪い。80量子ビットの結果は、示されていない。
(4) 検証結果
CPLEX が問題を解決するのにかかる時間は、配列の長さとともに指数関数的に増加することを示している。一方で、変分量子アルゴリズムの結果は、指数的かどうかの確認は困難であるものの、配列長とともに増加していると考えられる。従って、変分量子アルゴリズムが、何らかの加速性を示す可能性はあるが、明確には分からないという結論である。
変分量子アルゴリズムに対して、量子リソースのスケーリングを議論することは難しい。推定が困難な要素は、実行される回路の合計数ℕであり、ℕは、さらに4つの部分要素{1/Psucc、Niter、Nshots、neval}に分解できる。量子ビット数の増加に対して、各部分要素が指数関数的に増加しなければ、何らかの加速性の発現が期待できる。シミュレータの結果は、成功確率Psuccが指数関数的に悪化(低下)する傾向を見せた。実機の結果は、指数関数的とは言えないように見えるが、判断材料が足りないため、断定できない。結局、よくわからないという結論である。
【5】考察
(1) mRNAの二次構造予測という「マネー臭が強いテーマ」を選んでいる。その上で、NISQデバイス上の変分量子アルゴリズムが古典アルゴリズムに対して、何らかの加速性が現れることを期待したが、明確な結論は得られなかった。
量子シミュレータによるシミュレーションは、ノイズなしで行われている。ノイズありシミュレーションを行えば、判断材料が増えると思われる。なぜ、行われなかったのだろう。
(2) 商業化に近い生命科学分野における量子アルゴリズムに関して、IBMはクリーブランド・クリニック🛡(ラーナー研究所)と論文[*129]を発表している(24年5月4日)。こちらのテーマは、タンパク質構造予測問題である。グーグル・ディープマインドのAlphaFoldシリーズを始めとする深層学習ベースのモデルに対して、量子アルゴリズムが優位性を発揮できるか、を扱っている。
AlphaFoldなどが素晴らしい成果を示していることを認めつつ、深層学習ベースのモデルでは、カバーできない領域があると[*129]は、主張する。具体的には、㊀突然変異が発生したタンパク質、㊁タンパク質の本質的に無秩序な領域、㊂深さが30未満の浅い多重配列アラインメント、に対して深層学習ベースのモデルは予測精度が低いと指摘している⚔12。特に、㊁は、 GPCR(Gタンパク質共役受容体)を始めとする膜貫通タンパク質が該当するため、創薬において、影響が大きいとする(エビデンスとして、FDA 承認薬の約 35% が GPCR を標的としていることを上げている)。
⚔12 ただし、突然変異に関しては、AlphaMissenseで対処できる可能性がある、と書いている。AlphaMissenseは、グーグル・ディープマインドが 2023 年 9 月に発表した、単一アミノ酸置換の病原性予測ツールである。ヒト体内に存在するタンパク質の単一アミノ酸置換のうち、理論上考えられる全て、に対応するミスセンス・バリアント約 7,100 万件の病原性を予測した。
🛡 クリーブランド・クリニック、IBM、英ハートリー・センターは、人工知能(AI)や量子コンピューティングを含む、高度コンピューティング技術を通じて、医療と生物医学を進歩させることを目的とした革新的な共同研究を発表した(24年6月6日)[*130]。具体的には、AIを使うプロジェクトと量子コンピュータを使うプロジェクト、それぞれ1つが立ち上げられた。後者は、量子コンピューティングを応用して大規模データセットを解析し、てんかん患者の手術効果を予測しやすい体内の分子的特徴を特定するプロジェクトである。目的は、治療計画を個別化し、患者の転帰を改善するために使用できる新しいバイオマーカーを発見することである。
(3) [*129]では、ジカウイルス・NS3ヘリカーゼ・Pループに対象としてタンパク質構造予測問題を、深層学習ベースモデル(PEP-FOLD3⚔13とAlphaFold2)、量子アルゴリズム⚔14、古典アルゴリズムで解いた⚔15。結果は、PEP-FOLD3が最良で、 量子アルゴリズムが続いた。指標は、二乗平均平方根偏差(RMSD)で、PEP-FOLD3は1.64Å、 量子アルゴリズムは1.78Åであった。 古典アルゴリズム1.88 ÅでAlphaFold2は 3.53 Åであった。
ここでも、やや、残念な結果に終わっている。
⚔13 ペプチドの構造予測ツール。PEP-FOLD3は、5〜50 個のアミノ酸からなるペプチドをモデル化するように設計されている。
⚔14 実機IBMクリーブランドを使用して、CvaR-VQEを実行した。
⚔15 QUBO問題に変換してGurobiオプティマイザーで解いた。Gurobi Optimizerは、有名な線形計画/整数計画ソルバーである。
(4) ちなみに[*129]では、「10,000量子ビットと、十分な回路忠実度があれば、生物医学的に関連するタンパク質と変異体の予測が達成可能になる可能性がある。例えばヘモグロビンの141残基⚔16は、4,967個のエンタングルド量子ビットを使用して、予測できる可能性がある」との期待が述べられている。
⚔16 最も生物学的に関連するタンパク質のいくつかは、このサイズとスケールに存在する、らしい。
変分量子アルゴリズム(VQA)において現れる「不毛な台地」を回避できる問題のほとんどは、古典的にシミュレート可能であるという予想(こちらを参照)は、コンセンサスを得ていると思われる。言葉を替えると、NISQで実行できる量子機械学習アルゴリズムに量子優位性は、ほぼないと予想されている。そこで、VQA以外に量子優位性があるアルゴリズムを探す旅が始まっている。その候補が、量子リザバー・コンピューティングである。
米QuEra、米ハーバード大学及び米コロラド大学ボルダー校の研究者は、量子リザバー・コンピューティングを中性原子方式量子コンピューター上で実行し、量子優位性を検討した論文[*131](以下、本論文)を発表した(24年7月2日@arXiv)。なお、検討した優位性は、速度ではなく、精度(accuracy→正解率)である。
【1】本論文の主張
本論文は、以下を主張する:
(1) 時系列予測及び画像分類タスクにおいて、量子リザバー・コンピューティングは、4層フィードフォワード・ニューラルネットワークに肉薄する性能を示した。
(2) 画像分類タスクに対する正解率(accuracy)において、量子リザバー・コンピューティングは古典リザバー・コンピューティングと、同等もしくは上回る。
(3) 「量子リザバー・コンピューティングが古典リザバー・コンピューティングよりも優れた性能を示すデータセットが存在する」ことが示唆された。一方で、「古典リザバー・コンピューティングが量子リザバー・コンピューティングよりも優れた性能を示すデータセットが存在する」ことも示唆された。
【2】事前整理
(1) リザバー・コンピューティング
0⃣ リカレント(再帰型)・ニューラルネットワーク
リザバー・コンピューティング(以下、RCと表記する)を議論する場合、リカレント(再帰型)・ニューラルネットワーク(RNN)を出発点にすることが適当であろう。RCは、しばしばRNNの一種として紹介される。RNNは元々、音声や言語のような可変長の時系列データを扱えるように、改良されたニューラルネットワークである。可変長の時系列データを扱えるようにするため、隠れ層の入力を再び隠れ層に(再帰的に)入力する。
1⃣ RCの概要
RCは、ネットワークの結合重みは学習(※1)せず、出力重みだけを学習する。学習(※1)は、反復計算及び更新(一般には、誤差伝搬法による勾配計算)を意味している。つまり、結合重みを決定するために、勾配計算は行わない。オリジナルのRCでは、結合重みは乱数を使って、予め決定し固定する。これを幾何学的に解釈すると、オリジナルのRCはランダムに生成した高次元特徴量空間に、学習データ(の出力データ)を射影していると解釈する事ができる[*132]。こうすることで、RCでは、低い計算コストでの、結合重みの決定が可能となる。
RNNの一種という出自からRCは、主に時系列予測(及びカオス・システムの予測)に使用されるが、パターン認識や生成などの一般的なタスクにも対処できる。
2⃣ RCとカーネル法[*133],[*134]
結合重みの決定に勾配計算を用いないことを目的とするならば、ランダムに射影する以外の方法でも事足りるはずである。完全に天下り的であるが、「ランダムに生成した高次元特徴量空間への学習データの射影」は、「高次元特徴量空間への学習データの非線形変換」に一般化できると認めよう。
機械学習の文脈で、「高次元特徴量空間への学習データの非線形変換」を考えると、真っ先に思い浮かぶのは、「カーネルトリックを用いて、非線形の識別関数を構成できるように拡張した」サポートベクターマシン(以下、カーネル法)であろう。ニューラルネットワークとして表現したカーネル法では、中間層🐾1から出力層への「結合重みのみが、学習により決定」される。入力層から中間層への結合重みは固定で、学習データから機械的に求められる。
高次元特徴量空間への学習データの非線形変換を採用したRCとしては、エコーステート・ネットワークが知られている。
🐾1 中間層(隠れ層)における処理が、非線形変換に相当する。
3⃣ 為参考:物理リザバー・コンピューティング
RCにおける中間層の役割である、高次元特徴量空間への非線形変換は、機械学習モデルすら必要としない。一般の高次元の非線形力学系で実現可能である。例えば、人工筋肉🐾2、スピン波🐾3、有機分子🐾4。物理リザバー・コンピューティングは、日本が強い分野と思われる。
🐾2 京大・東大・ブリヂストン→https://www.kyoto-u.ac.jp/ja/research-news/2024-04-25-1
🐾3 東北大・産総研→https://www.tohoku.ac.jp/japanese/2024/03/press20240304-02-spin.html及び、早大(スキルミオンスピン波)→https://www.waseda.jp/inst/research/news/75747
🐾4 物質・材料研究機構・東京理科大学。https://www.nims.go.jp/press/2024/02/202402290.html
(2) 量子リザバーコンピューティング(QRC)
1⃣⃣ QRCのモチベーション
NISQ(ざっくり説明すると、ノイズの多い量子ハードウェア)用に設計された主な量子機械学習(QML)アルゴリズムは、パラメーター化された回路を活用する変分アルゴリズムである。残念ながら変分アルゴリズムには、いくつかの欠点がある。最も有名な欠点は、不毛な台地であろう。この不毛な台地は勾配が消失するという問題である🐾5が、そもそも、勾配を推定する必要性自体、問題である。つまり、量子ハードウェアの限られているリソースに負担をかけ、規模とパフォーマンスの両方で制限されたデモンストレーションにつながることが多い。
このような問題意識の下、勾配計算を行わないQMLモデルが期待された。そのようなモデルが、QRCである。
🐾5 不毛な台地は勾配を使わない最適器にも影響を及ぼすらしい。出典:https://quantum-icepp.jp/research/barren/
2⃣⃣ QRCのアーキテクチャ
本論文で扱われるRCは、オリジナルRCとは異なり、高次元特徴量空間への非線形変換を使って結合重みを決定するRCである。こうして、(1)2⃣で、RCとカーネル法とが関連付けられた。都合の良いことに、カーネル法は量子版への拡張が自然に行える。つまり、QRCは、カーネル法を(量子カーネルに基づく)量子カーネル法に拡張することで、導入することができる。
為念:高次元の非線形力学系として量子系を用いれば、量子・物理リザバーコンピューティングを導入することが出来る。
【3】本論文における枠組み
(1) 実行環境
米QuEra社製の実機=中性原子方式アナログ量子コンピューターAquila上で、QRCアルゴリズムが実行された。また、ノイズがない数値シミュレーションも行われた。
(2) アルゴリズム・パイプライン
QRC アルゴリズム パイプラインには、㊀前処理、㊁量子リザバー、㊂後処理と予測の 3 つのステップがある。前処理ステップ及び、後処理と予測ステップは古典的に行われる。
㊀ 前処理ステップ
データの特徴量が、中性原子(アナログ)量子コンピュータに簡単に符号化できる形式に変換される。高次元データの場合はオプションで次元削減が必要になったり、特徴量エンジニアリング等が必要になる場合がある。
㊁ 量子リザバー
リザバーとして機能する量子システムが、さまざまな期間にわたって時間発展し、繰り返し射影測定によって調査される。
㊂ 後処理及び予測ステップ
測定出力が古典的な方法で処理され、QRC 埋め込みのセットを形成する局所観測量の期待値が取得される。その後、埋め込みは、シンプルで高速な古典学習ステップへの入力として使用される。このステップでは通常、線形サポートベクターマシン(SVM)が使用される。学習済モデルは、QRC パイプラインを介して追加データを処理し、取得された埋め込みに基づいて古典的出力を評価することでテストされ、推論に使用される。
【4】結果
(0) 比較対象モデル
線形サポートベクターマシン(SVM)、4層フィードフォワード・ニューラルネットワーク(4-FFNNと表記する)、および古典的スピンリザバー(RC)である。4-FFNNは、約 20,000 個の隠しパラメーターを持つ。RC は、スピンを古典的なベクトルとして扱い、実質的に無限スピンの限界をとることで QRC から導出される。古典的なスピンは、ラビ周波数、離調、および相互作用によって決定される瞬間的な磁場内で歳差運動する。
(1) 時系列予測
1⃣ データセットとタスク
カオス状態におけるレーザーの強度プロファイルを表す「Santa Fe 時系列タスク」を実行した。比較指標は、正規化平均二乗誤差(normalized mean-square error:NMSE)である。
2⃣ 比較結果
なお、なぜか、時系列予測ではRCは比較対象から外れている。最も性能が高い(NMSEが小さい)のは、4-FFNNであり、NMSE=0.0032であった。最も性能が低いのはSVMで0.21。QRCは、符号化によってNMSEの値が異なるが、(位置符号化が該当する)最も良い値は0.0038で4-FFNNに肉薄する。
(2) 画像分類タスク
1⃣ データセットとタスク
MNIST手書き数字データセットの二値分類、及びトマトの葉の病気データセットの三値分類タスクを実行した。比較指標は、正解率(accuracy)である。
2⃣ MNIST手書き数字データセットの二値分類タスクの比較結果
手書き数字の3と8を分類する。SVMの正解率は0.930程度。4-FFNNは0.960程度。RCも0.960程度。正確にシミュレートした🐾6QRCも0.960程度。測定ショット数が220だと正解率は、0.935程度である。ザックリ言って、RC≒QRCであり、古典≒量子という結果である。なお、実機を使った結果(測定ショット数は220)は、正確にシミュレートした結果とほぼ変わらない(やや下回る)。
🐾6 正確にシミュレートしていないQRCは、有限個のサンプリングを行ってシミュレートしたQRCである。
❚参考❚ MNIST手書き数字データセットの「多値分類」タスクにおける測定ショット数の影響
ここで言う多値分類タスクは、0~9までの手書き数字を10クラスに分類するタスクである。QRC (シミュレートしたQRC)のパフォーマンスは、測定ショット数~1,000で頭打ちになった。その場合の正解率は0.8程度である。当然、多値分類の正解率は二値分類に比べると低い。
3⃣ トマトの葉の病気データセットの三値分類タスクの比較結果
局所的な病気の特徴と、非局所的な病気の特徴が混在する葉の画像から成る、トマトの病気分類のデータセットを使う。サイズ(※1)を増加させた場合で概観すると、4-FFNNの性能が最も高く、測定ショット数20のQRCの性能が最も低い。正確にシミュレートしたQRCは4-FFNNをやや(※2)下回る性能である。さらにRCは、正確にシミュレートしたQRCをやや下回る性能である。ここで、サイズ(※1)とは、QRCの場合は量子ビット数であり、範囲は6~16量子ビットである。他モデルの場合は、同等の特徴量次元の次元数を意味する。やや(※2)とは、正解率の差で、最大0.03~0.04程度を意味している。
(数値シミュレートした)QRCとRCの正解率の差を、測定ショット数Nsの関数として表現すると、Ns<50では、QRC<RCである。50以降Nsが増加するにつれ、QRCとRCの正解率の差も増加し、Ns≃6,000程度で安定する。その時、正解率の差は概ね0.08程度である。
(3) カーネル・ジオメトリー
高次元特徴量空間への非線形変換を担う写像が、量子カ-ネル法と古典カーネル法で「大きく異なる」場合、学習データのラベルが同じで良いのか、という問題があるらしい。「大きく異なる」の正確な意味は分からないが、量子カ-ネル法の非線形写像を古典的に精度良くシミュレートできないと理解した。本論文では、データに新しいラベルを割り当てて構築した”合成データセット”を使って、RC及びQRCを再学習し、改めて比較を行っている。
その結果、MNIST手書き数字データセットの二値分類タスクの比較では、RCの正解率≃0.77程度、QRCの正解率≃0.82程度となり、相対正解率差異=(QRCの正解率ーRCの正解率)/RCの正解率≃7.1%となった。ただし、これは、量子が古典に勝ったという意味では必ずしもない。正確には、本論文でも記述されている通り、「QRCがRCよりも優れた性能を示すデータセットが存在する」ことを示しているに過ぎない。実際、「RCがQRCよりも優れた性能を示すデータセットも存在する」。つまり、量子アルゴリズムの性能が古典アルゴリズムを上回るケースは、あくまでケースバイケースであることを述べているに過ぎない。
【5】考察
(0) ランダムに生成した高次元特徴量空間に学習データを射影するRCでは、高次元特徴量空間の地形が余程単純でなければ、高い精度を期待するのは難しいだろう。実際、RCと言えば、「高次元特徴量空間へ学習データを非線形変換する」エコーステート・ネットワーク(ESN)が、標準選択肢になっていると思われる。物理系のデータに比べて、株式取引データは、高次元特徴量空間の地形が複雑だと思われる。そのようなデータを使う株価予測においても、ESNは良い結果を出しているらしい。
また構成上、ESNを量子版に拡張することは、難しくないだろう。もっとも、進化の方向としては、深層ESNが選択されている。
(1) ザックリ言うと、VQAと同様、QRCでも(RCを比較対象として)量子優位性が生じるケースは、限定的である可能性は高い。なお、正解率は、例えば5~7%という水準で上がる可能性はあるだろう。相対的差異を計算すると、トマトの病気3値分類では、QRCの正解率が5%程度上がった。カーネル・ジオメトリーを鑑みた場合でも7%程度であった。
(2) 時系列予測では、深層ニューラルネットワークと比肩する性能が示された。消費電力は相当セーブされるであろうから、意義はあるだろう。また、エッジAIとしての実装という意味でも、意義はあるのだろう。
なお、この結果は符号化の種類に依存する。中性原子方式量子コンピューターを使用している本論文では、当然ながら、中性原子を量子ビットに使った場合の符号化を採用している。つまり、モダリティによって、性能が変わる可能性が示唆される。
(3) ちなみに、境界層の剥離検出を量子SVMと古典SVMで比較したこちらでは、相対的差異で計算した量子SVMの正解率が11.1%も向上した。アルツハイマー病の初期段階識別を、量子SVMと古典SVMで比較したこちらでは、15.1%も向上した。これらの値は、明らかに過大な気がする。
デジタル化CounterDiabatic(DCD)アルゴリズム🐾1で優れた結果を出した論文[*1]の著者の一人である独KIPU Quantum並びに、独化学大手BASF他[*135]の研究者は、浅い量子回路でスケールする新しいDCDアルゴリズムに関する論文論文[*136](以下、本論文)を発表した(24年5月24日@arXiv)。深さが浅い量子回路の実現は、NISQマシンにおいては、特に重要であるとの認識がなされている。量子回路の深さが浅いとは、正確には、「並列化可能な量子ビットゲートを層とみなした場合、層の数が少ない」ことを意味する。スケールする/しないの意味は、【1】※2を参照。
しかも、この新しいDCDアルゴリズムを「2つの実用的な産業課題にかかる最適化問題」に適用して、既存アルゴリズムより高い性能が得られたと主張した。当該アルゴリズムは、ノイズなし/ありシミュレータ及びNISQマシン実機で実行された。なお、実機は、超伝導方式(IBM)とイオントラップ方式(IonQ)のハードウェアである。なお、アルゴリズムとプロトコルは、言葉として区別していない。
🐾1 DCDアルゴリズムについては、こちらを参照。
【1】本論文の主張
本論文は、実用的な産業課題にかかる最適化問題である
㈠・・・ジョブショップ・スケジューリング問題(JSSP) ☛【2】(1)
に対しては、
(1) 浅い量子回路で実現可能な、デジタル化CounterDiabatic量子最適化(DCQO)アルゴリズムは、デジタル量子アニーリング(DQA)🐾2よりも、性能が高い(※1)。
(2) スケールしない(※2)、というDCQOアルゴリズムの欠点を改良した「ハイブリッドDCQOアルゴリズム」は、近似的量子最適化(QAOA)アルゴリズムよりも、性能が高い。
を主張する。さらに、
㈡・・・巡回セールスマン問題(TSP)
に対しては、以下を主張する:
(3) ハイブリッドDCQOアルゴリズムは、スケールする。
※1 性能が高いとは、成功確率(SP)と近似比(AR)の値が高い、という意味である。SPとARの意味は【2】(2)を参照。
※2 ここで言う「スケールしない」とは、成功確率が量子ビット数の増加とともに指数関数的に低下する、ことを意味している。つまり扱う問題のサイズが大きくなった場合に使えない、ことを意味している。これは、量子アルゴリズムにとっては致命的である。言葉を選ばずに言えば、DCQOは使えない量子アルゴリズムということになる。
🐾2 量子アニーリングをデジタル回路(例えばFPGA)で実装して、量子アニーリングを模したアルゴリズムと思われる。
【2】事前整理
(1) ジョブショップ・スケジューリング問題(JSSP)
巡回セールスマン問題(TSP)は有名なNP困難🐾3な問題であるから説明不要であろうが、 JSSPは広く知られているとは言えないだろう。JSSPは、各々決まった作業を行う機械に仕事(ジョブ)を効率的に割り振る事で、「納期遅れの合計時間や、最後の仕事が完了するまでのスプリット時間の最小化🐾4等」を目的としたスケジュールを作成する問題である。一般的に、JSSPには2つの制約条件が課される。それは、工程処理順序の遵守と、同時処理の禁止、である。
独化学大手BASFが著者に名を連ねる本論文ではJSSPとして、「さまざまな化学サンプルを、さまざまな機械で処理できるケースで、最も効率的な操作シーケンスを決定するタスク」が示されている。具体的には、「ロボットRが、薬品サンプルを4つのステーション(ラック、ミキサー、シェーカー、写真)の間に運び、あらかじめ定義された順序(ラック→ミキサー→シェーカー→写真ブース)で処理する」というタスクが示されている。目標は、特定数の化学サンプルを処理するために必要な合計時間を最小限に抑えることである。使用される機械の数は、3つ(ラック、ミキサー・シェイカー、写真ブース)ということらしい。
JSSP は、機械の数が2つまでは多項式時間で解ける🐾5が、機械の数が3つ以上になるとNP困難になる[*137]。つまり、本論文のJSSPはNP困難である。
🐾3 NP困難(問題)とNP完全(問題)の区別は、煩雑であり、本稿の議論に影響を与えないと思われるので、行わない。ただし正確に言えば、TSPはNP完全。
🐾4 業界的には、「最大完了時刻(makespan)の最小化」という表現が用いられる(例えば、[*138])。
🐾5 仕事の数をnとした場合、計算複雑性はO(nlogn)である
(2) 成功確率と近似比
成功確率(SP)は、出力分布内のすべての可能なビット文字列から、基底状態のビット文字列(つまり、正解に対応するビット文字列)を見つける確率である。言い換えると、正解発見確率である。
近似比(AR)は、ほぼ最小のビット文字列の割合を測定し、出力分布の平均エネルギーと基底状態のエネルギーの比率として計算される。
【3】本論文におけるセットアップ
(1) 問題サイズ
0⃣ 概要
本論文で検討されている最も単純なJSSPでもサイズが大きく、現在使用可能なNISQ デバイスのサイズ制限に抵触する。このため検証は、より小さなサイズのいくつかの「サブ問題」に限定する。TSP の場合も同様である。具体的には、3 都市および4 都市のTSPを解いた。
1⃣ JSSP
最も単純なセットアップとして、2 つの化学サンプル(つまりns= 2)、各サンプルに 1 枚の写真、および 30 ユニットの時間範囲 (つまりnt=30) を検討する。使用されるマシンの合計数は 3(つまりnm=3)である。特定の問題の定式化に基づくと、必要なバイナリ変数の数は 2×nm×ns×nt =2*3*2*30=360。したがって、最も単純なセットアップでは、サイズが 360 の二次制約なし二値最適化問題(QUBO)になる。これらの変数の多くは、問題の制約を課すことで排除できるものの、それでも数百量子ビットが必要である。これは現在の NISQ デバイスの能力を超えており、問題サイズの調整を行う必要がある。
具体的に本論文では、QUBO行列を分解し、サイズ16(量子ビット数16)のQUBO部分行列を10個作成する。こうすることで、QUBO部分問題が10個構築される。QUBO部分問題10個を解決した後、フルサイズQUBOの解が更新される。いくつかの収束基準が満たされるまで、この「分解・合成プロセス」が繰り返される。この反復手法は、一般に、古典的な最適化における大規模近傍探索として知られている。
2⃣ TSP
TSPのタスクは、指定された数の都市を最短時間で訪問し、開始都市に戻ることである。ただし、「巡回の中で、各都市を1 回だけ訪問する」、「巡回の各ステップで、訪問中の都市は1 つだけ」という制約が課される。TSPを解くのに必要な時間は問題のサイズ、つまり都市の数に応じて、ほぼ指数関数的に増加する。断熱量子計算でTSPを解くことは、イジングモデルのハミルトニアンの基底状態を求めることに帰着する。基底状態は2N重に縮退している。ここでNは、都市の数である。
現在のNISQハードウェアでは、3 都市および 4 都市のTSPを解くことができる。本論文では、最大 16 量子ビットを必要とする TSPを解決する。なお、TSPを QUBOにマッピングするために、ワンホット・エンコーディング手法を採用する。
(2) アルゴリズム
1⃣ DCQOアルゴリズム
DCQOアルゴリズムでは、デジタル化したCounterDiabatic(DCD)プロトコル下で断熱量子計算を行い、最適化処理を高速化する(と理解している)。なお、時間発展は、インパルス領域(つまり短い発展時間)に制限されている。この制限により、制御項がより支配的になる。デジタル化とは、発展時間をトロッター・ステップで離散化することを意味している。DCDプロトコルとは、「素早く操作しても、制御項とよばれるハミルトニアンを(対象としている量子系のハミルトニアンに)加えることによって、断熱量子計算を実現する」プロトコルである。教科書的には、断熱計算には”ゆっくり操作”が必須であるので、革新的なプロトコルと言える。
ただし、(対象としている量子系に対して)制御項を系統的に構成することは、一般に難しい。多くの場合、制御項が満たす交換関係式を基に近似的に構成される。具体的には、制御項を適当な基底関数で展開(NC🐾6展開)した時の、係数(CD係数)が満たす線形方程式を解くことで、近似的な制御項を構成する[*2]。制御項を高次NC展開した場合、(量子ビットゲートとして通常のセットアップと考えられている)1量子ビットゲートと2量子ビットゲートのみで実装すると、量子回路の深さが大幅に増加する。深い量子回路では、ゲート操作数が増えるので、量子誤りが蓄積する。このため、量子誤り訂正を施せないNISQでは、深い量子回路を構築することは、現実的ではない。このため、DCQOアルゴリズムでは、制御項は1次NC展開に留める。当然、1次展開では、時間発展中の非断熱遷移を完全に抑制することが、保証されない。そして、成功確率は、量子ビット数の増加とともに指数関数的に低下する。
🐾6 Nested Commutator(入れ子構造を持つ交換関係式)を略記している。
2⃣ ハイブリッドDCQO(h-DCQO)アルゴリズム
h-DCQOアルゴリズムの開発は、既述の通り、DCQOアルゴリズムの成功確率が量子ビット数の増加とともに指数関数的に減少するという観察に基づいている。「スケールしない」、つまり扱う問題のサイズが大きくなった場合に使えない、DCQOアルゴリズムの代替量子アルゴリズムということになる。
h-DCQOアルゴリズムにおけるCD係数は、「変分的に学習できる」時間に依存しない自由パラメータとして扱われる。単純なh-DCQOアンザッツは、1次NC展開の1体ハミルトニアン項と2体ハミルトニアン項にそれぞれ対応するαとβによってパラメーター化される。これらのパラメーターは、変分更新され、問題ハミルトニアンの期待値を最小化する。時間発展は、DCQOアルゴリズムと同様に、インパルス領域(つまり短い発展時間)に制限されている。
級数展開の観点からすると、h-DCQOアルゴリズムにおけるCD係数は、漸近級数展開の係数に似ていると思われる。展開項数が無限(~十分に多数)の場合に機能する係数を、展開項数が少数の場合にも、そのまま適用するのは非合理的である。展開項数が少数であることを前提に、係数を調整すべきである。h-DCQOアルゴリズムでは、この調整を変分学習によって実行している、と捉えられる。
(3) ハードウェアーNISQマシン実機
実用的な産業課題に対する、既存アルゴリズムと「DCQOアルゴリズム及びh-DCQO アルゴリズム」の比較は、ノイズなしシミュレーション・ノイズありシミュレーション及び、NISQマシン実機によって実施された。既存アルゴリズムは、DQAとQAOAである。
NISQ実機としては、IBMの超伝導方式NISQマシンとIonQのイオントラップ方式NISQマシンが使用された。JSSPは、16 量子ビットのNISQマシンで比較検証が行われた。TSPは、 9 量子ビット(3都市TSP)および 16 量子ビット(4都市TSP)のNISQマシンで比較検証が行われた。
(4) 量子回路の深さを削減する工夫
1⃣ 総論
本論文では、1次NC展開した場合のCD係数を、適当なしきい値(本論文では0.005)で篩にかけたている。こうして、主要なCD項のみを使用して、結果的に DCQOアルゴリズムを実装した量子回路(DCQO回路)の深さを実質的に半分に減らした。さらに、ゲート角度の事前定義されたしきい値に基づいて回路の深さを、さらに削減している。1 量子ビットまたは 2 量子ビットの回転に関連付けられた角度が選択したしきい値よりも小さい場合、DCQO 回路から対応するゲートを省略した。この近似が有効な理由は、次のように説明されている:DCQOアルゴリズムは、しきい値🐾7によって設定された特定の解像度までシステムの状態を変更するために必要なゲートのみを適用する。
🐾7 IonQ ハードウェアが正確に識別できる最小の角度は 0.00628である。IBMQ の場合、その値は公開されていない。このため、本論文ではしきい値として、IBM並びにIonQの実機に対して0.1 を採用している。
2⃣ 各論ーIBMQハードウェアに実装したDCQO回路の深さ削減
2 量子ビット操作を CX ゲートで表現することで、IBMQ ハードウェア上の DCQO 回路の深さをさらに圧縮できる。各 2 体項、つまり YZ と ZY の時間発展には 2 つの CX ゲートが必要だが、それらの組み合わせた時間発展を 4 つの CX ゲートではなく 2 つの CX ゲートのみを使用して効率的に表現できる。ただし、(IBMの)qiskitの仕様に由来よる制限のため、各トロッター・ステップで合計ハミルトニアンをシャッフルする必要がある。
【4】比較結果
(1) JSSPⓍノイズなしシミュレーション
JSSPを変換したQUBOを分解して得られる10個のQUBO部分問題を解いた。
1⃣ DQA対DCQO
ザックリ言って、比較指標であるSPとARともに、DCQOの性能が圧倒している。10個のQUBO部分問題においてDCQOのSPは(目視で)、0.5%~3%程度である。DQAは、ベストで0.005%程度である。つまりDCQOのSPは少なくとも100倍以上高い。また、DQAは10個の部分問題の内、一つで基底状態を見つけることができなかった。
ARで言うと、DCQOはざっくり30~60%。DQAは、ベストで30%未満。さらにDQAは、10個の部分問題の内、4つでARが負となった。
2⃣ QAOA対h-DCQO
部分問題を個別に見ると、QAOAとh-DCQOのSPが近接しているケース(=部分問題)も散見されるが、俯瞰で見るとQAOAは、ばらつきが大きい。定量的に言うと、(目視で)0.003%程度~0.8%程度。一方、h-DCQOは1~8%程度である。全体的に言うと、性能差は歴然としている。ARでも、QAOAのばらつきが大きいという傾向は変わらない。(目視で)5%程度~60%程度。一方、h-DCQOは50%~80%程度である。
なお、QAOAはランダム初期化が適用されている。h-DCQOのCD係数(=パラメータ)探索を担う変分学習は、ウォームスタートが適用されている。
(2) JSSPⓍノイズあり/なしシミュレーション+IonQ実機
1⃣ DCQOアルゴリズム
DCQOアルゴリズムを、 ノイズありシミュレータ・ノイズなしシミュレータ及び、IonQのNISQマシン実機「Aria-2」で実行した。実行結果である確率分布プロファイルは、ノイズなしシミュレータとIonQの実機で整合的である。定量的に言うと、「発展時間T=0.002、トロッターステップN=2、合計 5000 回の測定とノイズ軽減」を使用して、IonQのAria-2 は、3.5%の確率でQUBO問題の正解を生成した。ノイズなしシミュレータの確率は、(目視で)4.5%程度である。
尚、ノイズありシミュレータの成功確率は、ノイズなしシミュレータの1/4程度である。
2⃣ h-DCQOアルゴリズム
QAOA及びh-DCQOアルゴリズムを、 ノイズなしシミュレータで実行した。h-DCQOアルゴリズムは、IonQのNISQマシン実機「Aria-1(本論文ママ)」でも実行した(なぜか、Aria-2ではない!)。なお、パラメータを最適化した最終回路のみが、ハードウェア上で実行された。QAOAは、ランダム初期化を20 回以上繰り返した後の、最高のパフォーマンスである。
SPで言うと、㊀QAOA1.2%、㊁h-DCQOアルゴリズム(シミュレーション)5.4%、㊂h-DCQOアルゴリズム(実機)2.8%である。ARでは、㊀50%、㊁80%、㊂63%である。付言すると、QAOAでは、QUBO問題の正解でない解(ビット文字列)の確率が、正解の確率より高い。つまり、正解を取得することができない、と思われる。その点を含めて、h-DCQOはQAOAよりも優れていると言って良いだろう。
(3) TSP
1⃣ 3都市TSPⓍノイズなしシミュレーション+IBM実機+IonQ実機:DCQO
DCQOのノイズなしシミュレーションでは、6つの縮退基底状態すべて、つまり 3 都市TSPのすべての可能な解を、高確率で識別できた。しかも、トロッター・ステップ数Nは、わずか2である。一方、DQA は、2 量子ビット ゲートが 11 倍多いにもかかわらず、ランダムな結果を生成するため、この問題を解決できない。
IonQの実機(Aria-2)が出力する確率分布プロファイルは、ノイズなしシミュレータの確率分布プロファイルと類似している。すなわち、3 都市TSPのすべての可能な解(2N=2×3=6つの縮退基底状態)を識別できる。一方、IBMの実機(ibmq_guadalupe)の確率分布プロファイルは、ノイズなしシミュレータの確率分布プロファイルとは、かなり異なる。識別できる正解は、2つしかないように見える。加えて、誤った解を与えると思われる。まとめると、IBM実機の成功確率と解品質は、IonQのそれと比べると、相当低いと思われる。
2⃣ 3都市TSPⓍノイズなしシミュレーション+IBM実機:h-DCQO
h-DCQOアルゴリズムでは、CD係数を変分学習により推定するのであった。本論文では学習率に、ウォーム アップ・スタートを適用している。ちなみに、(10 個の)パラメータの変分学習では、期待値が正確な基底状態エネルギーに高精度で収束するまでに約 120 回の反復が必要であった。
こうして得られら最適なパラメータを使用した量子回路のノイズなしシミュレーションは、6 つの縮退基底状態のうち1 つを、成功確率 71% 近くで生成する。1つしか見つからなかったからダメ、ということではない。縮退した基底状態の一つ一つが、最小固有値=TSPの場合は最短距離、を与えるので、正解が得られたことに変わりはない。
一方、IBM実機(ibmq_guadalupe)で実行すると、縮退基底状態の1 つが、約 15% の成功確率で生成された。つまり、成功確率は、およそ1/5に低下する。
3⃣ 4都市TSPⓍノイズなしシミュレーション+IBM実機+IonQ実機:DCQO&h-DCQO
DCQOアルゴリズムのノイズなしシミュレーションは、正解を見つけられなかった。h-DCQOアルゴリズムのノイズなしシミュレーションは、高い確率(目視で70%以上)で正解を1つ見つけることができた。ちなみに、4都市TSPの場合、h-DCQOには 17 の変分パラメータがあり、ウォーム スタートは失敗する。その理由は、パラメータが増えると、局所的最小値でスタックする可能性が大幅に高まるためである。
IonQ実機(Aria-2)は、45% という成功確率で正解を1つ生成する。一方、IBM実機(ibm_brisbane) は、正解を生成しない。この理由は、トランスパイルされた回路における180 個の 2 量子ビットゲートからのエラーによって、ランダムな出力分布が生じるため、と説明されている。
【5】考察
(1) 独KIPUは断熱ショートカットに基づくCounterDiabatic量子アルゴリズム(CDアルゴリズム)の開発を、継続的に行っている。本論文では、NISQへの実装・NISQでの実行を鑑みて開発した(と思われる)浅い量子回路で実現できるCDアルゴリズム「DCQOアルゴリズム」を提示している。浅い回路で実現できるのは福音であるが、 DCQOアルゴリズムはスケールしない。スケールしないと、量子アルゴリズムとして致命的であるから、その対応策としてh-DCQOアルゴリズムも併せて、提示している・・・というより、DCQOアルゴリズムは中間生成物みたいなもので、成果物はh-DCQOアルゴリズムと考えて良いだろう。
(2) DCQOアルゴリズムはスケールしないけれでも、小規模な問題では機能するはずなので、機械数3のJSSPで実証している。具体的には、量子アニーリングよりも性能が高い(SPとARが高い)ことを示している。またh-DCQOはJSSPにおいてQAOAと比較されて、性能が高いことが示されている。
(3) h-DCQOがスケールすることをデモンストレーションするために、3都市TSPと4都市TSPを取り上げている。(9量子ビットを要した)3都市TSPでDCQOは正解を生成したが、(16量子ビットを要した)4都市TSPでは正解を生成できなかった。この結果は、DCQOは量子ビット数の増加に伴って、成功確率が指数的に低下することを示唆している。その一方で、h-DCQOは期待通り、4都市TSPにおいて、高い確率で正解を生成することができた。
(4) DCQO及びh-DCQOアルゴリズムは、NISQへの実装・NISQでの実行を鑑みて開発した(と思われる)ので、本論文では、実機でのデモンストレーションも行われている。具体的には、超伝導方式(IBMのibmq_guadalupeとibm_brisbane)とイオントラップ方式(IonQのAria-1とAria-2)が選択された。実機比較という意味では、IonQに軍配が上がる。
(5) ちなみに、本論文共著者の一人であるBASFのAbhishek Awasthiは、「DCQOアルゴリズムがビジネス上の利益をもたらすには、まだ長い道のりがありますが、それでもDCQOプロトコルは回路型量子計算機で出来る最高のことです」と発言している[*152]。
ドイツの量子ソフトウェア・スタートアップKIPU Quantum(以下、KIPU)及びスペインのバスク大学🐾1の研究者は、「商業的量子優位性時代が始まった」と主張する論文[*146](以下、本論文)を発表した(24年9月5日@arXiv)。
数多くの(産業応用上重要な)古典的な組み合わせ最適化問題は、二次制約なし二値最適化(QUBO)問題に変換可能である。ただし、変換の代償として、多くの追加変数とローゼンバーグの2乗ペナルティ項が必要になる。このため、計算コストが増加し、標準的な最適化が困難になる。一方で、QUBO問題は、コスト関数の次数が3以上の多項式である高次制約なし二値最適化(HUBO)問題で自然に表現できる[*147]🐾2。ただし、HUBO問題は、解くことが難しい🐾3。
本論文は、KIPUがBF-DCQOプロトコルと呼ぶ手法が、代表的な古典的手法や量子的手法に比べて、HUBO問題を高精度で解けることを示し、これをもって「商業的量子優位性時代が始まった」と主張したわけである。
🐾1 バスク州立大学やバスク自治州立大学とも表記される。
🐾2 ちなみに[*147]は、QUBOの裏に存在する物理学の基盤「イジング模型(に関する膨大な知体系)」に類するものをHUBOでも確立して、HUBOソルバーを改善しよう、という論文である。具体的には、量子ℤ2格子ゲージ理論(QZ2LGT)が、QUBOにおけるイジング模型(周りの知体系)だとして、QZ2LGTを利用してHUBOソルバーを改善している。
🐾3 古典的手法を使った代表的な最適化ソルバー、GurobiやCPLEXは、HUBO問題を対象としていないことが傍証となるであろう。HUBO問題では、手法が古典量子問わず、計算オーバーヘッドが増加し、性能が低下する。
【1】本論文の主張
本論文は、以下を主張する:
HUBO問題の求解において、BF-DCQOプロトコルによる結果は、代表的な古典的手法及び量子的手法の結果に比べて、高精度である。評価指標は、近似比(AR)と解への距離(DS)である(詳細は【4】(1)を参照)。
ここで、比較対象となった代表的な古典的手法とは、シミュレーテッド・アニーリング法(SA)、タブー探索法である🐾4。量子的手法は、量子アニーリング法🐾5、CVaR-QAOA🐾6である(どちらも断熱量子計算にルーツを持つので、タイバン相手として相応しい)。なお、グランド・トルゥースは、テンソルネットワーク法🐾7による結果である。
🐾4 [*148]では、グローバー適応探索(Grover Adaptive Search: GAS)を適用して、HUBO問題を解いたことが記述されている(対象となった問題は、無線通信分野の無線資源割当問題)。
🐾5 必然的に、HUBO問題をQUBO問題に変換して、解くことになる。
🐾6 CVaRは、金融リスク分野で扱われるConditional VaR(Value at Risk)のことである。金融分野では、期待ショートフォール(ES)とも呼ばれる。QAOAは、量子近似最適化アルゴリズムのことである。CVaR-QAOAについては【3】(2)を参照。
🐾7 正確には、密度行列繰り込み群(Density Matrix Renormalization Group:DMRG)法である。ITensorライブラリを使用。
【2】事前整理
(1) オリジナルの「カウンター非断熱量子最適化プロトコル」とそのバリアント
簡単に整理する:断熱量子最適化は、与えられた問題ハミルトニアンの基底状態を準備することを目的とする。断熱量子計算は、大域最適解に漸近的に収束することが数学的に証明されている。ただ、問題は計算に時間がかかることである。断熱量子計算の計算時間を短縮する計算プロトコルが、 カウンター非断熱量子最適化(CDQO)プロトコルである。
CDQOプロトコルはいくつか考えられるが、KIPUの採用しているプロトコルは、「断熱時間発展ハミルトニアンに、”制御項”と呼ばれるハミルトニアンを追加する」というものである。素早く操作しても、それを打ち消すような効果を持つ”制御項”を加えることで、断熱量子計算を維持するという仕組みである。随分、虫のいい話と思われるかもしれないが、ヒューリスティックスとは、そういうものであろう(CDQOプロトコルは、あくまでヒューリスティックスである)。
ただし、そのような制御項を見つけることは難しいし、正確に物理実装する(実現する)ことは難しい。
そこで、近似実装が行われる。近似実装も、いくつか考えられるが、KIPUは、「制御項を何らかのパラメータで級数展開する」方法を採用する。正確には、断熱ゲージポテンシャルを、入れ子構造を持つ交換子級数で展開(NC展開)する方法である。展開係数は、変分最小化(作用を最小化すること)によって得られる。断熱ゲージポテンシャルは、制御項=制御関数の時間微分×断熱ゲージポテンシャル、という形で導入される。 ここで言う制御関数とは、断熱経路を記述する時間依存制御関数であり、本論文ではλ(t)と表記される。 断熱ゲージポテンシャルは、本論文では、Aλと表記される。
(2) CDQOプロトコルのバリアント
(1)で示したように、制御項の近似実装は、断熱ゲージポテンシャルを級数展開することで、実行される。当然高次項まで展開すれば、近似度は上がるが、量子回路的に言うと、量子ゲート数が増える。すなわち(厳密にはやや異なるが、)量子回路が深くなる。深い量子回路は、計算エラーを惹起するため、NISQでは禁忌である。そこで通常は、低次で打ち切るが、CDQOプロトコルは、思い切って1次で打ち切る。当然、 低次(1次)で打ち切ると精度は出ない。
KIPUが24年5月24日にarXivで公開した論文[*136]では、展開係数(CD係数)を、「変分的に学習できる」時間に依存しない自由パラメータとして扱うことで、精度を出す工夫がなされた。このプロトコルは、h-DCQOプロトコルと呼ばれる(こちらを参照)。
なお、h-DCQOのDはデジタルを表しているが、離散化して計算するという意味であり、それ以上ではない🐾8。従って、CDQOとDCQOは、特に区別しない。
🐾8 制御項は(次数に限らず、従って1次であっても)、non-stoquasticである。このため、「量子アニーラでは実現不可能である」ことを、”デジタル”という言葉で主張しているのかもしれない。ハミルトニアンがstoquasticであるとは、「(ハミルトニアンの)基底状態が、非負の振幅の重ね合わせで表現され、いわゆる負符号問題が生じない」状態を指す。負符号問題とは、「本来正であるべき確率重みが、負となる問題」である。
(3) BF-DCQO(Bias Field DCQO)プロトコルの直感的説明
0⃣ 前説
BF-DCQOプロトコルは、KIPUが24年5月22日にarXivで公開した論文[*149]で初めて提示された。BF-DCQOプロトコルの直感的説明をする前に、まず、簡単な数式を使って、改めてDCQOプロトコルについて、説明する。断熱時間発展ハミルトニアンH(t)は、
H(t)=[1ーλ(t)]Hi+λ(t)×Hf
と表されるのであった。 ここで、Hiは『基底状態を簡単に準備できる(というだけの)初期ハミルトニアン(ザックリ言えば初期値)』で、Hfは最終ハミルトニアンである。(イジング)スピングラス問題の基底状態を見つける断熱量子計算であれば、Hfはスピングラスに対応するハミルトニアンである。λ(t)は、説明済である。DCQOプロトコルでは、この断熱時間発展ハミルトニアンH(t)に制御項を加えた、新しいハミルトニアンで時間発展させるのであった。つまり、
H(t)=[1ーλ(t)]Hi+λ(t)×Hf+制御項 ・・・(1)
となる。そして、制御項をうまく動かして(制御項に含まれるパラメータを振って)、最終ハミルトニアンの基底状態を見つけることがタスクであった。また(言わずもがなであるが)、初期ハミルトニアンが変われば、初期波動関数(初期基底状態)も必然的に変わる。
それでは、以下に、h-DCQOプロトコルは全く異なるアプローチで断熱ゲージポテンシャルの近似実装の精度を上げる、BF-DCQOプロトコルについて直感的な説明を試みる(※[*146]及び[*149]に、該当する記述があるわけではない)。
1⃣ 試案A
まず、次のような解釈が可能かを考えてみよう: (1)式は、3項からなっている。DCQOプロトコルでは、3番目の制御項を動かすことで、H(t)を調整していた。2番目の項は、最終ハミルトニアンだから動かすわけにはいかない。しかし1番目の項は、所詮、簡単に準備できる(というだけの)初期値だし、動かせるのではないか? H(t)の立場からすると、1番目を固定+3番目を動かす=1番目を動かす+3番目を固定、ではないか? とすると、初期ハミルトニアンを変動させ、制御項は、1次展開かつ展開係数を固定、というプロトコルが成立し得る。これが、 BF-DCQOプロトコルである・・・いや、これは解釈としては無理があるだろう。
なぜなら、制御項はnon-stoquasticであり、それ故に断熱量子計算を素早く実行することを、可能にしていると考えられる。それを、stoquasticな初期ハミルトニアンに担わせることは不可能である(仮に、初期ハミルトニアンをNon-stoquasticにする場合、状態準備が大変だろうし、stoquasticな(横磁場イジング模型の)最終ハミルトニアンへの収束は遅いだろう)。つまり、試案Aはfalseであろう。
2⃣ 試案B
そうすると、妥当な解釈は(面白味はない?が・・・)、1次展開という低精度の近似制御項(正確には、近似断熱ゲージポテンシャル)に相応しい初期値を、反復法で探索しているのが、BF-DCQOプロトコルということになるだろう(初期値を動かすので、必然的に反復法になる)。そして、BF-DCQOプロトコルが高精度と期待できる直感は、「状態初期化は、量子最適化ルーチンのパフォーマンスにとって重要」だからである(為念:この点に関しては、その旨、本論文に記述されている)。
❚余 談❚
大規模言語モデル(LLM)に対する性能向上策の一つにLEAP(LEArning Principles)という手法がある。LEAPは、「㊀あえてLLMにミスさせ、㊁LLMにその誤答を分析させて、失敗した理由を生成し、㊂最終的により良い回答を出力させる」というアプローチであり、カーネギーメロン大学と(グーグル)ディープ・マインドの研究者が考案した。上記試案A→試案Bは、そのような構造になっている。現状(2024年)無理だが、いずれLLMを使って、同じような作業が行われるようになるだろう。
(4) 数式を使ったBF-DCQOプロトコルの説明
BF-DCQOプロトコルにおける初期ハミルトニアンと、当該初期ハミルトニアンに対応する基底状態を、ここで具体的に与える。ただし、ここで言及するBF-DCQOプロトコルはオリジナルの(すなわち[*149]で提示されている)BF-DCQOプロトコルであることに注意。[*146]のBF-DCQOプロトコルは【3】を参照。
イジング・スピングラス・モデルでは、いわゆる「横磁場」を初期ハミルトニアンとして選ぶことが多い。そこで、本論文でも、DCQOプロトコルにおける初期ハミルトニアンHiとして、横磁場-∑σxiが選ばれている。σxiは、格子点iに割り当てられたパウリ・スピンのx成分である。
BF-DCQOプロトコルにおける初期ハミルトニアンH̃iは、H̃i=Hi+∑⟨σzi⟩σziとする(この構成が、[*146]と[*149]で若干異なる)。ここで、σziは格子点iに割り当てられたパウリ・スピンのz成分である。⟨σzi⟩は、各反復で計算基底の量子ビットを測定することによって取得される”縦バイアス場”の期待値である。
H̃iの基底状態|ψ̃⟩は、ⓍRy(θi)|0⟩i (i = 1~N)として準備できる。Ryはy軸周りの回転演算子、θi=tan-1(Θ)である。ここで、Θ=hxi/(hbi+√(hxi)2+(hbi)2)である。hxi=⟨σxi⟩であり、hbi=⟨σzi⟩である(後者の式は、[*146]と[*149]で若干異なる)。
(5) [*149]における、BF-DCQOプロトコルの性能検証
H̃i=Hi+∑⟨σzi⟩σziという表式は、理論的に導出されたわけではなく、発見的に導出されたはずである(ヒューリスティックスなので・・・)。この表式で、上手く行く保証もない。
そこで、[*149]では、400個のスピングラス問題を対象に、BF-DCQOプロトコルの性能を検証した。イジング模型のハミルトニアンにおけるパラメータ(いわゆるhiとJij)を、平均0・分散1の正規分布からサンプリングして、400個の問題を作っている。なお、λ(t)=sin2[π/2sin2(πt/2T)]であり、hxi = −1としている。λ(t)は、0と1を滑らかに結ぶS字カーブを形成するような関数である。
結果は、案の定、上手くいかないケースが存在した。量子ビット数(10~20)によって変わるが、41~64ケースが上手く行かなかった(割合にすると、およそ10%~16%)。その場合は、⟨σzi⟩σziの代わりに、-⟨σzi⟩σziとすると、ほぼ上手くいった。それでも、失敗したケースは、1~4ケースだった(つまり、最大で1%)。この対処法は、[*146]では、さらに工夫が凝らされている。
(6) [*149]で示された比較結果
1⃣ BF-DCQOプロトコルとDCQOプロトコルとの比較
10~20量子ビット数のシステムサイズに対する、基底状態の成功確率を比較した。各システムサイズについて、平均0・分散1の正規分布から400個のランダムに生成されたスピングラス・インスタンスが用いられた。シミュレーション・パラメータとして∆t=0.1、トロッター・ステップ数=3を用いた。どちらのプロトコルも10回繰り返した。
どちらのプロトコルでも、成功確率は、量子ビット数増加とともに低下する。ただし、DCQOプロトコルが指数関数的に低下するのに対して、BF-DCQOプロトコルは多項式的に低下する、としている。
2⃣ BF-DCQOプロトコルとQAOAとの比較
QAOAの階層数(繰り返し回数)は3、オプティマイザはCOBYLA。反復回数は最大300回。20回のランダム初期化からの最良値が、QAOAの結果として選択される。BF-DCQOプロトコルの反復回数は10回、トロッター・ステップ数=3。
成功確率🐾9と近似比🐾10について、BF-DCQOプロトコルの値/QAOAの値を、量子ビット数(システム・サイズ)に応じて、算出した。成功確率は、量子ビット数20で、75倍改善された。近似比は、量子ビット数10~20の平均で、1.3倍改善された。
🐾9 成功確率は、出力分布内のすべての可能なビット文字列から、基底状態のビット文字列(つまり、正解に対応するビット文字列)を見つける確率である。言い換えると、正解発見確率である。
🐾10 近似比(AR)は、ほぼ最小のビット文字列の割合を測定し、出力分布の平均エネルギーと基底状態のエネルギーの比率として計算される。
【3】本論文におけるBF-DCQOプロトコルの変更点
(1) HUBO問題に対応した更新ロジックの変更
【2】(5)で、H̃iの表式、つまりH̃i=Hi+∑⟨σzi⟩σziにおける”係数”⟨σzi⟩が、良い結果を必ずしももたらさない、ことを述べた。以下では、
H̃i=Hi+∑hbiσziと書く。[*149]では(最終的には)、hbi=±⟨σzi⟩であった。これは、本論文で「符号なし更新」と呼ばれている。
本論文では、HUBO問題への対応として、さらに、hbi=±sgn⟨σzi⟩を(選択肢として)加える。これは、「符号あり更新」と呼ばれている。更新運用は、11回の反復に対して、最初の10回が「符号なし更新」で最後の1回が「符号あり更新」というものらしい。さらに、hbiを5倍に再スケーリングしている。やや煩雑である。
(2) CVaR手法の適用
本論文では、「CVaR手法を量子最適化ルーチンに組み込むと、大幅な改善につながることが実証されている」として、CVaR-VQEが提案された論文[*124]を引用している(CVaR-VQEに関しては、こちらを参照)。この知識に基づいて、本論文では、hbiを反復的に更新するための、 CVaR にヒントを得た方法を提案している。具体的には、まず、考慮される測定数と測定総数nshotsの比率を計算する。この比率をαとする(☛サンプリングされたビット列確率分布の下側 α テール)。そして、サンプルの分布全体(α = 1)を考慮するのではなく、サンプリングされたビット列に対応するエネルギーEkを、昇順に並べ替える(k=1~nshots)。次に、
E(α)=1/⌈αnshots⌉∑Ek
から取得した最低エネルギー結果の 0 < α < 1 の割合を使用して、hbiを更新する。E(α)は本論文での表記であり、一般にはCVaR(α)と表記される。また、⌈n⌉は、nを越えない最大整数を意味する。
本論文では、「α ~1%で、より優れた解への速い収束が期待される」とする。
【4】本論文における評価結果
(1) 評価指標
既述通り本論文では、HUBO問題の求解において、BF-DCQOプロトコルによる結果と、代表的な古典的手法及び量子的手法の結果とを比べている。評価指標は、近似比(AR)及び、解への距離(DS)である。ARについては、🐾10で説明済である。DSは、以下のように定義される:
DS=1-min{Ek}/E0
Ekについては【3】(2)を参照。E0は、グランド・トルゥースである基底状態のエネルギーである(DMRG法による結果がグランド・トルゥースである)。
(2) 対象としたHUBO問題
対象問題は2つある。
1⃣ 最近傍スピングラス
このケースのHUMOハミルトニアンは、最近傍(NN)3 体ハミルトニアンとした。このモデルは、テンソルネットワークを使用して簡単にシミュレートできる。
2⃣ 重み付き 最大 k 充足可能性(MAX k-SAT)問題
最大 k 充足可能性(MAX k-SAT)問題は、NP 完全複雑性クラスに属し、その重み付き版は、次のように定義される。連言標準形(連言とは、論理積あるいはANDである)のブール式が与えられた場合、重み付きMAX k-SATは、満たされるすべての k 変数節の重みの合計を最大化する真理値変数の割り当てを見つけることを目的とする。実装は、1⃣に比べて困難とされる。
(3) 比較対象とした手法
(これも既述通りであるが)比較した古典的手法は、シミュレーテッド・アニーリング法(SA)とタブー探索法(TS)である。量子的手法は、量子アニーリング法(QA)とCVaR-QAOAである。
❑ SAとTSの反復回数は、100,000回。
❑ アニーリング時間は2000µs。反復回数は100,000回。H/Wとしては、D-WaveのAdvantage system4.1を使用した。
❑ CVaR-QAOAの階層数は3 、反復回数は10,000回。α = 0.1。オプティマイザは、SPSA(Simultaneous Perturbation Stochastic Approximation)🐾11。
❑ BF-DCQOプロトコルは、トロッター・ステップ数は3、反復回数は10,000回。α = 0.02。
ただし、10 回目までの反復を実機(ibm fez🐾12)で実行し、それ以降は、ノイズなしシミュレータで実行された。
❑ DMRGは、スイープ数🐾13を5、最大結合次元[5, 10, 10, 10, 20]、切り捨て誤差カットオフを 10−5に設定した。
🐾11 [*149]でのCOBYLAから変更されている。一般的に、SPSAはノイズに強いとされる。
🐾12 ネイティブ ゲート セット{X、√X、RZ(θ)、CZ} を持つ 156量子ビットの超伝導量子プラットフォーム。量子ビットのトポロジーは、HH(heavy-hexagonal:六角ナット)格子である。
🐾13 スイープは、言葉で説明すると、やや複雑である。DMRGアルゴリズムには重要な手続きが3つある:blocking、sweeping(いわゆるスイープ)及びdecimationである。まずブロッキングでは、一次元格子のサイト(サイト=格子点)を、4つに分ける:ブロックL(サイト1~p-1)、サイトp、サイトp+1、ブロックR(サイトp+2~最後まで)。ブロックL及びRの長さを、1 サイトずつズラして(Lが伸びれば、Rは縮む)、各スケールでの状態を決定しながら、それらを階層的に相互作用させるという形で、全系の状態を求める。これが、スイーピングと呼ばれる手続きである[*150]。
Lはサイト1から始まって伸びていき、Rが最後の1サイトに縮まるまで行われる。そして、今度は逆方向に、すなわちRが伸びていき、Lが1サイトに縮まるまで行われる。それが1スイープである。スイープ数は最低2回は必要と見做されている[*151]。
(4) 比較結果
1⃣ 最近傍スピングラス
本論文では、以下のようにまとめられている。
㊀ QAに対して ARの26.7%向上並びに、DSの92.7%向上が得られた。
㊁ SAに対して DS が 72.8% 向上した。ARは-8.0%低下した。
㊂ CVaR-QAOAで得られた結果はQAと比較しても、最悪のパフォーマンスである。
2⃣ 重み付き 最大 k 充足可能性(MAX k-SAT)問題
㊀ QAに対して ARの43.0%向上、DSの88.5%向上が得られた。
【5】考察
(1) 断熱ショートカットが有望なアルゴリズムであることは、間違いないだろう。なんとならば、変分量子アルゴリズムは、「有用なユースケースのほとんどにおいて、不毛な台地が発生すると見込まれている」からである。さらに、BF-DCQOプロトコル(及びQAOA)は、HUBO問題を解決するにあたり、QUBO問題に比べて計算オーバーヘッドが発生しない。それらの意味で、断熱ショートカットは有望と考えられる。
もっとも、初期ハミルトニアンの更新ロジックは、問題依存だろうし、工夫の余地が沢山ありそう。
(2) ただ、本論文の結果のみで「商業的量子優位性時代が始まった」と言えるかは疑問。確かに、BF-DCQOプロトコル は、代表的な古典的最適化ソルバーであるGurobiやCPLEXもカバーしていないHUBO問題を精度よく解けるアルゴリズムかもしれない。しかし、古典的手法としては、テンソルネットワーク法が存在する。それに対しても、「433量子ビットを搭載したIBM Ospreyプラットフォーム上の”ノイズなし”シミューションで、有望な結果が得られた」ことを根拠にしているのだろうが、もう少しgo shop期間が欲しいと感じる。
(3) 古典的最適化法を使わずに、同じことが出来るのだから、BF-DCQOプロトコルを量子機械学習モデルのオプティマイザーとして使うこともできると思われる。
〖参考:ロードマップ〗
KIPUは、以下のようなロードマップを提示している[*153]。
Today(24年の8月とか9月あたり)・・・DCQO及びBF-DCQOプロトコルをサービス提供
24年Q4・・・量子畳み込みニューラルネットワークをサービス提供
25年Q1・・・混合整数計画問題を解くサービスを提供
25年Q2・・・ケモインフォマティクス向けにサービスを提供
25年Q3・・・量子化学計算向けにサービスを提供
25年Q4・・・リスクアセスメント・シミュレーション向けにサービスを提供
KIPU(及びスペイン・バスク大学)は、「特定のHUBO問題に対してBF-DCQOが、シミュレーテッド・アニーリング(SA)及びCPLEXを"上回る"ことを実験的に実証した」と主張する論文[*211]を発表した(25年5月13日@arXiv)。"上回る"の意味は、「最適解に対して適当な近似比を持つ近似解に、到達するのに必要な時間が短い」という意味。特定の問題というのは、「古典的手法では最適解を得るために要する時間が長い問題」であり、"わざわざ"カスタマイズして作成した。
※CPLEXは、Gurobiと並んで著名な最適化ソルバー。IBMの製品。
|結 果|
結果は、CPLEXで最大約80倍の時間短縮、SAで最大約3.5倍の時間短縮、であった。
|考 察|
この結果を、どのように評価すべきか・・・は難しいだろうか? BF-DCQOに有利な問題設定で、勝るのは当然という意地悪な見方も可能であろう。KIPUの立場からは、「量子誤り訂正がない場合でも(NISQマシンでも)、確かに、量子優位性が得られる」と主張したいのであろう。それ自体に嘘はないものの、わざわざ作成した古典的に解くのが困難な問題が、産業応用上どの程度のインパクトを及ぼす問題なのかを示した方が、良かったのではないだろうか。
|補 足|
① [*211]においてHUBOは、ハイパーグラフとして定式化されている。ハイパーグラフとして定式化されたHUBOの複雑さを表す因子として、"結合係数"を取り上げ、この結合係数を「特定の確率分布からサンプリング」することで、古典的には難しい問題を作成している。特定の確率分布とは、「SAに対してコーシー分布。CPLEXに対して、パレート分布」である。
② NISQマシンは、156量子ビットのIBM Marrakesh。測定は、計算基底を使って行われる(いたって普通)。アイドル状態の量子ビットによる量子誤りを軽減するため、量子誤り緩和(QEM)として、「動的切り離し」が適用されている。
蘭アムステルダム大学他🐾1の研究者は、「量子最適化問題をレビュー」した論文[*154](以下、本論文)を発表した(24年10月28日@nature reviews physics)。[*154]には、72頁のSupplement Information[*155]が付随している。ちなみに、[*155]は、arXivで読める。
最適化問題は、産業応用上のインパクトが大きいため、量子優位性の発現が期待されているものの、未だ発現していない。計算化学と材料科学分野においても、量子シミュレーションが古典シミュレーションを置き換えると目されていたケースの一部は、人工ニューラルネットワークでカバーできるという意見もある(24年11月7日MITテクノロジーレビュー[*156])。
このような、粉雪舞う状況下で、将来にわたる量子最適化問題への研究投資を正当化するには、それなりの理論武装が必要であることは想像に難くない。その理論武装用の材料を提供することが、本論文の目的であると解釈できるであろう。
🐾1 蘭QuSoft、ライデン大学、ティルブルフ大学|ラトビア大学|米MITスローン経営大学院、ロスアラモス国立研究所、IBM基礎研究所(NY)、ウェルズ・ファーゴ、NASAエイムズ研究センター、USRA Research Institute for Advanced Computer Science (RIACS)、南カリフォルニア大学|独E.ONデジタル・テクノロジー、フラウンホーファー研究所(Cognitive Systems IKS、ITWM、IOSB)、Quantagonia、ベルリン・コンラート=ツーゼ情報技術センター、ベルリン工科大学、ドイツ航空宇宙センター、ミュンヘン連邦軍大学[注:独連邦軍の士官養成校]、フォルクスワーゲン|端IBM基礎研究所(チューリッヒ)、スイス連邦工科大学ローザンヌ校、チューリッヒ大学|墺エルステ銀行、エルステ・デジタル|シンガポール・HSBC銀行シンガポール支店、シンガポール国立大学|チェコ工科大学|希アテネ研究センター|英ハートリーセンター[注:スパコン施設]|アイルランドIBM基礎研究所(ダブリン)|加ウォータールー大学
【1】本論文の主張
本論文は、レビューの結果として、以下を主張(提言)する:
(1) 複雑性理論は、実用的な量子優位性を見つけることに役立つとは限らない。
(2) 「量子ヒューリスティック」を開発および分析する必要がある。
(3) 量子最適化アルゴリズムを開発および改善するには、理論的研究と経験的研究を組み合わせることが重要である(経験的研究には、量子コンピューター実機が必要である)。
(4) 厳密な量子加速を備えた量子最適化アルゴリズムの設計において、量子ランダムアクセスメモリへ依存することをやめる必要がある。
(5) 2次加速を超える量子加速を見つけることは、実用的な量子優位性にとって重要である。
【2】量子優位性を示すには、どうしたら良いか?
(1) 指導原理としての複雑性理論の運用を、より現実的にする
やや言い訳めいて聞こえるが、本論文は、次のように述べる:
複雑性理論は、最悪の問題インスタンスに対応した理論である。しかし、実際に解決すべき具体的な問題インスタンスというのは、最悪の問題インスタンスよりも簡単な場合がある。したがって、複雑性理論の結果により、量子加速が不可能になった場合でも、量子コンピューターは、特定クラスの問題インスタンスに対しては、古典的なコンピュータよりも優れた性能を発揮する可能性がある。
結論として『量子優位性という概念は、実際には、形式的な証明や最悪のシナリオよりも広い範囲を網羅するべき』で『複雑性理論の議論によって導かれる、妥当な範囲内で網を張るべき』と主張する。言い換えると、数学的厳密さの下に構築されている複雑性理論を、より実用的に運用しよう、という主張である。
(2) 「平均的に困難な最適化問題」という未解決問題に希望を託す
本論文では、未解決問題にも、量子最適化の価値を託している。「平均的に困難な最適化問題」とは、平均的に多項式時間で解けない最適化問題である[*157]。ちなみに[*157]の著者は、MITスローン・ビジネススクールの所属である。”平均的に”とは、最適化問題の入力が、ある確率分布に従っている場合を指している[*158]。
なぜ、そんなセットアップを考えるかというと、組み合わせ最適化や、統計物理学、高次元統計といった物理学や工学において、「ランダム構造に対する最適化問題」というものが自然に現れるからである。また、暗号化プロトコルの設計においても、平均的に困難な最適化問題は重要である[*157]。ランダム構造に対する最適化問題において、高速アルゴリズムによる最適解の発見は知られておらず、しばしば不可能と考えられている。
量子コンピューターは、NPO問題に対して、指数加速を提供しないと広く信じられている。NPO問題とは、NP困難問題に属する最適化問題の集合である[*155]。しかし、「平均的に困難な最適化問題」を量子アルゴリズムが解けるかは、未解決である。オーバーラップ ギャップ特性🐾2を持つ問題は、特定の古典的なアルゴリズム・ファミリ及び、ローカルな低深度量子アルゴリズムでは、「平均的に困難」であることが証明されている。これらの問題が、高深度または、洗練された量子アルゴリズムで最適解が得られれば、インパクトは大きい。
🐾2 木で鼻を括った説明(定義)を述べれば、最適解に近い解の、ペア毎の距離の集合における位相的不連続性。
(3) 概念的なまとめ:量子優位性を確立する道
まず、本論文は、次のように主張する:量子最適化アルゴリズムを開発および改善するには、継続的な技術進歩に加えて、古典的アルゴリズムと同様に、理論的研究と経験的研究を組み合わせることが重要である。これまで、量子アルゴリズムは、ハードウェアの可用性が限られていたため、主に理論的に開発されてきた。この状況は量子H/Wの進歩によって改善されており、量子最適化アルゴリズムを開発および改善が促進されると期待できる。
まとめ的に、本論文では、量子優位性を確立するには、3つの重要な方向性があると提言している:
❶ 量子優位性を示す有望な候補となる実際の最適化問題を特定する。
❷ 量子ヒューリスティクスを探索する。
❸ 量子最適化アルゴリズムの可能性と限界に関する理論的理解を強化する。
【3】問題✖アリゴリズム
(1) 離散最適化問題
1⃣ 制約のない離散最適化問題
掲題に関して、本論文では、QAOA(Quantum Approximate Optimization Algorithm:量子近似最適化アルゴリズム)に紙幅の大半を割いている。ちなみに、QAOAと類似した手法として「断熱ショートカット」(こちらを参照)があるが、本論文では触れられていない。
QAOAは、断熱量子計算をベースとした、量子古典ハイブリッド・アルゴリズムである。QAOAでは、厳密な断熱量子計算を模倣した計算を行う。具体的には、パラメータ付き量子回路を別添えすることで、断熱量子計算を模倣する。このようなアクロバティックな計算が成功するキモは、古典的に行う、上記パラメータの推定(探索)である。容易に想像できるように、このパラメータの推定は容易ではない。
なお、下記で登場する再帰的QAOAは、以下のようにして、パラメータ推定の困難さを減らしている(その結果、性能が向上するとされる):相関の期待値が最大となる量子ビットを抽出し、一方の量子ビットに対応する変数を消去する。この処理を続けることで、コスト関数の変数を(あるしきい値に達するまで)削減していく。しきい値に達するまで縮小されたコスト関数は、古典的に最適化される。
以下、QAOAに関する本論文の内容を、肯定的意見□と否定的な意見■に分けて、箇条書きにする。
□ QAOAは、特定のケースを除いて性能保証は知られておらず、ヒューリスティックのままである。
□ 古典アルゴリズムから得られた解を使ったウォームスタートを活用することで、QAOAの性能を向上させることが可能である。
□ 再帰的(recursive)QAOAは、QAOAの有望な代替え手法である。
■ 一定深さの QAOA は、d 正則グラフ🐾3上の最大カット問題🐾4の特定インスタンスに対して、古典的な Goemans–Williamson 近似🐾5を上回ることはできない。
🐾3 d 正則グラフとは,すべての頂点の次数がdである無向グラフのことである。
🐾4 最大カット問題は、「あるグラフの頂点を二つのグループに分ける場合に、辺を切る数が最大となる分け方を求める」という問題。最大カット問題はNP困難であることが知られている。
🐾5 1994年(30年前)に提案された、半正定値計画問題(SDP)を用いた最大カット問題に対する近似解法。
2⃣ 制約のある離散最適化問題
制約のある離散最適化問題は、制約のない離散最適化問題に、等式制約及び不等式制約を付け加えた離散最適化問題である。不等式制約は、スラック変数を追加して等式制約に変換することが可能である。また、等式制約をペナルティ項に変換することで、制約のある離散最適化問題は制約のない離散最適化問題に変換することが、常に可能である。ただし、この「制約ありから、制約なし」への変換は、計算コストの増大という代償を伴う。
本論文では、確定的には書いていないが、結論は以下のようなものと理解している:制約のある離散最適化問題を制約のない離散最適化問題に変換して、量子アルゴリズムを適用するというアプローチは、推奨されない。量子回路が複雑になり(層が深くなり)、実装が困難であるためである。ただし、再帰的QAOAは、使えるかもしれない🐾6。
🐾6 量子ゼノン・ダイナミクスを使って、「QAOAのユニタリ時間発展を特定のヒルベルト空間に限定する、というアプローチでも行ける」と本論文が主張しているのかは、理解できていない。
(2) 連続最適化
1⃣ 凸最適化
線形計画問題(LP)と半正定値計画問題(SDP)をピックアップされている。もっとも、LPはSDPの特殊形と考えられるから、SDPとして一般化できる。
まずSDPに対する解法として、一次法の一つである「乗算型重み更新法(Multiplicative Weights Update method:MWU)」が取り上げられる。しかし、量子MWUの優位性は明らかにされていない(と理解)。そして、MWU以外の一次法に関する量子加速については、ほとんど理解されていないと結ぶ。
続いて、二次法である内点法( Internal Point Method:IPM)が取り上げられる。IPMに関しては、いくつかの仮定と量子ランダムアクセスメモリ(QRAM)を前提として、量子加速が得られる🐾7。ただ、QRAMは、いつ実現するかわからないので、本論文では、この量子加速について、評価していない。QRAM がなくてもほとんどのパラメータでより短い実行時間で 、IPM に代わるアプローチを提供する手法にも触れられているが、量子加速について定量的な議論は、なされていない。
🐾7 古典ではÕ(mn+n2.5)、量子ではÕ(√m・poly(n,1/ε))である。ここで、mは、線形不等式の数。nは、変数の数。εは、精度である。
2⃣ 非凸最適化
まず本論文では、非凸最適化の高速化には明確な限界がある、ことを述べる。そして、古典アルゴリズム及び量子アルゴリズムの実行時間は、ともに、変数の数nの多項式時間であることを述べる。つまり、量子加速は期待できない(と理解)。
(3) 混合整数計画問題(Mixed Integer Programming:MIP)
量子加速の可能性が触れられているに過ぎない。例えば、MIPの主要な古典的解法である「分枝限定法及び切除平面法」を量子化『できれば』、2次加速が期待できる。量子化できたとしても、量子ビット数と誤り耐性に対する要件が大幅に増加するので、誤り耐性量子コンピューターでなければ対処できない(だろう、とする)。また、一部のケースでは超2次加速が『可能かもしれない』と示唆されているらしい。
(4) 動的計画問題
動的計画問題は、大規模な最適化問題をより小さな問題に分割し、問題全体の結果を再帰的に組み合わせる、数学的最適化手法である。動的計画問題アルゴリズムは、ベルマン方程式を繰り返し最適化することで構成される。
動的計画問題の量子加速は、グローバー探索アルゴリズムをベースにしているため、最大で2次加速である。なお、グローバー探索アルゴリズムは、総当たり探索に対する2次加速を数学的に保証しているに過ぎない。このため、総当たり探索以上の古典アルゴリズムが存在する問題に対して、2次加速は保証されない。つまり、極端に言うと、加速がないケースも考えられる。
(5) 最適制御
ハミルトン-ヤコビ-ベルマン(HJB)方程式の解が与えられると、最適制御ポリシーを計算することができる。 ここで、いきなり連続時間を捨てて、離散時間に絞る。離散時間ダイナミクスの HJB 方程式は、動的計画問題のベルマン方程式と見なすことができるため、HJB 方程式を強化学習と結び付けることができる。強化学習の方策が特定の条件を満たす限り、2次加速が可能であること及び、2次以上の加速は不可能であることが証明されている。
不自然なほど特殊な仮定をすれば、2次以上の加速も可能らしいが、実用的なインパクトを与えル@可能性は低いだろうと、書かれている。
【4】ベンチマーク
本論文は、量子最適化ベンチマーク問題の有望な候補として、以下を上げている。
(1) 最大独立集合、(2)ナップサック問題、(3)自己相関の低いバイナリ シーケンス、(4)二次割り当て問題、(5)スポーツのスケジュール作成問題、(6)スピングラス問題。
【5】感想
【1】を見ても、しょっぱい感じが拭えない。最適化アルゴリズムにおける量子加速の見込みは、厳しい。現状、2次加速のみ確認されているが、エンドツーエンドで(つまり状態準備から測定までひっくるめて)考えると、加速が確認できる保証はない。
2次加速を越えるための理論武装の材料が、「未解決の問題」と「ヒューリスティクス」という主張は、R&D予算配分の意思決定者からすると、納得し難いように思われる。
🐾8 独量子S/WスタートアップKIPU quantumが開発したアルゴリズム(プロトコル)。断熱量子計算の一種。詳細は、こちらを参照。
🐾9 最適化計算向けに、東芝が開発した量子インスパイアード古典アルゴリズム。
🐾10 トロピカル代数に基づくテンソルネットワーク。(半環上で定義された)トロピカル・テンソルネットワークが、スピングラスの基底状態エネルギー計算に使われている。トロピカル代数は、足し算が最大値に、掛け算が足し算になる代数。故に、引き算が定義できない。故に速攻で、トロピカル演算は体(field)を成さない(し、環すらダメ。半環ならOK)。ちなみに、トロピカル代数を使った代数幾何学は、トロピカル幾何学と呼ばれる。
🐾11 ポーランドの量子S/Wスタートアップ。NP完全問題を量子コンピューターで解くアルゴリズムを開発することが、該社の最終目標。
【尾註】
(*1 Pranav Chandarana et al.、Digitized-Counterdiabatic Quantum Algorithm for Protein Folding、https://arxiv.org/pdf/2212.13511.pdf)
(*2 鳩村拓矢・高橋和孝、断熱ショートカットとダイナミクスの構造、日本物理学会誌Vol.1,No.1,2021、pp.1-9、http://www.brl.ntt.co.jp/people/hatomura.takuya/STAreview_Butsuri_author_ver.pdf)
*62→159 Nathan Haboury et al.、A supervised hybrid quantum machine learning solution to the emergency escape routing problem、https://arxiv.org/pdf/2307.15682.pdf
*63 一般的な機械学習の文脈では、周波数改良型ルジャンドル記憶モデル(Frequency improved Legendre Memory)をFiLMと呼ぶかもしれない。
*64 武田 麻奈・柳井 啓司、単一画像変換ネットワークによる複数タスクと組み合わせタスクの学習、https://mm.cs.uec.ac.jp/pub/conf20/200803takeda_1.pdf
*65 ハーバード大学のスピンオフとして2017年に設立された、米国の量子ソフトウェア・スタートアップ。創立者は、変分量子固有値ソルバー法(VQE)を開発した、アラン・アスプ=グジック(当時ハーバード大学。その後、加トロント大学に移籍)。23年9月、SPAC上場することを発表した。
*66 Manuel S. Rudolph et al.、Synergistic pretraining of parametrized quantum circuits via tensor networks、https://www.nature.com/articles/s41467-023-43908-6
*67 "最も賢い億万長者"チャールズ・サイモン(と妻)が設立した、サイモンズ財団により、2016年に設立された研究所。計算天体物理学センター、計算生物学センター、計算数学センター、計算神経科学センター、計算量子物理学センター、科学コンピューティング・コア、という6つのセンターがある。
*68 William Huggins et al.、Towards Quantum Machine Learning with Tensor Networks、https://arxiv.org/pdf/1803.11537.pdf あるいは、https://iopscience.iop.org/article/10.1088/2058-9565/aaea94
*69 James Dborin et al.、Matrix Product State Pre-Training for Quantum Machine Learning、https://arxiv.org/pdf/2106.05742.pdfあるいは、https://iopscience.iop.org/article/10.1088/2058-9565/ac7073/meta(オープンアクセス)
*70 Manuel S. Rudolph et al.、Decomposition of Matrix Product States into Shallow Quantum Circuits、https://arxiv.org/pdf/2209.00595.pdf あるいは、https://iopscience.iop.org/article/10.1088/2058-9565/ad04e6
*71 西野友年・大久保毅、解説|テンソルネットワーク形式の進展と応用、日本物理学会誌 Vol. 72, No.10, 2017,pp.702-711、https://www.jstage.jst.go.jp/article/butsuri/72/10/72_702/_pdf
*72 Supplementary Information for “Synergistic Pretraining of Parametrized Quantum Circuits via Tensor Networks”、https://static-content.springer.com/esm/art%3A10.1038%2Fs41467-023-43908-6/MediaObjects/41467_2023_43908_MOESM1_ESM.pdf
*73 大久保龍之介、変分量子アルゴリズムの応用と限界、https://www.icepp.s.u-tokyo.ac.jp/download/master/m2021_okubo.pdf
*74 Edward Grant et al.、AN INITIALIZATION STRATEGY FOR ADDRESSING BARREN PLATEAUS IN PARAMETRIZED QUANTUM CIRCUITS、https://arxiv.org/pdf/1903.05076.pdf あるいは、https://quantum-journal.org/papers/q-2019-12-09-214/pdf/
*75 Ankit Kulshrestha & Ilya Safro、BEINIT: Avoiding Barren Plateaus in Variational Quantum Algorithms、https://arxiv.org/pdf/2204.13751.pdf
*76 秋本洋平、「進化計算の新時代」特集号|Evolution Strategiesによる連続最適化ーCMA-ESの設計原理と理論的基盤、システム/制御/情報、Vol.60,No.7,pp.292-297,2016、https://www.jstage.jst.go.jp/article/isciesci/60/7/60_292/_pdf/-char/ja
*77 マルチバースは、スペインの量子ソフトウェア・スタートアップ。他は、ナバーラ大学、Donostia International Physics Center、バスク科学財団。全てバスク地方にある。
*78 Borja Aizpurua et al.、Hacking Cryptographic Protocols with Advanced Variational Quantum Attacks、https://arxiv.org/pdf/2311.02986.pdf
*79 所属機関としては、英サウサンプトン大学も含まれるが、研究者は全て中国人。
*80 ZeGuo Wang et al.、A Variational Quantum Attack for AES-like Symmetric Cryptography、https://link.springer.com/article/10.1007/s11432-022-3511-5
*81 同、https://arxiv.org/pdf/2205.03529.pdf
*82 Pablo Bermejoet al.、Improving Gradient Methods via Coordinate Transformations:Applications to Quantum Machine Learning、https://arxiv.org/pdf/2304.06768.pdf
*83 https://it.impress.co.jp/articles/-/24341
*84 Shungo Miyabe et al.、Quantum Multiple Kernel Learning in Financial Classification Tasks、https://arxiv.org/pdf/2312.00260.pdf
*85 Arash Afkanpour et al.、Alignment Based Kernel Learning with a Continuous Set of Base Kernels、https://sites.ualberta.ca/~szepesva/papers/alignment_based_kernel_learning.pdf
*86 Gian Gentinetta et al.、Quantum Kernel Alignment with Stochastic Gradient Descent、https://arxiv.org/pdf/2304.09899.pdf
*87 Mohammad Hassan Hassanshahi et al.、A quantum-enhanced support vector machine for galaxy classification、https://arxiv.org/pdf/2306.00881.pdf
*88 他の機関は以下の通り:ラ・プラタ国立大学(アルゼンチン)、ストラスクライド大学(英)、スイス連邦工科大学ローザンヌ校、ドノスティア国際物理センター財団(スペイン)、ウォータールー大学(加)、ベクター研究所(加)、チュラロンコン大学(タイ)、カリフォリニア工科大学(米)
*89 M. Cerezo et al.、Does provable absence of barren plateaus imply classical simulability? Or, why we need to rethink variational quantum computing、https://arxiv.org/pdf/2312.09121.pdf
*90 M. Cerezo et al.、Variational quantum algorithms、https://arxiv.org/pdf/2012.09265.pdf
ちなみに、藤井啓祐教授(大阪大学)も著者に名を連ねている。
*91 Matthew L. Goh et al.、Lie-algebraic classical simulations for variational quantum computing、https://arxiv.org/pdf/2308.01432.pdf
*92 Hsin-Yuan Huang et al.、Predicting Many Properties of a Quantum System from Very Few Measurements、https://arxiv.org/pdf/2002.08953.pdf
*93 G. To´th et al.、Permutationally Invariant Quantum Tomography、https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.105.250403
*94 Phasecraftは、マテリアル・サイエンスに、まずは特化する意向を持っている。具体的には、電池素材設計、強相関電子系モデルである「フェルミ・ハバード・モデル」及び、量子スピン液体等のシミュレーション技法を研究している。量子ビットに電子を効率的に符号化すると特許を持つ。平行して、「量子ハードウェアのノイズとエラーを低減する」プロジェクト(加ウォータールー大学、加ペリメーター理論物理学研究所、ユニバーシティ・カレッジ・ロンドンとともにQuantum Benchmarkが参画。21年5月発表)を主導している。
*95 Laura Clinton et al.、Towards near-term quantum simulation of materials、https://www.nature.com/articles/s41467-023-43479-6
*96 https://static-content.springer.com/esm/art%3A10.1038%2Fs41467-023-43479-6/MediaObjects/41467_2023_43479_MOESM1_ESM.pdf
*97 arXivでは22年11月10日に公開されている:https://arxiv.org/pdf/2205.15256.pdf
*98 Ian D. Kivlichan et al.、Quantum Simulation of Electronic Structure with Linear Depth and Connectivity、https://arxiv.org/pdf/1711.04789.pdf
*99 Bryan O’Gorman et al.、Generalized swap networks for near-term quantum computing、https://arxiv.org/pdf/1905.05118.pdf
*100 他はTuring Quantum(量子光方式の量子コンピュータを開発しているとされるスタートアップ)。
*101 Xi-Jun Yuan et al.、Quantum Support Vector Machines for Aerodynamic Classification、https://spj.science.org/doi/epdf/10.34133/icomputing.0057
*102 李家賢一、翼型上に生ずる層流剥離泡、日本流体学会誌 ながれ22(2003)、pp.15-22、https://dl.ndl.go.jp/view/prepareDownload?itemId=info%3Andljp%2Fpid%2F8765679&contentNo=1
*103 吉田憲司、[連載]温故知新(先人の教え)~低速の翼に関する話題~ 第2回 翼型の失速タイプに関する考察、日本流体学会誌 ながれ41(2022)、pp.293-300、https://www.nagare.or.jp/download/noauth.html?d=41-4_293_rensai3.pdf&dir=136
*104 中野朋則、博士論文(2006)‖NACA0018翼から発生する離散周波数騒音に関する流体力学的研究、https://niigata-u.repo.nii.ac.jp/record/27574/files/16_0007.pdf
*105 松尾裕一、航空RANS解析で使われる乱流モデルの特性評価、日本流体学会誌 ながれ35(2016)、pp.237-245、https://www.nagare.or.jp/download/noauth.html?d=35-3_tokushu4.pdf&dir=102
*106 https://spj.science.org/journal/icomputing
*107 https://spc.jst.go.jp/hottopics/1901/r1901_jiang.html
*108 アカデミアは、トロント大学の他に米国の「ハーバード大学とスタンフォード大学」及びクロアチアのザクレブ大学。病院及び研究機関は、「米セントジュード小児研究病院、米ダナ・ファーバー癌研究所、クロアチアのMediterranean Institute for Life Sciences、加ベクター研究所、カナダ先端研究機構」。
*109 AI創薬スタートアップ。香港とニューヨークに拠点を置く。創業者はラトビア人で、モスクワ大学で物理学と数学の博士号を取得している(出所:https://forbesjapan.com/articles/detail/68724)。がんや特発性間質性肺炎などの治療薬を開発している。
*110 Mohammad Ghazi Vakili et al.、Quantum Computing-Enhanced Algorithm Unveils Novel Inhibitors for KRAS、https://arxiv.org/pdf/2402.08210.pdf
査読済論文(25年1月22日)は、こちら(タイトルが少し変更されている)➡Quantum-computing-enhanced algorithm unveils potential KRAS inhibitors、https://www.nature.com/articles/s41587-024-02526-3.pdf
*111 低分子化合物による医薬品の割合は、約60%である。出典:高橋洋介、新薬における創薬モダリティのトレンド 多様化/高分子化の流れと、進化する低分子医薬、https://www.jpma.or.jp/opir/news/064/06.html
*112 千見寺浄慈、タンパク質―化合物複合体情報を用いたバーチャルスクリーニング手法、生物物理 56(4)、pp.221-223(2016)、https://www.jstage.jst.go.jp/article/biophys/56/4/56_221/_pdf
*113 例えば、ボストン・コンサルティング・グループ、創薬における AI の可能性を解き放つ現状、障壁、将来の機会、2023年6月、https://cms.wellcome.org/sites/default/files/2023-06/unlocking-the-potential-of-AI-in-drug-discovery_report.pdf
*114 https://www.activemotif.jp/blog-kras-research-drug-discovery
*115 佐藤亮、KRASG12C阻害剤として世界で初めて臨床で効果を示した AMG-510 の創製、ファルマシア Vol.56 No.12 2020、https://www.jstage.jst.go.jp/article/faruawpsj/56/12/56_1131/_pdf
*116 https://scholar.harvard.edu/gorgulla/virtualflow-project
*117 アステラス製薬が、AWS上でVirtual FlowやEnamineのREALライブラリーを使って仮想スクリーニングを行ったというデモ資料がある:https://d1.awsstatic.com/local/health/20211118%20drug%20discovery%20EIB%20seminar%20session%204.pdf
*118 M. Cerezo et al.,Challenges and opportunities in quantum machine learning、https://www.nature.com/articles/s43588-022-00311-3
ちなみに、上記論文は、「御手洗光祐、最近の展望|量子コンピュータを用いた機械学習、応用物理第93巻第1号(2024)」で読むことが勧められている"最近の"(と言っても2022年であるが・・・)レビュー論文である。
*119 M. Cerezo et al.,Cost Function Dependent Barren Plateaus in Shallow Parametrized Quantum Circuits、https://arxiv.org/pdf/2001.00550.pdf
*120 モデルナとIBMは、2023年4月20日に、「モデルナのmRNAの研究およびサイエンスの進展・加速に向け、量子コンピューターや人工知能などの次世代技術を探索することで合意した」と発表している。出所)https://newsroom.ibm.com/2023-04-20-Moderna-and-IBM-to-Explore-Quantum-Computing-and-Generative-AI-for-mRNA-Science
*121 Dimitris Alevras et al.、mRNA secondary structure prediction using utility-scale quantum computers、https://arxiv.org/pdf/2405.20328
*122 木谷哲夫、イノベーション全史、中央経済グループパブリッシング、2024
*123 後藤直義,フィル・ウィックハム、ベンチャー・キャピタリストー世界を動かす最強の「キングメーカー」たち、ニューズピックス、2022
*124 Panagiotis Kl. Barkoutsos et al.、Improving Variational Quantum Optimization using CVaR、https://arxiv.org/pdf/1907.04769v3
*125 Samantha V. Barron et al.、Provable bounds for noise-free expectation values computed from noisy samples、https://arxiv.org/pdf/2312.00733
*126 Ken M. Nakanishi et al.、Sequential minimal optimization for quantum-classical hybrid algorithms、https://arxiv.org/pdf/1903.12166
*127 Tudor Giurgica-Tiron et al.、Digital zero noise extrapolation for quantum error mitigation、https://arxiv.org/pdf/2005.10921
*128 Zhenyu Cai et al.、Quantum Error Mitigation、https://arxiv.org/pdf/2210.00921
*129 Hakan Doga et al.、A Perspective on Protein Structure Prediction Using Quantum Computers、https://pubs.acs.org/doi/full/10.1021/acs.jctc.4c00067
*130 https://newsroom.clevelandclinic.org/2024/06/06/cleveland-clinic-ibm-and-the-hartree-centre-collaborate-to-advance-healthcare-and-life-sciences-through-artificial-intelligence-and-quantum-computing
*131 Milan Kornjaca et al.、Large-scale quantum reservoir learning with an analog quantum computer、https://arxiv.org/pdf/2407.02553v1
*132 犬伏正信・吉村和之、小特集2|リザバーコンピューティングに適した力学系の特性と構造、電子情報通信学会誌 Vol. 102, No. 2, 2019、pp.114-120、https://www.rs.tus.ac.jp/~inubushi/inubushi_rc.pdf
*133 犬伏正信、令和元年度 未来研究ラボシステム 研究成果報告書|:非線形時空間ダイナミクスを用いた機械学習:“乱流”は音声を認識するか?、https://mrl.es.osaka-u.ac.jp/uploads/2020/06/0dbbda8a2a319509789f8ef0cbb0088e682115e5.pdf
*134 栗田多喜夫、サポートベクターマシン入門、https://home.hiroshima-u.ac.jp/tkurita/lecture/svm.pdf
*135 University of the Basque Country
*136 Archismita Dalal et al.、Digitized Counterdiabatic Quantum Algorithms for Logistics Scheduling、https://arxiv.org/pdf/2405.15707
*137 茨木俊秀、実践講座|スケジューリング問題の新解法(1):スケジューリング問題と計算の複雑性、オペレーションズ・リサーチ、1994年10月号、pp.541-546、https://orsj.org/wp-content/or-archives50/pdf/bul/Vol.39_10_541.pdf
*138 樋野励、解説|ジョブショップスケジューリング問題の数理表現、システム/制御/情報、Vol.61,No.1,pp.14-19、2017、https://www.jstage.jst.go.jp/article/isciesci/61/1/61_14/_pdf
*139 米ノースカロライナ州立大学、米パシフィック・ノースウェスト国立研究所
*140 Michael Ragone et al.、A Lie algebraic theory of barren plateaus for
deep parameterized quantum circuits、https://www.nature.com/articles/s41467-024-49909-3
*141 丸山耕司、チュートリアル|量子力学と情報処理(IV)、応用数理、VOL.19、No.4、 Dec.2009、https://www.jstage.jst.go.jp/article/bjsiam/19/4/19_KJ00005931651/_pdf
ちなみに、webページへの検索(ctrl+f)が、正確に機能していない(?)ようである。
*142 上田正仁、物理数学Ⅲ講義ノート、平成28年10月25日、http://cat.phys.s.u-tokyo.ac.jp/lecture/MP3_16/maph3.pdf
*143 中濱良祐、対称性とリー群・リー環の表現論、https://www.rd.ntt/research/JN202407_27016.html
*144 Enrico Fontana et al.、Characterizing barren plateaus in quantum ansätze with the adjoint representation、https://www.nature.com/articles/s41467-024-49910-w
*145 例えば→上曽山健介、量子機械学習におけるデータ符号化由来の勾配消失に関する研究(令和6年修士論文)、https://www.icepp.s.u-tokyo.ac.jp/download/master/m2023_kamisoyama.pdf ←改めて[*239]を採番⤵
もしくは→中川裕也、第66回物性若手夏の学校・集中ゼミ講義ノート:Noisy Intermediate-Scale Quantumデバイスを用いた物性シミュレーションの可能性、物性研究・電子版 Vol.10, No.1, 101217(2022年3月号)、https://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/269387/1/bussei_el_101217.pdf
あるいは→Nicholas Hunter-Jones、Unitary designs from statistical mechanics in random quantum circuits、https://arxiv.org/pdf/1905.12053
*146 Sebastian V. Romero et al.、Bias-Field Digitized Counterdiabatic Quantum Algorithm for Higher-Order Binary Optimization、https://arxiv.org/pdf/2409.04477
*147 Bi-Ying Wang et al.、Speedup of high-order unconstrained binary optimization using quantum ℤ2 lattice gauge theory、https://arxiv.org/pdf/2406.05958
*148 佐野友貴、QUBO 問題の高次自動変換による量子ビット数削減技術の開発―量子ビット・ゲート数削減による組合せ最適化の高速化―、https://www.ipa.go.jp/jinzai/mitou/target/2022/m42obm000000hfh8-att/seikashosai-yn-2.pdf
*149 Alejandro Gomez Cadavid et al.、Bias-field digitized counterdiabatic quantum optimization、https://arxiv.org/pdf/2405.13898
*150 柳井毅、非経験的密度行列繰り込み群に基づく多参照電子状態理論、Mol. Sci. 8, A0069 (2014)、pp.1-11
*151 曽田繁利、2D-DMRG説明資料、https://aics.riken.jp/labs/cms/DMRG/2D-DMRG.pdf
*152 https://kipu-quantum.com/kipu-quantums-algorithms-for-basf-logistics-optimization/
*153 https://kipu-quantum.com/kipus-roadmap/
*154 Amira Abbas et al.、Challenges and opportunities in quantum optimization、https://www.nature.com/articles/s42254-024-00770-9
おもしろいことに上記論文はnatureのサイトではアクセス制限があってオープンには閲覧できないが、IBMのサイト(https://research.ibm.com/publications/challenges-and-opportunities-in-quantum-optimization)では閲覧可能である(ただし、読めるだけで、ローカルに保存はできない)。
*155 Amira Abbas et al.、Challenges and opportunities in quantum optimization、https://arxiv.org/pdf/2312.02279
*156 https://www.technologyreview.com/2024/11/07/1106730/why-ai-could-eat-quantum-computings-lunch/
*157 David Gamarnik、The Overlap Gap Property: a Topological Barrier to
Optimizing over Random Structures、https://arxiv.org/pdf/2109.14409
*158 渡辺治、計算の複雑さの平均的な解析について、数理解析研究所講究録 943 巻 1996 年、pp35-44、https://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/0943-4.pdf
*159⤴
・・・
*211 Pranav Chandarana et al.、Runtime Quantum Advantage with Digital Quantum Optimization、https://arxiv.org/pdf/2505.08663
・・・
*215 J.Pawłowski et al.、VeloxQ: A Fast and Efficient QUBO Solver、https://arxiv.org/pdf/2501.19221
*216 Philipp Hanussek et al.、Solving quantum-inspired dynamics on quantum and classical annealers、https://arxiv.org/pdf/2509.03952
・・・
*236 Martín Larocca et al.、A Review of Barren Plateaus in Variational Quantum Computing、https://arxiv.org/pdf/2405.00781
*237 Christoph Dankert et al.、Exact and approximate unitary 2-designs and their application to fidelity estimation、https://journals.aps.org/pra/abstract/10.1103/PhysRevA.80.012304
*238 中田芳史、量子情報とユニタリデザイン~t-wise independenceの量子拡張~、https://www.ieice.org/ess/sita/forum/article/2025/202508201038.pdf
*239 上曽山健介、量子機械学習におけるデータ符号化由来の勾配消失に関する研究(令和6年修士論文)、https://www.icepp.s.u-tokyo.ac.jp/download/master/m2023_kamisoyama.pdf
*Supp-1 Abebech Jenber Belay et al.、Deep Ensemble learning and quantum machine learning approach for Alzheimer’s disease detection、https://www.nature.com/articles/s41598-024-61452-1#Sec9
*Supp-2 Marek Grzesiak & Param Thakkar、Flood Prediction Using Classical and Quantum Machine Learning Models、https://arxiv.org/pdf/2407.01001
*Supp-3 https://multiversecomputing.com/resources/multiverse-computing-deploys-quantum-technology-to-predict-floods