MerchantBank Consulting
サブページ画像

そこ曲がったら、量子坂?(上り) part2

Ⅻ 経路探索で量子古典ハイブリッドNNが古典NNより優れていると主張する論文 

【0】はじめに
 スイスの量子関連企業テラ・クォンタムと、ホンダ・リサーチ・インスティテュートのドイツ拠点は、 量子古典ハイブリッド・アルゴリズムを、自然災害発生時における緊急避難経路最適化に適用した。その結果を論文[*62](以下、本論文)にて発表した(23年7月28日@arXiv)。
 本論文は、古典アルゴリズムであるダイクストラ法が、経路最適化アルゴリズムとして優れている(唯一、最適性が保証されている)ことを認めた上で、欠点を指摘し、その解決を図っている。強調すべき点は、本論文は、古典アルゴリズムを「高速化した」という内容ではなく、「精度が向上した」と主張している点である。

【1】本論文の主張
 自然災害時における緊急避難経路最適化に、量子古典ハイブリッド・ニューラルネットワーク(HQNN)を適用し、古典アルゴリズムよりも『精度が7%高かった』と主張した(詳細は、後述)。

【2】事前整理
(1) ダイクストラ法とFiLM
 ダイクストラ法は、与えられた出発地と目的地の間の最短経路を見つけるアルゴリズムで、1956年に、Edsger Dijkstraによって開発(59年に発表)された。数学的に言うと、経路(走行経路、飛行経路etc)のネットワークは、有向無巡回グラフG(V,E)で表すことができる。Vは頂点(ノード)、Eは辺(エッジ、枝とも言う)である。ダイクストラ法は、隣接する頂点を繰り返し探索し、各頂点への最短経路と距離を更新することで動作する。目的地までの最短経路が見つかったか、2頂点間に経路がないと判断された時点で、探索プロセスは終了する。
 ダイクストラ法が最短経路を探索するには、グラフに関する大域的な情報(正確な最新のグラフ情報)が必要である。しかし、自然災害発生後の緊急避難時に、そのような情報の入手は非現実的である。そこで、本論文では、局所的な情報のみを必要とするアプローチ-具体的には、FiLM(Feature-wise Linear Modulation)を導入する[*63]。FiLMは後述する。
 なお、「ヒィボナッチ・ヒープ優先キューを使用したダイクストラ法を上回る量子アルゴリズムは存在しない」、「それに対するチャレンジ」については、こちらを参照。

(2) 問題設定
 FiLMを説明する前に、問題設定を簡単に説明する。最適な経路とは、言うまでもなく、移動時間が最も短い避難経路のことである。なお、自然災害は地震を想定しており、具体的な対象地域は、北海道の古平町のようである。
1⃣ 概要
 ①地震発生地域1 か所と、②すべての交通が向かうべき、事前定義された出口位置が複数、設定される。出口付近の交通量は、時間の経過とともに増加し、その結果、出口付近での移動時間が長くなる。地震は発生後も継続的に道路に影響を及ぼし、被害等を被った道路付近での移動時間が長くなることが想定される。各車両は、そのような結果を反映した、周囲の最新の交通情報にアクセスできる。現在の交通状況に応じて、自動車は時間ステップごとにルート計画を変更できる。車は出口地点に到着し、市街地から離れると避難したとみなされる。
 グラフデータには、道路の種類に応じて、制限速度が含まれている。欠落している場合は、公称値を追加する。特定の道路の移動時間は、正規分布に基づいてランダムサンプリングした公称値を基に計算する。 出口ポイントは、グラフ上のいくつかの戦略的な場所で、均一にサンプリングされる。グラフは出口付近で変化するし、地震もグラフに影響を与える。
2⃣ 少しだけ数学的な定式化
 グラフ上でエッジの重み(移動時間)が増加する状況をシミュレートするために、3 つのメカニズムが使用される。最初のメカニズムは、地震初期の静的な影響をシミュレートする。2 番目のメカニズムは動的に変化する影響をカバーする。 3 番目のメカニズムは、出口ノードの周囲のダイナミクス、つまり進行中の交通量をシミュレートする。これら 3 つのメカニズムによって、エッジの重みが更新される。詳しい定式化は割愛する。

(3) マルチタスク学習とFiLM[*64]
 FiLMについて、説明する。元々、FiLMは画像認識タスクを念頭において導入された手法のようである。引用した参考論文のタイトルもFiLM:Visual Reasoning with a General Conditioning Layerである。本論文では、経路探索最適化に適用した(という点で新しいのであろう)。
 画像変換タスク等において、マルチタスク学習が使用されている。マルチタスク学習は、関連する複数の課題を同時に学習させることで、課題間の共通の要因を獲得し、課題の予測精度を向上させるとみなされている。
❶ 共有エンコーダとタスク固有のデコーダで構成されるマルチタスク学習ネットワークでは、タスクごとにデコーダやネットワークの一部を入れ替える必要がある。
❷ 共有エンコーダと共有デコーダで構成される単一のネットワークによるマルチタスク学習は、タスクごとに異なるアクティベーション分布(隠れ層各ノードにおける出力の分布)を持っているため、その対応が必要になる。つまり、タスクごとに異なる分布に調整する必要が生じる。その調整を行う手法の一つがFiLMである。以後、❷=FiLMと考える。
 FiLM は、タスク条件信号に基づいたアフィン変換を、ネットワーク(全体)に適用することで、ネットワーク(全体)の出力に与える影響を学習し、タスクごとに異なるアクティベーション分布に調整する。より具体的に言うと、タスク条件信号を入力として「スケーリング係数」および「シフト係数」を出力する関数を、それぞれ学習する。スケーリング係数とシフト係数は、ネットワークのアクティベーションを線形結合の形で調整する。スケーリング係数は、アクティベーションに掛け合わされ、シフト係数は、その掛け合わされた結果に足される。線形結合の文脈で言うと、スケーリング係数は「傾き」で、シフト係数は「切片」である。

【3】本論文のモデル・・・HQNN
 本論文のモデルは、「自動車の現状と地図情報に基づいて、グラフ上の次のノードを、繰り返し選択する」量子古典ハイブリッド・ニューラル ネットワーク(HQNN)である。HQNNは、地図の限られた部分にのみアクセスしながら(局所的な情報のみを使用しながら)、ダイクストラ法を近似する。
(1) 本論文のアイデア
 ダイクストラ法が最短経路を探索するには、グラフに関する大域的な情報(正確な最新のグラフ情報)が必要であった。地震時の緊急避難経路最適化の文脈で言うと、地震が道路に与える影響等に応じて、ネットワーク(グラフ)全体の大域的な情報を、グラフに反映させてグラフを変更する必要がある。そして、その度にアルゴリズムを実行して、エッジの重み(移動時間)が動的に変化するグラフに、アルゴリズムを適応させる必要がある。本論文では、これをノードごとのダイクストラ法と呼称している。
 本論文のモデルは、この「ノードごとのダイクストラ法」をニューラルネットワークで近似した学習モデルである。まず【2】(3)❶(以下、❶。❷も同様)で説明した、⓵タスクごとにデコーダやネットワークの一部を入れ替える必要がある、共有エンコーダとタスク固有のデコーダで構成されるマルチタスク学習ネットワークと、⓶ノードごとのダイクストラ法には、アナロジーがあると考えたのだと推量している。つまり、⓵~⓶である。なお番号を振りすぎて、逆に分かり辛いかもしれないが、❶=⓵である。
 マルチタスク学習に、唐突感があるかもしれないが、これは次のように考えれば良いだろう:状況が時々刻々と変化する中で最適避難経路を探索するタスクを、特定時刻の状況における「単一探索タスク」の集合と考えれば、これはマルチタスク学習と見做せる。
 閑話休題。そして、画像タスクではないけれど、❶≈❷を期待できるだろうから、⓶~⓵(=❶)において、❶を❷で代替すると、⓶~❷が成り立つ。❷=FiLMは、局所的な情報がネットワーク全体の出力に与える影響を学習するから、⓶~❷が成り立つならば、大域的な情報がなくても(局所的な情報のみでも)⓶を、それなりに近似できるのでは?・・・というのが、本論文の本質的アイデアだと推測している。

(2) アーキテクチャ
 古典的に FiLMを実装したニューラルネットワーク(古典NN)と、変分量子回路(VQC)でFiLMを実装した量子ニューラルネットワーク(量子NN)とを、”単純に”合体させたニューラルネットワークが、本論文の量子古典ハイブリッド・教師あり学習モデル(HQNN)である。ノードごとのダイクストラ法によって生成されたラベルを使用して、学習が行われる。ちなみに、HQNNは、QMware ハイブリッド量子シミュレーターで学習された。
0⃣ HQNNに対する入力データは、㊀地震座標、㊁開始ノードの座標、㊂目的地ノードの座標、 ㊃エッジ端の座標、㊄所要移動時間、㊅エッジ媒介中心性、㊆ユークリッド距離、㊇コサイン距離、である。ここで、㊆と㊇は、ヒューリスティック指標として導入されている。ドライバーが、あるノードからどこに移動するかを決定するときに、尋ねる可能性のある質問ⅰ 及びⅱ への回答を符号化した:
ⅰ)目的地に近づいていますか?
ⅱ)私は目的地に向かっていますか?
 質問に対する回答は、現ノードとターゲット・ノード間の、ユークリッド距離とコサイン距離として、それぞれ符号化される。
1⃣ HQNNにおける古典NN
 古典NNは、 2 つの主要なコンポーネントに分かれる。地震座標を入力として受け取る FiLM 層と、標準的なニューラル ネットワーク層である。FiLM 層は、重要な役割を果たし、標準ニューラルネットワークの最後から 2 番目の層と直接インターフェイスする。FiLM 層は、変調エージェントとして機能し、並列ネットワークから得られる中間表現に対して要素ごとのスケーリングとシフト(→傾きを掛けて、切片を足す)を実行する。本論文の文脈で具体的に述べると、FiLM 層は地震座標を利用し、標準ニューラル ネットワーク層を変調して、後続する経路選択ノードの予測をガイドする。
2⃣ HQNNにおける量子NN
 残りの2つの量子ビットは、データ再アップロード回路を用いて地震座標を処理する。地震座標を処理する2つの量子ビットと、5つの量子ビットは量子もつれを生成する。し、次に学習可能層が追加され、最後に主要な量子ビットがZ基底で測定される。これらの出力は、古典的なFiLMニューラルネットワークの出力と線形に結合され、結果を生成する。
 特徴量と地震座標を入力として受け取り、変分量子状態の期待値のリストを出力する量子NNは、FiLM層とメイン層という 2 つの主要な部分で構成される。量子NNには、7つの量子ビットが存在する。FiLM層には2量子ビット、メイン層には5量子ビットが割り当てる。
 FiLM層は 2 つの量子ビットで構成され、パウリ Z 回転ゲートを使用したデータの再アップロードを使用して地震座標を受け取る。符号化ゲートは、回路内で 5 回繰り返される。そして、パウリ X 回転ゲートと CNOT ゲートから成り、4つの部分層をもつ「基本エンタングラー層」を使用して、変分層を構成する。
 量子NNでは、最初に、変分層が基底状態に適用される。次にパウリZ回転層が、最初の特徴サブベクトルを符号化し、その後に別の変分層が続く。このプロセスは、すべてのサブベクトルがシステムで符号化されるまで、複数回繰り返される。
 次に、2 つの FiLM 量子ビットは、CNOT ゲートと、状態内のすべての量子ビットに適用される NOTゲートを使用して、メイン層と量子もつれを生成する。メイン層に割り当てられた5つの量子ビットは、「走行経路の開始ノード、現ノード、終了ノードの特徴や隣接ノードに関する情報」等、システムの主な特徴を符号化している。
 最後に、別の変分層が量子ビットに適用され、変分回路の最終的な量子状態が出力される。測定は、z基底(計算基底)で行われる。
†ニューラルネットワークの学習プロセスでは、同じデータを繰り返し使用するが、量子データは複製できない(複製不可原理の)ため、この繰り返し使用ができない。つまり、古典データを量子データに変換して行う量子NNでは、毎回データを変換しなければならない。

(3) モデルのパラメータ 
1⃣ 全体
 ・バッチサイズ:2000
 ・入力数(メイン):34
 ・入力数(FiLM):2
 ・出力数:5
 ・学習率:10-3
 ・重み減衰率:10-5
 ・エポック数:100
 ・オプティマイザー:Adam
 ・活性化関数:Softmax
 ・損失関数:交差エントロピー
2⃣ 古典NN
 ・学習率の初期スケーリング係数:1
 ・学習率の最終スケーリング係数:0.1
 ・学習率:10-3
 ・隠れ層の数:100
 ・活性化関数:ReLU
 ・ドロップアウト率:0.5
3⃣ 量子NN
 ・量子ビット数:7
 ・学習率:10-3
 ・変分層の数:4
 ・反復数:1

【4】比較試験(シミュレーション)の結果
 古典NNと量子NNで構成されるHQNNの古典部分(古典NN)と、HQNNを比較している(ようである)。選抜メンバーとアンダーメンバーのミーグリ完売表を比較しているみたいで、ズルい感じもする。
(1) 評価指標
 2 つの指標に基づいて評価している。最初の指標は、有効性の指標であり、到達率と呼称している。具体的には、モデルが脱出路を見つけることに成功する=モデルが、グラフの開始ノードから終了ノードまでの経路を見つけることに成功する、確率を定量化した指標である。これは、ランダムな開始ノードと終了ノードのペアをサンプリングし、これら 2 つのノード間の接続経路が見つかる確率を評価することによって計算される。
 2 番目の指標は、経路の品質を評価するもので、精度と呼ばれる。これは、「ノードごとのダイクストラ法」の結果と比較して、経路に沿った合計移動時間を計量した指標である。

(2) 比較結果及び実行時間
1⃣ 古典NN モデルは精度 87%、到達率 92%である(本論文では95%とあるが、誤植と思われる)。HQNN モデルの精度は94%、到達率95%である。 また、古典NNは、ノードごとのダイクストラ法よりも良い(移動時間が短い)経路を予測する割合が15%であった。HQNNは、この値が25%である。  本論文では、(本論文の)古典NN及びHQNNが、ノードごとのダイクストラ法よりも良い結果を生み出す理由を、次のように説明している:ノードごとのダイクストラは、グラフ上の現在の移動時間に基づいて、移動する次のエッジを常に選択する。 これにより、次のタイムステップの移動時間が変化した場合に、最適とは言えない選択が生じる可能性がある。(本論文の)古典NN及びHQNNは、動的に時間発展するグラフの存在に関する知識を獲得し、より堅牢な選択を行うことができるようだ。
2⃣ ノードごとのダイクストラ法の実行時間は、O(エッジ数+ノード数log(ノード数))である。一方で、HQNNの実行時間は、O(ノード数)である。

【5】分析及び調査
(1) HQNNにおける古典NNと量子NNの貢献度分析
 古典NNと量子NNの出力を統合したHQNNの最終・全結合層の重み行列を解析した結果、古典NNも量子NNも、HQNNの出力に対して同等の寄与を示していた。ある意味、不思議な結果である。
 なお、量子NNは、その部分行列要素間の遷移が、より滑らかであった。また、古典NNよりも、量子出力からの寄与が、より均一に分布していた。

(2) 量子回路削減可能性調査・・・ZX計算
 量子FiLM回路に対してZX計算を行った結果、削除できる冗長性が含まれている可能性が見つかった。例えば、最後の変分層の、最初の量子ビットに適用される RX回転に対応する学習可能パラメータは、モデルの出力に影響を与えなかった。つまり、削除できる。
※ ZX計算については、こちらも参照。

(3) 量子回路の学習可能パラメータ調査・・・フィッシャー情報量
 フィッシャー情報量を用いて、量子回路(量子FiLM層)の学習可能パラメータを調査している。
 まず、FiLM層の学習可能なパラメータ数を増加させる要因として、以下の2つをあげている:㊀各変分層の表現力を高める内部変分層の数、㊁FiLM 層のフーリエ表現力を高める外部データ再アップロード層の数。そして、ゼロに近い固有値に遭遇する可能性(学習可能性が低下する可能性)は、学習可能パラメーターの数とともに増加する傾向を発見した。つまり、学習可能パラメーターの数が増えると、学習可能性が低下する傾向を発見した。

【5】考察
 本論文で、少しややこしいのは、HQNNを構成する古典NN単体と、HQNNを比較している点である。ベースラインは「ノードごとのダイクストラ法」であり、古典NNとHQNNのそれぞれが、どれだけ良い近似となっているかを調べると共に、古典NNとHQNNの比較を行っている。
 そして、HQNN>古典NNであるけれども、古典NNと量子NNの貢献は同程度という、ややこしい結果となっている。つまり、量子アルゴリズムと古典アルゴリズムの比較ではなく、量子と古典を単純に混ぜ合わせると、古典を上回ったという結果である。なお、HQNNは、いわゆる量子古典ハイブリッド・アルゴリズムとは異なる。ハイブリッドは、量子アルゴリズム(≃変分アルゴリズム)を古典コンピュータを使って、効率的に実行するアルゴリズムである。

XⅢ 「不毛な台地」を回避したと主張する論文 
【0】はじめに
 NISQ(Noisy Intermediate-Scale Quantum)デバイスにおける、量子アルゴリズムとして開発された変分量子アルゴリズム(VQA)は、テンソルネットワーク(TN)を用いた古典的手法で、効率的に模擬できるケースが多い。これはTNが、パラメータ化された量子回路(PQC)を、効率的に記述できるからである。加えてTNは、GPU等の強力な古典ハードウェア・アクセラレータ上で展開することが、可能であり、増々パワーアップしている。このような事情から、”量子対古典という対抗図式”では、量子不利という状況にあった。
 実質的なVQAの創始者であるザパタ・コンピューティング[*65]は、逆にTNを利用することで、古典シミュレーションを超える性能をVQAに付与するフレームワークを、論文[*66](以下、本論文)にて紹介した(23年12月15日@nature communications)。このフレームワーク自体は、カリフォルニア大学バークレー校及びフラット・アイアン研究所[*67]の研究者によって、2018年に提案[*68]されている。本論文の位置づけは、同フレームワーク及びその他先行研究で提案されている、各種手法の改良と考えられる。量子>古典、という内容の論文ではない。

【1】本論文の主張
 本論文は、㊀TNを使ったPQCの初期化フレームワークは、㊁ランダムにPQCを初期化するフレームワーク及び、恒等写像に近い値でPQCを初期化するフレームワークに比べて、(1)精度が高く、(2)不毛な台地を回避できる、と主張する。本論文では㊀を(改良したフレームワークを)、「相乗的学習フレームワーク」と呼んでいる。

【2】事前整理
(0) 相乗的学習フレームワークの技術要素と先行研究との関係 
 本論文で紹介されている、「TNを使ってPQCを初期化することで、VQAの性能を向上させる」という発想は、[*68]で提案されたものである。具体的な学習方法は、[*69]で扱われた手法を拡張したものである。[*69]では、結合次元2 の学習済・行列積状態(MPS)が、2 量子ビット・ゲートに変換(分解)され、機械学習タスクの量子回路を初期化するために使用された。
 しかし[*69]では、MPSの結合次元は2に制限されていたため、量子モデルの改善に使用できる古典リソースの範囲に制限が課されていた。本論文では結合次元を拡張し、スケールアップを可能にした。なお、MPSをPQCに変換する手法は、[*70]における手法を採用している。

(1) テンソルネットワーク
 N 量子ビットの波動関数は、すべての軸が次元 2 を持つ N 次テンソルによって自然に表現される。テンソルネットワークとは、多数の「縮約」演算を通して、複数のテンソルが繋がった構造(ネットワーク)を指す。「縮約」とは何か?を演算として説明すると、「テンソルに付いている添え字で、同一の添え字については和をとる演算」という(木で鼻を括った)説明になる。
 量子シミュレーションへの応用の場合、TN の頂点数 N は量子コンピューターの量子ビット数と等しく、N頂点グラフのトポロジーによって、忠実に再現できるもつれの形式が決まる。

(2) 行列積状態
 本論文では、TNとして、計算的に扱いやすい行列積状態(MPS)を採用している。その単純さにもかかわらず、十分な結合次元を備えた MPS は、あらゆる N 量子ビットの波動関数をシミュレートできる(非常に多くの自由度を補助変数に割り当てれば、任意の波動関数をMPSで表現することが「原理的には」可能である[*71])。このため、多くの TNアプリケーションにとって、自然な最初の選択肢となる。
 MPS の表現力は、結合次元 χ(隣接するテンソル間の共有リンクの次元)によって決まる。量子状態のもつれが大きくて、MPS で正確に再現できない場合は、特異値分解(SVD)を使用して、ほぼ最適な忠実度で低ランクのMPS近似を見つけることができる。

(3) MPSからPQCへの変換
 PQC と TN のパラメータは、原則として自由に相互変換できる。ただし実際には、TN→POCの変換では、いくつかの”問題”が発生する。一般的なケースではMPS は、マルチレベル量子ビット(qudit)ゲートに変換される。変換対象はquditゲートではなく、2量子ビット・ゲートが好ましい。この理由は、「マルチ量子ビット・ゲートは計算オーバーヘッド大きく、制御するために必要なパラメータ数も多い(指数関数的に増加する)」からである。
 [*70]で開発されたMPS分解プロトコルを使用して、MPSをPQCに変換すると、SU(4)ゲートが生成される。SU(4)†1ゲートは、KAK分解†2により、1量子ビットの回転ゲートU(2)とエンタングルゲート(XX、YY、ZZ:2量子ビット・ゲート)に分解することができる(この分解は、一意ではない)。つまり、最終的には、1量子ビット・ゲートと2量子ビット・ゲートの組で表されるため、計算オーバーヘッドや制御の”問題”は、ないと考えられる。
†1 SU(4)を、記号としてそのまま読むと、次数4の特殊ユニタリー群を意味している。特殊な、4×4ユニタリー行列のリー群とも言い換えられる。「特殊な」とは、行列式=1を意味している。ちなみにSU(4)は、15次元の単純リー群になる。n量子ビットの(回転)操作は、SU(2n)の元で表される。つまり、SU(4)ゲートは、2量子ビットに対する回転操作ゲートということになる。
†2 KAK分解とは、(半単純)リー群を、部分群の積で分解することである。Kは極大コンパクト部分群を指しており、 Aは可換部分群を指す(人名の頭文字というわけではないが、"可換"なのでアーベルを意識して、Aなのだろう)。

【3】相乗的学習フレームワークについての整理 
(1) 相乗的学習フレームワークのアーキテクチャ 
 概略を述べる。まず、量子回路を、TN(正確には、MPS)で表現する。次に、MPSからPQCへの(高忠実度)変換を利用して、MPSをPQCで近似表現する。最後に、量子ゲート(SU(4)ゲート)を追加して、量子回路を拡張する。そして、このように拡張された量子回路は、より優れたパフォーマンスを可能にする(と主張している)。
 MPSからPQCへの変換によって、MPSは、2量子ビット・ゲートで構成されるk個の線形層に分解される。SU(4)ゲート で構成される最終層(k+1番目の層)のみ、全結合層である。SU(4)ゲートのパラメーターは、変換された量子状態を大幅に変更しないように、平均0、標準偏差0.01の正規分布からサンプリングされる。なお、追加ゲート(この場合は、SU(4)ゲート)の配置は、問題に依存する可能性が高い(ので、本論文のアーキテクチャに汎用性は期待できない)。

(2) 初期化と精度、初期化と「不毛な台地」の関係 
 VQAは、最適化問題として定式化されている。最適化の対象となるパラメータは、PQC(一般にはアンザッツと呼ばれることが多い)に実装される。本論文は、PQCの初期化(PQCのパラメータの初期化)がVQAに与える影響は、広く研究されていない、と述べている。
1⃣ 精度との関係について
 量子化学の分野では、ハートリー・フォック(HF)法または、結合クラスター法(に属する手法)に基づく、PQCの(古典的)初期化を使用して、より高精度の基底状態エネルギーが得られることが示されている。これは、変分法において、真の波動関数に近い試行関数を選ぶと、エネルギー固有値を精度よく計算できることを考えると、肚に落ちるだろう。
 量子化学とは異なり、量子機械学習の分野では、PQC初期化と精度の関係は、あまり研究されていないと、本論文は述べている。つまり、量子化学分野におけるHF状態のような、適切な初期状態が、量子機械学習の分野には、見当たらないという指摘であろう。本論文は、TN(正確には、MPS)を使って求めたパラメータを、初期パラメータとして使うことを提案している。

2⃣ 「不毛な台地」との関係について
 PQC初期化には、「不毛な台地(バレン・プラトー:barren plateauの”正式”な和訳)」対応策としての側面もある。[*71]では、「(全てをランダム初期化するのではなく、あくまで)一部をランダム初期化、残りを『PQCが恒等演算子』となるように選ぶ」パラメータ初期化が紹介されている。ちなみに[*71]で引用されている論文[*74]の著者は、英量子ソフトウェア・スタートアップのRahkoとケンブリッジ・クォンタム・コンピューティングの研究者他である。面白いことに、両社とも既に買収されている。[*75]では、ベータ分布を使ってPQC初期化を行う方法が提案されている。ベータ分布のハイパーパラメータは、入力データから推定される。つまり、入力データによってPQCのパラメータ初期値を変更することで、不毛な台地を回避するという戦略である。
 不毛な台地とは、言うまでもなく、VQAにおける悪名高い、勾配消失が発生するという困り事である。もう少し正確に述べると、「(十分表現力の高いPQCを使うと、)量子ビット数を増加した場合に、コスト関数の勾配が指数関数的に減衰する」という問題を指す。本論文では、本論文が提案するMPS初期化は、不毛な台地を回避できる、ことを示す。

(3) MPSの学習
0⃣ 前振り
 本論文では、相乗的学習フレームワークの利点を評価するために、生成モデリング・タスク(量子機械学習アプリケーションのイメージであろう)と、基底状態探索タスク(量子化学アプリケーションのイメージであろう)、を検証対象として採用している。生成モデリング・タスクでの目標は、学習データによって与えられる離散測定結果の分布(確率分布)関数を、再現する方法を学習することである。コスト関数には、カルバック・ライブラ(KL)情報量を使用している。KL情報量は、確率分布の差異を測る尺度として一般的に使用される。
 基底状態探索タスク の目標は、基底状態のエネルギーを探索することである。コスト関数は、ハミルトニアンの期待値である。
1⃣ テンソルネットワーク・ボルンマシン
 MPSの学習には、量子回路ボルンマシン(QCBM)のTN等価物であるテンソルネットワーク・ボルンマシン(TNBM)が使用される。QCBMは、量子生成モデルの一例である。確率モデルを表現したり、確率分布をサンプリングすることができる。あくまで特定のタスクやデータセットを、古典コンピューターよりも効率的に処理することができる。TNBMは、TN によってパラメータ化された波動関数を使用して、確率分布を表す生成モデルである。TNBMもQCBMと同様に、ボルン則を使用して、古典的な確率分布をパラメータ化している。
 QCBM は完全な量子モデルであり、複雑なデータセットに存在する相関をより適切に再現できる(はずだ)が、現在の量子ハードウェア(NISQデバイス)の性能によって制限されている。TNBM は、強力なGPUの能力を最大限に活用できるが、古典的な意味で効率的にシミュレートできる、量子もつれの程度によって表現力が基本的に制限される。
2⃣ 生成モデリング・タスク用MPSの学習
 生成モデリング・タスク用MPSは、コスト関数をKL情報量とする、勾配降下法によって学習される。勾配計算は、密度行列繰り込み群(DMRG)法を用いて行われた。特異値分解(SVD)切断における、しきい値は、結合次元に応じて、5×10-5まで適応的に設定した。学習率は、0.01とした。
3⃣ 基底状態探索タスク用MPSの学習
 基底状態探索タスク用MPSは、コスト関数をハミルトニアンの期待値とする、勾配降下法によって学習される。勾配計算は、密度行列繰り込み群(DMRG)法をベースとする計算法を用いて行われた。MPSの計算にはITensorライブラリが使用された。

【4】相乗的学習フレームワークの検証結果
(1) データセット
0⃣ 前振り 
 前述の通り、相乗的学習フレームワークの利点を評価するために、1⃣生成モデリング・タスクと、2⃣基底状態探索タスク、を検証対象として採用した。
1⃣ 生成モデリング・タスク 
 生成モデリング・タスク の検証には、2つのデータセットが用いられている。それぞれN=12の長さを持つビット列である。❶1 つ目は、カーディナリティ・データセット。これは、全てのビット列が、N/2のカーディナリティをもつデータセット(0の個数と1の個数が、それぞれN/2であるビット列、を意味していると理解)。❷2 つ目は、2次元ピクセル・レイアウト上に、水平または垂直の線を含む、バー&ストライプ(BAS)画像のデータセット。❶は、隣接するビット間の相関が中程度に低いデータセットであるのに対し、❷は、同じ行または列内のビット間に強い相関を示すデータセットであるため、2次元相関データセットになる。
 ❶には k = 3 層を使用した。❷には、k = 4 層を使用した。
2⃣ 基底状態探索タスク
 このタスクでは、N = 9 量子ビットを使用し、3 × 3 の長方形格子上の 2次元ハイゼンベルグ模型のハミルトニアン期待値を最小化する。また、このタスクでは、k = 4 層を使用した。

(2) 比較対象
 ⓵ランダム初期化されたPQC、⓶恒等写像に近い値で行う初期化(near-identity初期化)されたPQCが、⓷MPSで初期化されたPQCと比較される。⓶は長いので、以下、NI初期化PQCと呼ぶ。本論文で行われたNI初期化を具体的に述べると、「平均0、標準偏差0.01の正規分布からサンプリングされたパラメータによる初期化」である[*72]。
 MPSの結合次元χは、生成モデリング・タスクのカーディナリティ・データセットでは、「2,4,5次元」が用いられた。BASデータセットでは、「2,4,8次元」が用いられた。基底状態探索タスクでも、「2,4,8次元」が用いられた。

(3) 計算環境とハイパーパラメータなど[*72] 
1⃣ 計算環境 
 PQC最適化計算は、全てQulacs量子回路シミュレータで実行された(残念ながら、NISQデバイス実機ではない)。Qulacsは世界最速であり、オープンソース。インターフェースは、ザパタのORQUESTRA®プラットフォームが使用された。
 最適化アルゴリズムには、 CMA-ESアルゴリズムが採用された。CMA-ESは、「変数分離不能、悪スケール、多峰性といった困難さをもつ連続最適化問題に対して、効率的な探索法として知られている」。CMAとは、Covariance Matrix Adaptationの略であり、正規分布の共分散行列を学習する。ESとは、Evolution Strategyの略であり、正規分布を用いた多点探索を行う進化計算手法である[*76]。
2⃣ ハイパーパラメータなど 
 生成モデリング・タスクの場合、初期ステップサイズは1.0×10-2が選ばれた。基底状態探索タスクでは、ランダム初期化とNI初期化については、1.0×10-2が選ばれた。MPS 初期化では、χ = 2 →7.5×10-3、χ = 4 →5.0×10-2、χ = 8 →2.5×10-2が選ばれた。
 損失許容値は、5×10-4に設定し、ステップ間の損失値の差がこの閾値以下にとどまった場合、最適化を停止した。

(4) 結果
1⃣ 相乗的学習フレームワークの精度 
 以下の結果は、試行を6回行い、そのうち最善の値を採用している。カーディナリティ・データセットを用いた生成モデリング・タスク(❶)及びBASデータセットを用いた同タスク(❷)では、最適化計算の反復回数(❶で~1万回、❷で1万5千回)を増やしても、ランダム初期化(⓵)は精度が低い。定量的に述べると ⓵ は、❶及び❷で、KL情報量が100オーダーで停滞してしまう。NI初期化(⓶)は、❶で0.5×10-1程度まで、❷では1.0×10-1程度まで、KL情報量が低減する。
 一方、MPS初期化(⓷)は、結合次元χ=2でも、❶で1.0×10-2未満に至る。❷では0.5×10-2程度まで、KL情報量が低減する。❶ではχ=4,5でも、それほど大差はないが、❷ではχ=4,5だと反復回数ほぼ1万回で、KL情報量は、1.0×10-3まで低減する。
  基底状態探索タスク(❸)では、⓵の誤差は1.0×10-1程度である。ここで誤差とは、ハミルトニアン期待値と基底エネルギーの厳密解との差、を意味している。⓶とχ=2の⓷とは、差がほぼない。0.5×10-1程度である。χ=4及び8では、1.0×10-2程度となる。
 MPS初期化(つまり、ここで言う⓷)は、従来手法(ランダム初期化⓵及び、NI初期化⓶)に比べて、高精度である、と結論としている。

2⃣ 相乗的学習フレームワークは、不毛な台地を回避できるか? 
 相乗的学習フレームワークは、不毛な台地を回避できるか?という設問に答えるために、量子ビット数を増加させたときに、コスト関数の勾配がどのように推移するかを評価した。勾配は、有限差分法(2次中心差分)で計算している。刻み幅は、10-8。まず、データセットとして、カーディナリティ・データセットを使用した(❶)。結果は、以下の通りである:
 ランダム初期化 の場合(⓵)、回路の深さ(1層~15層)と量子ビット数(6量子ビット~20量子ビット)が増加するにつれて、勾配分散は指数関数的に減衰する。MPS初期化(⓷)でχ=2の場合、減衰は回避されている。回路深度に関しては、深くなるにつれて(むしろ)、勾配分散は増加した。①は1000回、②は100回試行した。勾配分散の値は、試行した結果の中央値である。
 次にBASデータセット(❷)を用いて、量子ビット数を最大100まで増やして、勾配の大きさを評価した。結果は、以下の通りである:
 ランダム初期化(⓵)の場合、勾配の大きさは指数関数的に減少していく。最終的に100量子ビットで、勾配の大きさは1.0×10-24を下回る。MPS初期化(⓷)の場合、χ=2では100量子ビットで、1.0×10-2程度に踏みとどまる。χ=4では 、量子ビット数が100まで増えても、1.0×100程度をずっと保っている。<br>  MPS初期化(つまり、ここで言う⓷)は、ランダム初期化(⓵)とは異なり、不毛な台地を回避している、と結論としている。さらに、それは量子ビット数100にまで及び、スケーラビリティを確保した、としている。

【5】考察
(1) 本論文の検証は、量子シミュレータによるもので、NISQデバイス実機によるものではない。
(2) 本論文は、量子>古典という内容ではない。VQAにおける困り事「不毛な台地」を回避したという内容である。それはPQCの初期化を工夫することで実現した。具体的には、古典的手法を使って学習したパラメータの初期値を使って、初期化を行った。あくまで、VQAを対象として(古典アルゴリズムを対象としていないという意味)、初期化手法の巧拙によって、「不毛な台地」を回避している。その結果、精度も向上した、という内容である。
(3) 先行研究[*69]では『2より大きな結合次元のMPSを学習する場合、厳密でないコンパイル・プロセスを通じて誤差が蓄積し、回路の初期化を悪化させる』と書かれている。つまりχ>2の場合、MPSからPQCへの変換はうまくいかない、として結合次元の拡張が行われなかった。
(4) 本論文では、MPSからPQCへの変換において現れるSU(4)ゲートを、U(2)ゲート×4とエンタングル・ゲート×3に分解し、トポロジーは全結合層として、1層だけ最後に追加した。その新しい「アーキテクチャ」の採用により、結合次元の拡張=量子ビット数のスケールアップを実現させた、という点がオリジナリティになるのだろう。
(5) 良い初期状態から、良い最終結果(精度)が出るのは、当然と感じるかもしれない。当然、良い初期状態を得るために、手間暇をかけている。一見、凡庸な内容に見えるが、初期化の工夫で「不毛な台地」を回避できることは、それほど自明ではないだろう。つまり、凡庸ということはないのだろう。

XⅣ 小規模な既存暗号は、従来の想定よりも脆弱、と解釈できる論文 
【0】はじめに
 スペインのマルチバース・コンピューティング他[*77]は、既存暗号の解読に関する論文[*78](以下、本論文)を発表した(23年11月6日@arXiv)。既存暗号とは、直接的には(シミュレーションで実証したのは)、共通鍵方式のDES、AES、Blowfishであるが、公開鍵方式のRSAあるいは、(暗号資産、ブロックチェーンやデジタル認証で広く使われる)ハッシュ関数も含まれる。本論文は、小規模な既存暗号は、既に効率的に解読できる、と解釈できる。効率的に解読できるとは、十分短い時間で、解読できるという意味である。小規模とは、パソコンレベルの通信で扱われる暗号を、パソコンで解読するという意味である。小規模レベルであれば、既存暗号は、従来考えられているよりも脆弱と判断されるだろう。
 本論文は、改良した変分量子攻撃アルゴリズム(VQAA)を紹介している。以下、これを改良VQAAと呼ぶ。中国の研究者によるオリジナルVQAAに必要な量子リソースを大幅に減らしたことで、NISQデバイスであっても、実装は可能とする。より重要なポイントは、テンソルネットワークを使ってVQAAを脱量子化することで、純粋に古典的に、既存暗号の解読が可能かもしれないという示唆であろう。

【1】本論文の主張
(1) 鍵長10ビットのS-DESでは、総当たり攻撃で必要な反復回数の「約1/62」に相当する反復回数で、暗号鍵を見つけることができた。
(2) 鍵長16ビットのS-AESでは、総当たり攻撃で必要な反復回数の「約1/33」に相当する反復回数で、暗号鍵を見つけることができた。
(3) 鍵長32ビットのBlowfishでは、総当たり攻撃で必要な反復回数の「約1/24」に相当する反復回数で、暗号鍵を見つけることができた。

【2】事前整理
(1) オリジナルの変分量子攻撃アルゴリズム(VQAA) 
0⃣ 前振り 
 清華大学他に属する中国の研究者[*79]は、DESやAESといった対称鍵暗号に対する効率的な攻撃方法「変分量子攻撃アルゴリズム(VQAA)」を提案する論文を22年7月[*80](arXiv[*81]では22年5月)に発表した。[*80]では、S-DESに対するVQAAためのアンザッツとコスト関数が設計され、VQAAがグローバー・アルゴリズムよりも高速であることを示した、と主張する(この主張自体は、おかしな主張ではない。グローバー・アルゴリズムは、どんな場合でも最速であることが保証されているわけではない。とは言え、主張の真偽は、吟味すべきだろう)。そして、エンタングルメントが高速化に重要な役割を果たしていることを示した。
1⃣ VQAAの概要 
 大まかに言うと、VQAAは次のように動作する:まず、既知の暗号文を、正則グラフで構成される古典的ハミルトニアンの基底状態で符号化する。さまざまな鍵を試して、そのような基底状態を見つけ、変分パラメーターを最適化することで、暗号鍵を取得する。
2⃣ VQAAにおける変分量子回路の役割
 VQAAにおいて、変分量子回路(VQC)(パラメータ化量子回路(PQC)あるいはアンザッツとも呼ばれる)の役割は、平文を暗号化する鍵の(重み付けされた)重ね合わせに相当する、量子状態を生成することである。平たく言えばVQC は、すべての可能な暗号鍵の線形結合を生成する。この暗号鍵の重ね合わせは、暗号化プロセスへの入力として機能する。つまり、入力された平文に対して、考えられる暗号文の重ね合わせを、鍵ごとに生成するために使用される。
3⃣ 暗号鍵の取得
 暗号鍵の取得は、最適化計算の枠組みで、次のように行われる:(未知の)暗号鍵に対して、測定された「暗号文」と、期待される(既知であると仮定される)正しい「暗号文」の差が計算される。この計算は、ハミング距離を使用して行われる。 ハミング距離は、2つのバイナリ文字列 aとbとの差、つまりそれらが異なるビット数を測定する。たとえば、a = [10101]、b = [11000] の場合、ハミング距離は、3である(2番目、3番目、5番目の数字が、aとbで異なるため)。なお、二次多項式・高次多項式・pノルムを含む、いくつかの関数を検証した中で、最も効果的であったため、ハミング距離が選ばれている。
 ハミング距離の計算は、勾配降下法を使用して更新される。勾配降下法(GD)はネルダー・ミード(NM)法を比較された後に、選択されている(必要な反復回数が、GDでは30~60回程度、NMでは、400回程度だったため)。最後に、正しい鍵の確率が増幅される。
4⃣ オリジナルVQAAに対するツッコミ 
 オリジナルVQAAは、暗号鍵に対して、N量子ビットを割り当てる。さらにデータ(メッセージ)に対して、N’量子ビットを割り当てる。これが冗長であると看破したことが、本論文の起点である。

(2) 座標変換を用いた勾配降下法の改良 
 本論文では、(暗号鍵探索用)最適化計算の反復回数を、減らすための特別な施策が施されている。これは本論文とほぼ同じメンバーが開発した手法を利用している(論文[*82]にて、23年4月arXivにて発表)。この手法は、コスト関数自体に依存する、パラメータ空間内の余分な方向を追加することで、より効率的な探索を可能にする、変分回転に似た座標変換に基づく手法である。この手法により、「不毛な台地」や局所極小の影響を緩和することが可能、と主張している。
 具体的に[*82]では、「超球面座標アプローチと、平面回転法」と呼ぶ手法を提案している。どちらの方法も、コスト関数を含む変数を高次元空間に拡張する。これにより、よりスムーズな、場合によってはより効率的な最適化が可能になる。
1⃣ 超球面座標アプローチ
 このアプローチを文章で説明しても分かり辛いが、まずは文章で説明する。コスト関数(直交座標系で曲線として表現される)と直交座標によって(n + 1)次元空間内の点 P が定義される。このPは、勾配ゼロの平らな台地に、佇んでいる。次に、座標は (n+1) 次元の超球面座標{θ, r}に変換される。最適化はこの新しい超球面座標に対して実行し、パラメータが更新される。
 やっていることは実にシンプルである。平らな台地に佇む点Pを、とにかく、平らな台地から脱出させるために、(極座標をイメージして)角度θだけ回転させてやる。そうすると点P’ができる(P’は、コスト関数曲線上にはない)。このP’を、コスト関数を表す曲線に、戻してやる。[*82]ではこれをcollapsed戻し、と呼んでいる。collapsed戻しされたP’はコスト関数曲線上ではPcとなる。こうして、めでたく、勾配ゼロの平らな台地から脱出から脱出することができた。
 この方法で、収束に必要な反復回数が減ることが示されている([*82]では、反復回数が12%~84%減った例が示されている)。
2⃣ 平面回転法 
 このアプローチも文章で説明すると分かり辛いが、まずは文章で説明する。平面回転法も、コスト関数と直交座標によって定義される (n+1) 次元空間内の点 P から始まる。もちろん、このPも平らな台地に佇んでいる。ただし、超球面座標に変換する代わりに、軸の (n + 1) 次元の回転が実行される。
 本質的に、超球面座標アプローチとやっていることは変わらないが、 平面回転法は、コスト関数曲線を置き去りにして、直交座標系だけをθだけ回転させてやる。置き去りにされた、元のコスト関数曲線上のPは、平らな台地に佇んでいたが、回転した直交座標系では、そうではない(そうならないように回転させたので、当然!)。めでたく、勾配ゼロの平らな台地から脱出から脱出することができた。

(3) 非直交符号化 
 非直交符号化は、次のような符号化である:相互に、完全には直交しないが、最大限直交する量子状態のセットを使って、古典的情報を符号化する。 お馴染みのブロッホ球を使って説明すると、ブロッホ球に内接する三角錐の4つの頂点を使って、符号化する。これは、1量子ビットあたり4個の非直交状態を使用する、という意味である。つまり、暗号鍵の複数古典ビット(4ビット)を、1量子ビットに符号化することで、量子アルゴリズムの実行に(量子回路に)必要な量子ビット数を減らすことができ、シミュレーション時間も短縮される。
 非直交符号化では、計算基底で測定する代わりに、アルゴリズム内の量子測定により単一量子ビットの量子トモグラフィーが実行される。トモグラフィ-の結果から、非直交状態を区別し、対応する古典的構成が特定される。

(4) S-DES、S-AES、Blowfish 
 本論文で検証対象となっている共通鍵暗号について、簡単にまとめる。
1⃣ S-DES 
 S-DES(Simplified Data Encryption Standard)は、1970年代にIBM によって開発され、広く使用されているデータ暗号化標準(DES)アルゴリズムの簡易バージョンである。S-DES は、一連の置換および置換技術を使用して、平文を暗号文に、またはその逆に変換する。S-DESプロトコルは、 8 ビットのデータ・ブロックで動作し、10ビットの鍵長を使用する(ため、教育目的や基本的な暗号化タスクに適している)。
2⃣ S-AES
 Simplified Advanced Encryption Standard(S-AES)は、Advanced Encryption Standard(AES) アルゴリズムを教育用に適応させたもので、S-DES よりも複雑である。S-AES は、通常は 8 ビットのデータ・ブロックで動作し、通常は 16 ビットの鍵長を使用する。S-AES は、現代の対称鍵暗号化の中核概念である置換順列ネットワークを採用して、平文を暗号文に、またはその逆に変換する。
3⃣ Blowfish 
 Blowfish は対称鍵ブロック暗号・暗号化アルゴリズムであり、そのシンプルさと効率性で知られている。 固定サイズのデータ・ブロックで動作し、32 ビットから 448 ビットの範囲の鍵長をサポートするため、さまざまなセキュリティ要件に適応できる。鍵のセットアップ・フェーズは、特に高速であり、迅速な暗号化と復号化のプロセスが可能になる。Blowfish は古い(1993年考案)暗号であるにもかかわらず、その堅牢なセキュリティ機能と速度により、今でも広く使用されている(らしい)。
 Blowfishは、「誕生日攻撃(Birthday Attack)に対して弱い」と考えられているにもかかわらず、この暗号に対する効果的な解読法は、現在まで見つかっていない。

【3】本論文のオリジナリティ
(1) 基本アイデア 
 改良VQAAは、オリジナルVQAAに対する、次の洞察に基づいていて導出された:精度を損なうことなく、より少ない量子ビット数と回路深さで実装することが可能。オリジナルVQAAが、暗号鍵にN量子ビット+メッセージにN’量子ビットを必要としたのに対して、改良VQAAは、暗号鍵に対してのみN量子ビットを必要とし、メッセージには古典ビットを割り当てる(従って、古典コンピュータを使って、純粋に古典的に処理される)。こうして、量子ビット数(及び回路の深さ)の削減を達成している。
 なお、先の基本アイデアに加えて、「非直交符号化」を使用して、必要な量子ビット数をさらに減らしている。また、最適化計算に要する反復計算の回数を減らすために、超球面座標アプローチと平面回転法を適用している。

(2) 追加のアイデア 
 本論文では、VQAAを進化させるであろう手段を、以下の通り、いくつも列挙している。中でも、テンソルネットワークを使った”古典的”VQAAを開発するというアイデアは、興味深い。なお、1⃣と2⃣は対称鍵に限定されるので、公開鍵暗号が主流であることを鑑みると、実効性は乏しいかもしれない。
1⃣ 対称鍵プロトコルの対称性:
 S-DES、S-AES、Blowfish などの対称鍵プロトコルに対してVQAAは、暗号化と復号化の間の対称性をまったく使用していない。この対称性により、より効率的な攻撃が可能になると予想される。
2⃣ 二重最適化:
 対称鍵プロトコルの場合、暗号文と平文の間の関連性の割合を考慮することで、暗号化プロセスまたは復号化プロセスのどちらかに、さらに焦点を当てることができる。このため、最適化に向けた追加の手がかりが得られる。
3⃣ バッチ処理とツリー構造の最適化:
 古典シミュレーションの場合、バッチ処理は、複数のCPU(あるいはGPU)にわたる並列実行を可能にする。このため、古典処理を併用する改良VQAAでは、並列処理によって、計算時間短縮が期待できる。ツリー構造の最適化は、好ましい極小値から最適化プロセスを開始することで、効率的な探索が期待できる。
4⃣ ビットレベルの相関:
 ビット間のさまざまなタイプの相関に敏感なコスト関数を設計することも可能である。これは、変分パラメータの更新を強化するために、量子回路内のより複雑な構造の探索を動機づける。
5⃣ 変分パラメータの埋め込み:
 変分パラメータを暗号化ブロック内に直接組み込むことで、より効率的に暗号鍵探索が実行できることが期待される。ただし、量子ビット数と計算コストが嵩むという代償が伴う。
6⃣ テンソル ネットワーク:
 VQAAは、量子回路を使用して変分状態を生成することに依存している。しかし、必ずしも量子回路を使う必要はない。変分量子回路の代わりに、変分テンソルネットワーク・アンザッツを使用して、完全に古典的な変分テンソルネットワーク攻撃を開発することもできる。
 NISQデバイスは、デバイス・ノイズを考慮すると、量子誤り緩和策を使っても、量子シミュレータと同じ結果は出せないから、古典的にVQAAを実装するというアプローチは、興味深い。

【4】比較結果
 ベンチマークとして、総当たり攻撃とオリジナルVQAAが採用されている。改良VQAAについては、暗号鍵探索用最適化計算の反復回数を、減らすための施策が施された2種類と、同施策が施されていない、計3種類が検証対象とされている。具体的には、❶超球面座標を使用したケース、❷平面回転法を使用したケース、❸プレーンなケース、の3種類である。
 評価指標は、1⃣正しい鍵を回復するために必要な平均反復回数、および2⃣計算時間である(Blowfishは1⃣のみ)。
(0) 計算環境
 Python 環境(バージョン 3.9.10)で実行される量子コンピューティング・フレームワークとして、主に Qiskit(バージョン 0.42.1)が利用された。ハードウェアは、Apple M1 Pro プロセッサと 16 GB のメモリを搭載した MacBook Pro 16 インチ 2021 モデルが採用された(OSは、 MacOS Ventura 13.0.1)。H/Wは、パソコンである、というのがポイントである。

(1) S-DESで正しい暗号鍵を見つけるために必要な平均反復回数の比較 
 オリジナルVQAAと改良VQAA の両方について、100 回の実行を実施した。各実行では、異なるペア(平文、暗号文)が使用され、S-DES を使用して暗号化された。目的は、暗号化に使用された暗号鍵を回復することである。なお、成功率は常に100% である。
1⃣ 反復回数 
 総当たり攻撃では、鍵を回復するために29 = 512 回の反復が必要である。ここで、9=10ー1であり、10(ビット)は、S-DESの鍵長である。
 オリジナルVQAAは平均約 35.27 回の反復で暗号鍵を見つけることができる。改良VQAA は、ほぼ同じ反復計算回数で、暗号鍵を見つけることができる。ただし、オリジナルVQAでは 18 量子ビット(鍵に10量子ビット、平文に 8量子ビット)が必要であるのに対し、改良VQAAでは、実行に必要な量子ビットは、5 量子ビットのみである。
 ただ、グローバー・アルゴリズムによる量子総当り攻撃では、18 ~ 25 回の反復で済むので、プレーンな改良VQAAよりも、効率的である。ただし、反復回数と実行時間は、”施策を施す”ことにより、さらに減少する。超球面座標アプローチを適用した場合、反復回数は約 8.3 回にまで減少する。およそ1/62である。
2⃣ 計算時間 
 改良VQAA+超球面座標アプローチは(100 回の)シミュレーションを、約134.3秒で完了する。オリジナルVQAAは26,926 秒(およそ7.5 時間)を要する。※これは、パソコンで実行した結果である。

(2) S-AES
 (通常は)16ビットの鍵長を使うS-AESに対して、オリジナルVQAAでは、鍵に16 量子ビット、平文に16 量子ビットが必要となる。これは、実装が困難なレベルであり、S-DES の場合とは異なり、S-AESに対して、オリジナルVQAAは実行されていない。一方、改良VQAAは、1量子ビットあたり4個の非直交状態の非直交符号化を使用しているため、4 量子ビットのみを必要とする(4×4=16)。つまり、実行が可能である。なお、成功率は常に100% である。
1⃣ 反復回数 
 総当たり攻撃では、鍵を回復するために215 = 32,768 回の反復が必要である。ここで、15=16ー1であり、16(ビット)は、S-AESの鍵長である。
 改良VQAA+超球面座標アプローチでは、982.67 回の反復を必要とした。これは、およそ1/33であり、S-DESの場合よりは性能が落ちている。
2⃣ 計算時間 
 改良VQAAは、約8,241.01秒を要した。※これは、パソコンで実行した結果である。

(3) Blowfish
 Blowfishでも、総当たり攻撃と改良VQAAの比較を行った。総当たり攻撃の場合、鍵長を32ビットとすると、232-1=31 = 2,147,483,648回の反復が必要である。改良VQAAは、89,460,336 回の反復で暗号鍵を見つけることができた。この改良VQAAは、3 層のユニタリ・ゲートを持つ、非直交符号化された8 量子ビット量子回路で実行された。1量子ビットあたり4個の非直交状態の非直交符号化を使用しているため、8 量子ビットで賄える(8×4=32)。

【5】感想 
(1) 改良VQAAのシミュレーションを、高度な暗号(2048ビットのRSA)に対して、スパコンwith GPUというハードウェアで行うと、どうなるだろうか。興味がある。ちなみに、富士通は23年1月、次のような発表を行っている(22年12月末に、中国の研究者がRSA2048をNISQマシンで解読できると主張する論文を発表していた):2048ビットのRSA暗号を解読するためには、約104日必要である。ハードウェア要件は、量子ビット数約1万、ゲート数約2兆2300億である[*83]。
(2) テンソルネットワークを使って、どの程度のパフォーマンスが出せるのか、にも興味がある。

XV 量子カーネル法の精度を向上させたと主張する論文
【0】はじめに
 今回取り上げた論文は『金融×量子機械学習×精度向上』という内容であり、「速度で、量子>古典」という論文ではない。あくまで量子機械学習(具体的には、量子カーネル法)の精度が向上した、という内容である。米IBM[Quantum]と英国の大手商業銀行HSBCは、金融分野の2値分類タスクにおいて、量子カーネル法の精度を向上させた、と主張する論文[*84](以下、本論文)を発表した(23年12月1日@arXiv)。筆頭著者は、日本人(著者14人中3人が日本人)である。
 ポイントは、データから”最適な”カーネルを選択する、カーネル・アラインメント(KA)である。特定タスクの実データを用いてKAを実行し、KAが有効であることを実証している。

【1】本論論文の主張
 本論文の主張は、以下の通り。
(1) 『量子マルチプル・カーネル法』は、量子カーネル法に比べて、分類品質を向上させることができる。
(2) 量子カーネル・ベースの手法において、量子ビット数の拡張を困難にする問題を回避できる、量子カーネルを提示した。
(3) 金融分野の実データ3件を用いた実験の内、2件で量子カーネル法は、(古典)カーネル法よりも分類予測精度が高かった(分類精度は、ROC-AUCで、計測している)。
(4) NISQマシンで実行した結果、量子マルチプル・カーネル法は、量子カーネル法に比べて、堅牢な結果を示した。
 実データ3件とは、㈠デジタル決済詐欺データセット、㈡ドイツにおける、消費者向け信用リスク・データセット(@1994年)、㈢ポルトガルにおけるダイレクト・マーケティングによって定期預金を申し込んだ否かに関するデータセット(@2014年)、である。また、㈠はHSBC行内のデータ、㈡及び㈢は公開データである。

【2】事前整理
(1) 量子カーネル
  量子カーネル法では、各入力データ点 xi は、(与えられる)特徴マップを使用して、n量子ビット量子状態ρ(xi)に符号化される。言わずもがな、ρは密度演算子である。
1⃣ 忠実度量子カーネルKFQ
 KFQ(x,x’)=Tr[ρ(x)ρ(x’)]で定義される。言わずもがな、Trはトレース(対角和)である。
2⃣ 射影量子カーネルKPQ
 KPQ(x,x’)=exp(ーγ∑|ρk(x)ーρk(x’)|2)で定義される。ここでは、||で、フロベニウス・ノルムを表す、とした。γは正のハイパーパラメータ、ρk(x)は、量子ビットk に対する1粒子縮約密度行列(1-RDM)である。つまり、k以外の全てについてトレースをとった(部分和をとった)密度演算子である。

(2) 指数関数的集中(→不毛な台地)
 量子ハードウェアで量子カーネルを計算するとき、量子ビット数の増加に伴って、次のような問題が発生しうる。カーネルの計算に必要な特徴量、つまり量子ビットの数が増加すると、異なるデータポイント対のカーネル値の差がますます小さくなり、それらを区別するために必要なショットが、増加する可能性がある。これが、カーネル値の「指数関数的な集中」と呼ばれる現象である。この現象は、カーネル法ベースの学習を妨げ、量子カーネル・ベースの手法を、より多くの特徴量と量子ビットに拡張することを困難にする可能性がある。
 本論文で採用する、忠実度量子カーネルと射影量子カーネルは、この 指数関数的な集中を回避できると、本論文は主張している。

(3) カーネル・アラインメントの全体整理と個別整理 
0⃣ 全体整理:カーネル・アラインメントとは[*85],[*86] 
 カーネル法の性能は、カーネルの選択に大きく依存する。与えられたデータセットに対して、タスクに最適なカーネルを選択することを、カーネル・アラインメント(KA)と呼ぶ。
 KAのシンプルなアプローチは、基底カーネルの線形結合で、タスク「⓪最適な」カーネルを表現することである。基底カーネルの線形結合で表現したカーネルを、本論文では、マルチプル・カーネルと呼んでいる。
 ⓪最適なとは、カーネルの類似度を定量化した カーネル・アラインメント・スコア(KAS)を最大化することを意味している(KASの算式は、割愛)。KASは、「㊀ターゲット・カーネル」と、「㊁結合カーネル」の間で計算される。㊀ターゲット・カーネルは、与えられたデータセットに応じて構成される。㊁結合カーネルとは、「㊂基底カーネル」の線形結合で構成されるカーネルのことである。㊂基底カーネルは、パラメータ化された「㊃カーネル・ファミリー」Kiに属する。本論文では、この㊃カーネル・ファミリーとして、先にあげた「忠実度量子カーネル」と「射影量子カーネル」を検討している。
 カーネル・ファミリーKiから、例えば、Ki1,・・・,Kinを選択して、{基底カーネルの集合}として固定すれば、後は線形結合係数を、何らかの方法で最適化することで、KAが完了する。
 量子カーネル法でも、事情は全く同じであり、与えられたデータセットに対して、タスクに最適な量子カーネルを見つけることが、カーネル・アライメント(あるいは、古典と区別するために、量子カーネル・アラインメント)である。
 本論文では、線形結合係数を最適化する手法として、以下1⃣~4⃣⃣を検討している。
1⃣ 個別整理:平均重み(AVE)
 本論文内で、特に説明はなされていない。普通に考えると、同じ重みを、割り当てたということであろうか。
2⃣ 個別整理:半正定値計画問題(SDP)によるカーネル・アライメント
 KASを最大化する問題は、SDPに置換できる。さらに線形結合係数wiが非負かつ Ki ⪰ 0 の場合には、2次制約付き2次計画問題(QCQP)に還元できるため、実際はQCQPを解くことで、線形結合係数の最適化が行われている。なお、⪰は、majorizeを表す記号である。
3⃣ 個別整理:中心カーネル・アライメント(CENT)
 CENT(←本論文での表記に従った)では、カーネルをセンタリングする。つまり、特徴量空間内の各データポイントをセンタリングする。(言うまでもないが)具体的には、データポイントの平均を、各データポイントから減算する。なぜ、わざわざセンタリングするかというと、センタリングするとカーネル法の汎化性能が高まるからである。CENTも最適化問題を解くことで、完了する。
4⃣ 個別整理:射影カーネル・アライメント(PROJ)
 PROJ(←本論文での表記に従った)は、最適化問題を解くというアプローチではなく、反復手法を使って最適化を実行する。まず、ターゲット・カーネルとの距離が短い基底カーネルを選択する。次に、選択した基底カーネルをターゲット・カーネルに射影する。最後に、その射影成分をターゲット・カーネルから減算して、残差を得る。この残差のノルムで、線形結合に参加させる基底カーネルを選別することで、より良い結合カーネルを構成する。
† 全てを足し合わせると等しいが、部分和では大小関係が生じるような、2つの数列は、majorizeの関係にある。この場合の数列は、数字の組なので、ベクトルというイメージでもよい。ただし、数値が大きい順に並び替える必要がある。確率変数の組を考えれば、確率分布に対して、majorizeを導入できる。文法的には、majorizationが正しい?

(4) 量子誤り緩和策:コヒーレント・エラーを削減するための、トランスパイル
 量子誤り緩和及び、量子誤り訂正方法は、確率的なインコヒーレント・エラーを解決するように設計されている。このため、量子コンピューターで発生する量子誤りは、コヒーレント・エラーよりも、インコヒーレント・エラーが望ましい。コヒーレント・エラーは、クロストーク、不要な量子ビット相関、または多くの短期アルゴリズムに必要な任意の SU(2)回転などのユニタリ・ゲート実装の、不完全な制御から発生する可能性がある。
 本論文では、確率的でコヒーレントなゲート誤りのオーバーヘッドを削減するために、1⃣ランダム化トランスパイルと、2⃣,3⃣パルス効率の高いトランスパイルが採用された。
 古典演算におけるコンパイルを、量子演算ではトランスパイルと呼ぶ。つまり、所望の量子演算を実行出来るように、ユニタリ演算子を配置して、量子回路を構成することが、トランスパイルである。ユニタリ演算子を配置して、量子回路を構成する方法は一意ではなく、どのように構成すれば「効率的な」量子回路が構築できるかは、工夫の余地がある。
1⃣ ランダム化トランスパイル
 トワーリング(twirling)演算子の導入により、コヒーレント・エラーがインコヒーレント・エラーに変換される。これらの回転演算子は、「シンプルな」ゲート (例:パウリ演算子)で構成され、ノイズは独立したランダム・シーケンスを平均することによって調整される。具体的には、UZ(θ)、√X、UZZ(θ)に、合計16個の独立したランダムなパウリ回転シーケンスを使用した。
2⃣ パルス効率の高いトランスパイル
 2量子ビット相互作用シーケンスは、量子回路実行における量子誤りの多くに寄与する。指定された量子プロセッサに設定されたネイティブ・ゲートを使用した回路トランスパイルにより、標準の回路トランスパイル・ルーチンを使用するよりも、SU(4)ゲートの実行にかかる時間を短縮できる(つまり、量子誤りの発生を軽減できる)。
 パルス効率の高いトランスパイル は、カルタン分解を使用して一般的な SU(4)ゲートに拡張された(SU(4)ゲートは、2量子ビットの回転ゲート)。他の2 量子ビット・ゲートは、UZX(θ)回転の前に基底を変更することによって実装された。
3⃣ CNOTゲートの効率的なトランスパイル
 ユニバーサル CNOT ゲートは、ユニタリ UZX(π/2)を選択することで実装されるが、パルス領域のスケーリングを可能にする任意の回転θを使用して、より効率的なトランスパイルを実現できる。本論文では、標準的なダブルCNOT実装と比較してパルス持続時間が1/3近くに短縮されるゲートシーケンスを使用することで、CNOT ゲートに対して効率的なトランスパイルを実現している。

【3】評価検証結果
(0) データセットとモデルの整理
 評価検証に用いられたデータセット及びモデルが、やや複雑なので、改めて整理する。
0⃣ カーネルの重みの最適化
 本論文では、適切なカーネルの選択は困難な課題であるという認識の下、カーネルの線形結合によって、2値分類タスクに適するカーネルを生成するアプローチを提案している。線形結合係数の最適化では、いくつかのアプローチが採用された。具体的には、①平均重み(AVE)、②半正定値計画問題(SDP)によるカーネル・アライメント(本論文での表記に従って、SDPと表記する)、③中心カーネル・アライメント(CENT)、および④射影カーネル・アライメント(PROJ)が使用された。
1⃣ データセット
 3種類のデータセットを使用している:❶HSBC 銀号による、デジタル決済における詐欺データ(詐欺か否かを分類する)、❷ドイツにおける、個人の信用リスクデータセット(二値分類タスクなので、貸せるか貸せないかに分類する)、❸ポルトガルの金融機関におけるマーケティング・データ(定期預金に申し込むか否かを予測して、分類する)。
 データセット❶~❸のデータ・ポイント総数は、400個と多い。そこで、分析の堅牢性を確保するために、ランダム抽出された 20 個のサンプルでモデルを評価した。つまり結果は、20個のサンプルの平均である。なお、データは学習、検証、テストのデータセットに分割され、1/3がテストデータとして使用された。残りの2/3については、ハイパーパラメーターの最適化のために 4分割交差検証(クロス・バリデーション)が実行された。
 特徴量は、平均値を引き、分散1にスケールすることによって正規化された。さらに、主成分分析を使用して特徴量の次元削減が行われた。結果として、4~20個の特徴量が、使用された。
2⃣ 評価検証モデル
 改めて概略的に述べると、本論文では、量子カーネル法に基づく機械学習モデルのカーネルを、単一カーネルではなく、マルチプル・カーネルとしたモデルの評価を行っている。つまり、量子マルチプル・カーネル法(QMKL)の評価を行っている。QMKLのカーネルは、2種類が検討されている。さらに、QMKLは、古典マルチプル・カーネル法(CMKL)、量子カーネル法(QKL)とも比較される。
 為念:量子カーネル法に基づく機械学習モデルとは、平たく言えば、量子サポートベクターマシンのことである。
■ 量子マルチプル・カーネル法QMKL)
 忠実度量子カーネル(F-QMKL)と、射影量子カーネル(P-QMKL)が検討されている。
■ 古典マルチプル・カーネル法(CMKL)
 CMKLは、さまざまなカーネル帯域幅(γ ハイパー パラメーター値)を持つ、動径基底関数(RBF)カーネルを使用して構築された。
3⃣ 評価指標
 言わずもがなであるが、達成したい目標は、精度である。二値分類タスクに対する、代表的な評価指標である、ROC-AUC(Area Under the ROC Curve;ROC=Receiver Operating Characteristics Curve)で測定する。

(1)シミュレータでの結果
❶ HSBC 銀号による、デジタル決済における詐欺データ
 すべてのパラメーターにわたって最もパフォーマンスの高いモデルは、P-QMKL×AVEであった。P-QMKLとCMKLでは、AVEを使用すると性能が最も高くなる。CENTは、F-QMKLの場合にのみ、良い精度を示した。
❷ ドイツにおける、個人の信用リスクデータセット
 F-QMKLがモデルとしては最も精度が高いと言えるだろう。次点がCMKLで、両者ともPROJが、最も効果的な最適化アプローチである。ただし、個別でいうと、CMKL×PROJが最高のパフォーマンスを示す。CENTはP-QMKLの場合にのみ、良い精度を示した。
❸ポルトガルの金融機関におけるマーケティング・データ
 P-QMKL×PROJ が最高のパフォーマンスを示す。次点はCMKL×AVEである(本論文の記述とは異なるが、図を見る限り、そう結論できる。従って、誤植かもしれない)。

(2)NISQマシン(実機)を使った実験から得られる示唆
 実機は、ibm_aucklandが使用された。データセットは、❸銀行マーケティング・ データセットが使用された。
1⃣ 量子カーネルの選択
 忠実度量子カーネル(KFQ)と射影量子カーネル(KPQ)を使った量子マルチプル・カーネル法を、実機とシミュレータで実行する。その結果から、どちらが、実機ベースで使えるか?を評価している。具体的には、シミュレーション結果を説明変数、実機の結果を目的変数として、線形回帰を行い、決定係数R2で判断している。
 結論を概略で述べると、KFQは、量子ビット数増加に伴ってR2が急低下するので、KPQが推奨されている。
 詳細を述べると、KFQは量子誤り緩和(EM)がない場合、4量子ビット→20量子ビットに増えると、急激にR2が低下する。具体的には、4量子ビットで0.952だったのに、20量子ビットでは0.013にまで低下する。一方、KPQは、0.965が0.648になるだけである。ただ、EMありだと、KFQは0.997→0.905(4→20)である。KPQは、0.999→0.812(4→20)である。
2⃣ 量子誤り緩和策の効果
 先の例(つまり1⃣)でも分かるように、EMの効果は大きい。EMない場合、KFQでもKPQでも、8量子ビットですら、R2は、約0.6である。これをもって、 本論文では、EMなしでは4量子ビットを越えて、意味のある結果は得られない、と結論している。
3⃣ マルチプル・カーネルの有効性
 単一カーネルとマルチプル・カーネルのROC-AUCを比較して『実機に実装することを考えた場合に』マルチプル・カーネルが有効である、と結論している。具体的には、3種類(8、12、16)の量子ビットに渡り、シミュレーション結果とEMあり実機での結果を、学習データ及びテストデータに対して比較している。マルチプル・カーネルは、重みの最適化アプローチとして全4種類(AVE、SDP、CENT、PROJ)を揃えている。
 ざっくり言って、マルチプル・カーネルのROC-AUCの方が高いし、ばらつきも小さい。ばらつきは、㈠シミュレーション結果と実機結果とのばらつき、及び㈡学習データとテストデータとのばらつき、の両方を指している。なお、本論文でも指摘されているように、16量子ビットのマルチプル・カーネル×SDPの実機結果は、外れ値のように精度が低い。

【4】考察
(0) notation等が、やや分かり辛いイメージ。
(1) 改めて整理すると、最高性能を叩き出したのは、❶デジタル決済における詐欺データ:P-QMKL×AVE。❷個人の信用リスクデータセット:CMKL×PROJ。❸マーケティング・データ:P-QMKL×PROJ 。(古典)カーネル法の精度が高かったり、手間暇かけて工夫を凝らしたPROJよりも、単純なAVEの精度が高かったりする。やはり、機械学習は難しい。結論として、タスク・データセット毎に、試行錯誤が必要ということになるだろうか。すると、汎用性は乏しいが、その事実が改めて分かったということが収穫なのだろうか?
(2) (量子カーネル法の中で)マルチプル・カーネルと単一カーネルとの比較で言うと、❷個人の信用リスクデータセットの場合、単一カーネル†1の方が優れている(ベストは、CMKL×PROJ)。やはり、機械学習(この場合、より正確には、量子機械学習)は難しい。
(3) 実機での実行を考えたら、マルチプル・カーネルということになるが、これが隠れ結論?だろうか。
(4) ちなみに、宇宙物理学の分野における銀河形態の分類タスク†2で、カーネル法と量子カーネル法を比較した論文[*87](23年11月8日@arXiv)の結果は、古典=量子であった。宇宙物理と金融は全く違うと思うだろうが、フレームワークは、ほぼ同じ。そして、必要な特徴量が多くなれば、量子優位性が現れるかもしれない、と予測している。カーネル法でさえも、量子機械学習が優位性を発揮するのは難しい。
†1 本論文でSingle(Q)Optと呼ばれる単一カーネルを用いた量子カーネル法。Single(Q)とは、α=0.4(αはカーネル帯域幅)、繰り返し1、線形エンタングルメント・スキームのZZ特徴マップを採用したモデル。Optは、QMKLのパラメータで、ハイパーパラメータを調整する。
†2 銀河を、渦巻銀河と楕円銀河に分類する。

XⅥ 変分量子アルゴリズムに量子優位性は、「ほぼない」と予想する論文
【0】はじめに
 量子機械学習が古典機械学習の性能を上回るケースは限定的であるという主張は以前から存在したが、散発的であり、少数派であった。近年、その散発的な主張に通底する構造が明らかになり、主張は多数派になりつつある。米エネルギー省傘下の国立研究所であるロス・アラモス研究所、オークリッジ研究所の研究者他[*88]による論文[*89](以下、本論文。23年12月14日にarXivにて公開→24年3月19日(24日)に第2版が公開)は、「不毛な台地」の回避を通して、同様の主張を行った。
 本論文は、変分量子アルゴリズム(VQA)において現れる「不毛な台地」を、回避できる問題のほとんどは、古典的にシミュレート可能であろうと予想する。

【1】本論論文の主張
(1) 不毛な台地のない問題は、「古典的に特定できる、多項式程度に大きい部分空間(※)」に存在する。ことを見出した。ただし、コスト関数は、「パラメータ化量子回路(アンザッツ)で時間発展させた密度演算子で計算した、オブザーバブルの期待値」である。本論文で主張1と呼ばれている(ので、本稿でもそう呼ぶ)。
※ 【2】(2)を参照。
(2) 不毛な台地がない問題は、多項式時間で古典的にシミュレート可能であることを見出した。このことから、アンザッツを量子コンピューター上に実装する必要はないことが導かれる。ただし、最初のデータ取得フェーズ(data acquisition phase)で「量子デバイス」から古典データを取得可能である、ことを仮定する。つまり量子デバイス自体は、必要である。本論文で主張2と呼ばれている(ので、本稿でもそう呼ぶ)。
(3) 主張1主張2から、代表的なユースケースで、VQAに量子優位性はないだろう、と予想する。ここで言う「量子アルゴリズムに量子優位性がない」とは、「量子アルゴリズムを、多項式時間で古典アルゴリズムが、シミュレートできる」ことを指す(量子アルゴリズムが古典アルゴリズムより速いことを意味する量子優位性と、ほぼ同じ)。

【2】事前整理
(1) 不毛な台地とは
 本論文の筆頭著者による量子機械学習のレビュー論文[*118]をもとに、掲題を整理する(カバーする範囲が広いので、混乱するかもしれないが、その分一般性は高い)。
0⃣ 敢えて、もわっとした説明
 不毛な台地では、コスト関数の形状は、問題サイズに応じて指数関数的に平坦になる(同じ意味であるが、コスト関数の勾配は、指数関数的に減衰する)。大域的極小値を含む谷も、問題サイズとともに指数関数的に縮小し、いわゆる狭い峡谷となる。その結果、コスト関数の極小値を探索するためには、指数関数的なリソース(例えばショット数)が必要となる。
 以下に、不毛な台地が発生する、3つのルートを挙げた。併せて、発生を回避する手段も述べた。
1⃣ 事前知識の欠如や不十分な帰納バイアスによる、不毛な台地
 ハードウェア効率が高い量子回路(量子ニューラルネットワーク;QNN)では、モデルの表現力が高いために不毛な台地が発生する。「ハードウェア効率が高い」アーキテクチャは、基礎となるデータについて何れの仮定も置かないことで、広範なユニタリー時間発展を準備することができる。つまり、このルートで発生する不毛な台地は、「事前知識(あるいは、十分な帰納バイアス)の欠如」によって引き起こされる。従って、回避手段は、事前知識をQNNに入力することである。具体的には『巧妙な初期化』、事前学習、パラメータ相関など、様々な戦略が開発されている。
 初期化の方法を工夫して、不毛の台地を回避した例として、こちらを参照。帰納バイアスを高めたした例として、こちらを参照。
 「モデルの表現力が高いために、不毛な台地が発生する」ことに関しては、こちらを参照。
2⃣ 大域的オブザーバブルによる、不毛な台地 
 大域的オブザーバブル(つまり、すべての量子ビットを測定するオブザーバブル)に基づいてコスト関数を単純に定義すると、コスト関数の分布形状が鋭い(分かり易く言うと、分布形状の「裾が軽い」)浅い回路であっても、不毛な台地が発生する。一方、局所的オブザーバブルであれば、この問題は回避される(ただし、層の深さに上限あり→[*119]を参照)。
 つまり回避手段は、局所的オブザーバブルで、コスト関数を構成して、パラメータ最適化を行うことである。
3⃣ 量子もつれによる、不毛な台地 
 過剰な量子もつれ(エンタングルメント)を生成するQNN(または、埋め込みスキーム)も、不毛な台地を発生させる。QNNの可視量子ビット(QNNの出力で測定される量子ビット)が、隠れ層内の多数の量子ビットと、もつれているときに問題が発生する。
 このタイプの不毛な台地に対する回避手段は、QNN全体で生成されるもつれを制御することである。
4⃣ 不毛な台地が発生しないQNN 
 量子畳み込みニューラルネットワーク(QCNN)は、不毛な台地が発生しないことが知られている。この理由は、「QCNNが、階層構造によって並進不変であるような制約を課せられている」ため、であるらしい。この制約により、コスト関数の分布形状が"鋭く"なるという。

(2) 「不毛な台地がない」問題のクラス
 本論文では、不毛な台地がないことが、証明可能な問題の「制限された」クラスを、BP(バレンプラトー)と表記している(実際には、BPに上線(補集合の記号)が付いている)。「制限された」とは、「コスト関数の分散は、適当な多項式との積によって、必ず適当な正定数以上になる」という制約を課していることを指している。つまり、コスト関数の分散は、多項式程度の大きさに留まり、指数関数的に小さくは、ならない。先述した「多項式程度に大きい」とは、そういう意味である。
 なお、計算複雑性理論におけるBPP問題のクラスとは無関係である。

(3) 本論文の主張を理解するための前提知識 
 VQAのコスト関数C(θ)は一般に、オブザーバブルOの期待値を入力とする関数fkの総和として表される[*90]。つまり、C(θ)=∑fk(オブザーバブルOの期待値)と表現されることが多い(添え字kについて総和をとる)。本論文では、C(θ)=オブザーバブルOの期待値、というシンプルな形式を採用している(だからといって、特殊な形式を採用したわけではない)。
1⃣ シュレーディンガー描像(「猫」像ではなく、「描」像) 
 オブザーバブルの期待値は、(一般的に採用される)シュレーディンガー描像では、(入力状態の)密度演算子ρとOの積に対してトレースを取ることで得られる。ここでρは、時間発展のユニタリ演算子U(t)で、t=0の初期状態ρ0から、時間発展させられた密度演算子である。つまり、ρ=U(t)ρ0U(t)である。なお、量子計算を考えているから、ρは純粋状態の密度演算子ということになる。また、変分量子計算の文脈で、時間発展のユニタリ演算子は、パラメータ化された量子回路U(t)=U(θ(t))=U(θ)である。
2⃣ ハイゼンベルグ描像 
 一方ハイゼンベルグ描像では、時間発展を密度演算子ではなく、オブザーバブルに担わせる。時間発展のユニタリ演算子U(θ(t))で、時間発展させたオブザーバブル(ハイゼンベルグ演算子とも呼ばれる)U(θ)OU(θ)とρ0の積に対して、トレースを取って、オブザーバブルの期待値(=コスト関数)を得る。本論文では、ベクトル空間(ヒルベルト空間)におけるハイゼンベルグ演算子の挙動(どこまで到達するか?)が肝であるから、本論文では、ハイゼンベルグ描像を採用している。言うまでもなく、シュレーディンガー描像とハイゼンベルグ描像は、見方が異なるだけで、等価である。

【3】本論文の主張の詳細 
(1) 主張1の根拠(ロジック) 
1⃣ 「不毛な台地」と、それを回避することの本質 
 本論文では、ハイゼンベルグ演算子U(θ)OU(θ)と、密度演算子ρ(正確には、初期状態ρ0であるが、以降(も)、ことさら区別しない)の両方が、指数関数的に大きなベクトル空間に存在することを鑑み、この重なり(ヒルベルト・シュミット内積。以下では、単に、内積と呼ぶ)は、θ にわたる平均で指数関数的に小さいことを予想する。本論文では、「これが不毛な台地、つまり次元の呪いの本質である」と主張する。その主張を是とすれば、時間発展したオブザーバブル(ハイゼンベルグ演算子)が、”多項式的程度に大きい”部分空間(以下、多項式部分空間と呼ぶ)に存在している場合は、コスト関数は、多項式部分空間内の内積となり、不毛な台地を回避できる。
 この主張を是とすることが正しいことは『(広く使用されている)不毛な台地のないモデルを詳細に分析した結果、主張した通りの構造(※)で不毛な台地を回避している』ことを根拠としている。つまり、代表的な例が全てそうなので、それは真実に近いだろう、と見立てた(反例があれば、受け付けるというスタンスだろうか)。
※ 為念:以下のような共通した”構造”を意味している・・・既知の代表的な「不毛な台地を回避できるモデル」は、多項式部分空間かつ、「古典的に特定できる部分空間」に問題を符号化することによって、不毛な台地を回避している。
2⃣ 「不毛な台地のない」モデル
 本論文で検証された、既知の代表的な「不毛な台地を回避できるモデル」とは、以下の8つである。
❶ 深さが浅いハードウェア効率が高いアンザッツを用いたモデル†1
❷ 量子畳み込みニューラルネットワーク
❸ U(1)-equivariantモデル
❹ Sn-equivariantモデル
❺ マッチゲート回路を用いたモデル
❻ 小さな回転角度を用いてアンザッツを初期化するモデル
❼ 次元が小さい†2リー代数を使用したモデル
❽ 特定クラスの量子生成モデル†3
†1 局所測定を使用している。
†2 時間発展の過程で、代数的分解がシステムサイズに対して高々、多項式的にしか変化しないことを指しているらしい[*91]。
†3 量子回路ボルンマシン(QCBM)と量子敵対的生成ネットワーク。ただし、QCBMは、maximum mean discrepancyに基づくコスト関数を採用した場合を考えている。
‖補足‖
❸ U(1)-equivariantモデルとは、計算基底状態のハミング重みを保存する量子回路を使用したモデルであることを意味する。ハミング重み保存回路は、量子化学、凝縮系物質、ポートフォリオ最適化などで使われている(らしい)。密度演算子ρは、固定ハミング重みkを持つn量子ビットの純粋状態(の密度演算子)である。
❹ Sn-equivariantモデルとは、対称群Snに関して不変であるパラメトリック量子回路を用いたモデルを意味する。このモデルは、量子回路内のn個の量子ビットが、どのような順列に変化しても不変(置換不変)であることを表現している。
❺ マッチゲートは、1次元の最近傍量子ビットに作用する2量子ビットゲートである。
❽ 米ザパタ・コンピューティングは、「量子回路ボルンマシンを使った量子生成モデルは、量子優位性をもたらす」と喧伝しているが、その範囲は狭まるのかもしれない。
3⃣ 為念:仮定の補足 
 密度演算子ρ は、全てゼロの状態に作用するときに、O(poly(n))ゲートの回路によって準備可能な n 量子ビット状態とする。為念:poly(n)とは、n次の多項式を意味する。オブザーバブルOは、計算基底において対角であるパウリ演算子(たとえば、O = Z⊗nあるいは、µ ∈ {1,・・・,n}に対してO = Zµ)とする。さらに、量子回路内の全てのゲートがパラメータ化されており、全パラメータが均一にランダム・サンプリングされていると、仮定する。

(2) 主張2の根拠(ロジック) 
 多項式部分空間に問題のクラスが存在して、古典的に特定(識別)可能だとしても、古典的にシミュレート可能とは限らない。刺激的な言い方をすれば、不毛な台地はないが、古典的にシミュレート不可能なVQAも存在する。実際、本論文では、付録B: Examples of non-concentrated but also non-simulable loss functionsに例が示されている。ただし、そういった例で使用される量子回路は汎用的ではなく、意図的に構築されている。そのため、ハイゼンベルグ演算子と密度演算子の両方が指数関数的に大きなベクトル空間に存在し、内積が指数関数的に小さい、という仮定が成立していない。
 本論文では、検証した「不毛な台地のない」モデル全てに対して、ケース・バイ・ケースの分析を経て、(各モデル毎に)多項式時間で古典的にシミュレートする方法を見つけた。そこで、不毛な台地のないモデルは、古典的に特定できるという主張1と合わせて、本論文で検証しなかった「不毛な台地のないモデル」に対しても、多項式時間で古典的にシミュレートする方法が見つかるであろう、という見立てを立てた。根拠(ロジック)としては、そう表現できるだろう。
3⃣ 「不毛な台地がない」問題に対するシミュレーション・アルゴリズム 
 掲題アルゴリズムを表にまとめた。注釈†1及び†2は、下記参照。

†1 古典的シャドウ[*92]:スコット・アーロンソンが考案したらしい(なお、本論文の引用論文である[*92]は、2020年公開)。古典的シャドウのモチベーションは、少ない測定回数でトモグラフィーを成功裏に実行することである。アーロンソンは、「量子系の完全な古典的記述を要求することは過剰であり、特定の性質(ターゲット関数)を正確に予測できれば十分な」こと、及び「ターゲット関数 は、密度行列ρの線形関数であることが多い」ことを指摘した。ここで、量子状態ρ自体が未知であっても、ρに対する最小の(=十分なサイズの)古典的スケッチSρ(古典的シャドウ)があれば、ターゲット関数は推定できるところが、肝である。ただし、本件はターゲット関数ではなく、ρそのものが知りたいので、古典的シャドウがうまくフィットするのか、若干の疑問が残る。
 古典的シャドウは、 「ユニタリー変換ρ → UρUを適用し、計算基底の全ての量子ビットを測定する」という手順を繰り返す。Uは、ユニタリー演算子の”アンサンブル”からランダムに選ばれる(ところも重要)。測定回数は、システムサイズに依存しない。
†2 置換不変(Permutation Invariantを訳した。正式ではない)シャドウ[*93]:置換不変(PI)シャドウは、密度行列(密度演算子)ではなく、置換不変密度行列ρPIを採用する(ちなみに、なお、本論文の引用論文である[*93]は2010年の論文で、古い)。ρPIは、(1/N!)∑πkρπkで定義される(添え字kについて総和をとる)。πk量子ビットの全てを置換することを意味する。[*93]では、次の2つの理由㊀、㊁から、「PIシャドウから得られる密度行列は、実験的に達成された状態の密度行列に近いことが期待される」としている:㊀シングルモード光ファイバー中の光子は常にPI量子状態であり、その特性決定に必要な測定はわずかであること。㊁ほとんど全ての多粒子実験がPI量子状態を用いて行われていること。
 PIシャドウのモチベーションも古典的シャドウと同じである。しかし、PIシャドウで測定回数は、システムの大きさに対して二次関数的に増加する(ので、古典的シャドウに比べると、スケーラビリティが低い)。

(3) 本論文の主張の射程 
1⃣  コスト関数の射程 
 コスト関数は、「アンザッツで表現されたユニタリ演算子で時間発展する密度演算子で測定したオブザーバブルの期待値」として、定式化される(※)。この定式化について、本論文では、次のように説明している:この形式のコスト関数は、最も標準的な変分量子アルゴリズム、多くの量子機械学習モデル、および量子生成モデルの特定のファミリーを含む、一般的な量子アーキテクチャの大部分が含まれる。ただし、考えられる、全ての量子学習プロトコルをカバーしているわけではない。
※ シュレーディンガー描像で説明されているが、ハイゼンベルグ描像で説明した方が親切だろう。
2⃣ 主張の射程外 
 本論文は、ハイゼンベルグ演算子が多項式部分空間に存在しているケース以外にも、「不毛な台地がないモデルが、存在する可能性がある」ことを否定しない。その例として、㊀と㊁を上げている:㊀小さな部分空間が、未知の場合。㊁問題が指数関数的に大きな部分空間に存在するが、高度に構造化されている場合。㊁の場合は、さらに次のような記述を与えている:「巧みな初期化戦略」によって探索できる部分空間の、部分領域で発生する可能性がある。
 不毛な台地を回避する初期化戦略としては、a)ランダムにアンザッツを初期化する戦略や、b)恒等写像に近い値でアンザッツを初期化する戦略がある。「巧みな初期化戦略」としては、ザパタ・コンピューティングによる研究がある。ザパタの研究では、テンソルネットワークを使って得られた初期値を使って、アンザッツを初期化するという戦略が採用されている。
 また、射程外の代表的なモデルとして、異なるタイプのコスト関数を使用する量子ボルツマン・マシンが上げられている。
3⃣ 量子優位性
 多項式時間で古典的にシミュレート可能であれば、一般的に量子優位性はない、とみなされる。しかし、本論文では「コスト関数が多項式時間で古典的にシミュレーションできるからといって、それが依然として実用的であることを意味するわけではない」、と主張する。
例1・・・実装するには法外なコストがかかる可能性のある古典アルゴリズム。
例2・・・コスト関数が異なれば、シミュレーション用の古典アルゴリズムも異なる。このため、量子アルゴリズムが、全てのコスト関数に対応できる場合は、古典アルゴリズムよりも量子アルゴリズムが選ばれる可能性がある。

【4】考察
(1) 量子機械学習(量子カーネル法)はその限りではないが、量子ニューラルネットワークで量子優位性を達成するのは難しいだろうという、傍証が増えた。また、量子生成モデルも、量子優位性を達成するモデルは、限定的となる可能性が高い。
(2) NISQマシンで量子優位性を達成するのも難しいだろうという、傍証が増えた(量子誤り緩和策を実施するか否かに関わらず・・・)。従来から言われているように、サンプリングには、使えるのだろう。誤り耐性量子コンピューター待ちという状況も相変わらず。
(3) リゲッティがご執心の、シグネチャ・カーネル及び量子シグネチャ・カーネルで、どういう結果がでるか楽しみである。
(4) 古典的シャドウの発想は、ブラックボックス最適化・能動学習・強化学習と相性が良いと思うが、そのようなアプローチは研究されているのだろうか。

XⅦ 材料シミュレーションに必要な量子リソースを大幅に削減できた、主張する論文
【0】はじめに
 材料や化学物質を対象とする量子シミュレーション(以下、本稿では、材料QSと略す)は、量子コンピューティングの最も有望なアプリケーションの1つであることに議論の余地はないであろう。しかし、材料QSに必要なリソース要件は、NISQデバイスによる実現値とは残念ながら、かけ離れている。
 そのような背景の下、英国の量子ソフトウェア・スタートアップPhasecraft[*94]は、「材料に関する量子シミュレーションに必要なリソースを大幅に削減できた」と主張する論文[*95](以下、本論文。補足情報は[*96])を公開した(2024年1月24日@nature communications)[*97]。
 ただしPhasecraftは、「NISQデバイスで、材料QSが量子優位性をもたらす」ことを主張しているわけではない(同時に、可能性を否定することもしていない)。

【1】本論文の主張
 本論文は、ベースライン(※)と比べて本論文のセットアップは、(1)ゲート数が最大8桁、(2)回路深さが最大 6 桁改善された、主張する。
 射程は、基底状態を求める「変分量子アルゴリズム(VQA)†1」と、量子系のダイナミクスを計算する「ハミルトニアン・シミュレーション(本論文の文言は、TDS:Time Dynamics Simulation)†1」の双方である。また、対象とした物質(材料)には、強相関電子系に属する遷移金属酸化物(強相関酸化物)バナジン酸ストロンチウム(SrVO3)も含まれている(※)。
※ 【4】ベースラインとの比較結果、を参照。
†1 変分量子固有ソルバー法(VQE)と、特に区別しない。
†2 材料科学の文脈では、材料の応答関数とスペクトル特性を推定するために使用できる。

【2】事前整理
(1) ブロッホ基底 
 第一原理計算では、電子の波動関数を、何らかの(もちろん、性質の良い)基底関数の線形結合で表現する。結晶構造には周期構造が存在するから、周期ポテンシャルが導入できる。平面波展開した波動関数は、周期ポテンシャル場におけるシュレーディンガー方程式の解となる(電子状態は、結晶全体に広がった波として表される)。すなわち、平面波は、結晶を対象とした量子シミュレーションと相性が良い。平面波を基底関数として展開した波動関数が、ブロッホ関数である。このとき、平面波はブロッホ波と呼ばれる。
(2) ワニエ基底と最局在ワニエ関数
 ブロッホ波を運動量空間に関してフーリエ変換することにより得られる、局在した関数をワニエ関数(局在軌道)と呼ぶ。ワニエ関数の中心位置は電子分布の平均位置を表し、ワニエ関数の自乗は電子の分布を表す。ただし、一般にワニエ関数は一意に定まらない。ワニエ関数は直交性さえ満足すれば、関数の表現には任意性を持つ(ブロッホ関数に含まれる周期関数について、ユニタリ変換に関する任意性がある)。ワニエ関数の広がり(分散)が最小になるように変換することにより得られる、一意に定まる関数を最局在ワニエ関数という。

【3】本論文のアイデア
(0) 量子リソースを削減するための指針 
 指針は、「VQEとTDS のシミュレーション目標に忠実でありながら、できるだけ少ない量子ビットを使用して、ユニタリ回路Uを最短の回路で実装すること」。ここで言及しているユニタリ回路Uは、VQEであればΠkexp(itlk・hk)、TDSであればΠkexp(iδt・hk)の形式をとる。ただし、tlkは変分パラメータ、δtは鈴木トロッター分解における「短い時間間隔」である。またハミルトニアンH = ∑khkである。VQEでもTDSでも同じ形式を取っている(ので、本論文では、U=U(a) = Πkexp(iak・hk)という表記を使用している)。
 最短回路でU(a)を実装するために、できるだけ小さいヒルベルト空間を使用し、量子ビット数を減らす。具体的には。㊀ハミルトニアンHを忠実に表現するために必要な項の数(上の表記で言えば、k)を最小限に抑え、㊁U(a) のエントリ数(つまりkの数)を削減する。そして、㊂コンパイル・ルーチンと共に表現を選択して、個々のステップexp(iak・hk)の実行コストを最小限に抑える。
 上記㊀~㊂は、それぞれ以下によって、達成される: ㊀→①適切な活性空間を特定する。㊁→②活性空間上で、最局在ワニエ関数でハミルトニアンの係数を計算し、小さな項を切り捨てる。 ㊂→③ハイブリッド・フェルミオン符号化とフェルミオン・スワップ・ネットワークを組み合わせて、相互作用の実行コスト(量子リソース)を最小限に抑える。
 以下、上記①~③について、本論文でどのように、実行されているかを述べる(①→(1)、②→(2)、③→(3))。

(1) 適切な活性空間を特定する 
 材料系のシミュレーションを考えたとき、ハミルトニアンの並進対称性は大きな効果を発揮する。雑に材料系と述べたが、有用な材料や化学物質を指している。それらの物質は、生成あるいは合成が可能なはずであるから、一般的には結晶構造を取る(ことにしておく)。結晶構造をとれば、ハミルトニアンには、(当然、対象とする材料や化学物質によって異なる)その結晶構造を反映した並進対称性が、存在することになる。この対称性により、ブロッホ基底での効率的な近似対角化が可能になる。引いては、フェルミ準位付近の1粒子(状態の)ヒルベルト空間の部分空間を特定することが容易になる。活性空間を、この部分空間に縮小する(特定する)ことにより、必要な量子ビットの数とハミルトニアンの項の数を減らすことができる。
 材料の低エネルギー特性の多くは、フェルミ準位付近の限られた数の電子自由度によって決まる。d電子やf電子が絡む強相関電子系でも同様であることは、密度行列埋め込み理論(DMET)や動的平均場理論(DMFT)などの埋め込みアプローチが機能していることから理解できる。そのような背景から、上記のような活性空間を特定することに、物理的な妥当性が与えられる。活性空間が特定されると、DFT計算で求められた、活性空間内のコーン-シャム固有状態を使用して、最局在ワニエ関数(MLWF)が生成される。
† Quantum Espressoで実行された。ONCVPSPライブラリの擬ポテンシャルが使用された。

(2) MLWFでハミルトニアンの係数を計算し、項数を減らす
 本論文では、ハミルトニアンを(第二量子化形式で)表現する適当な基底として、ブロッホ基底ではなく、MLWFを採用する。言うまでもなく、第二量子化形式による表現は、量子化学における計算や強束縛模型を扱う場合に便利である。 MLWFを採用した大きな理由は、次の2点である:㊀この基底では、相互作用が高度に局所化される可能性があり、ハミルトニアンの支配的な項数が減少する、㊁高度に局所的な相互作用が、量子ビット・デバイスでの効率的な表現に適している。
 ブロッホ基底とワニエ基底は物理的に等価であるが、量子リソースを抑制した量子計算には、ワニエ基底がより好ましい、という主張である。目からウロコという感じであろうか。

(3) ハイブリッド・フェルミオン符号化とスワップ・ネットワーク
0⃣ 解題 
 量子コンピューターでフェルミオン系のシミュレーションを実行するには、フェルミオンのヒルベルト空間と量子ビットのヒルベルト空間との間で、変換が必要となる。この変換は一意ではない。広く知られていてシンプルな変換として、ジョルダン-ウィグナー(Jordan-Wigner:JW)変換がある(元は、正準反交換関係を満たすように、パウリ行列(スピン系)をフェルミオン表現に変換するための手法)。
 ハミルトニアンのモード間に高度な相互作用がある場合、変換の選択に関係なく、全ての相互作用を低「重みが低い」演算子に変換することは不可能である。ここで「重みが低い演算子」とは、作用するモードあるいは量子ビットの数が少ない演算子を意味する。量子リソースが抑制できるた演算子と言っても良いであろう。ワニエ基底(今の場合、正確にはMLWF)を採用した場合で、密な短距離相互作用と疎な長距離相互作用の両方を考慮する場合は、疎な長距離相互作用のみが「重みが低い演算子」で表すことができる。本論文では、JW変換(+スワップ・ネットワーク)とコンパクト符号化を組み合わせたハイブリッド手法を採用し、相互作用の実行コスト(量子リソース)を最小限に抑えている。JW変換(+スワップ・ネットワーク)で密な短距離相互作用に対応し、コンパクト符号化で疎な長距離相互作用に対応している。後者は、量子リソースが抑制できているので、特に深堀しない(前者は1⃣へ)。
 なお1⃣で改めて述べているが、JW変換+スワップ・ネットワークというセットアップ自体は、本論文のオリジナルではない(がカスタマイズはされている)。

1⃣ 密な短距離相互作用への対応 
 ワニエ基底では、各単位格子座標Rは、多数の密に相互作用するモードで構成される粗粒度の「サイト」と考えることができる。これらのモードは、隣接するサイトとは密に相互作用するが、離れたサイトとは疎らに相互作用する。(記述が重複するが、)この密な短距離相互作用(同じサイト上の=同じ格子サイト・インデックスRを持つ、モード間の相互作用)を、「重みが低い演算子」に変換することは出来ない。
 そのため、取り得る最善策は、JW変換を使用して(同じ格子サイト・インデックスRを共有する)全モードを量子ビットに変換し、フェルミオン・スワップ(fswap)プロトコルを使用して、(結果として得られる)演算子の重みを軽減することである。JW変換とフェルミオン ・スワップの組み合わせは、深度の浅い回路を実現することが知られている(→JW変換はキタエフ変換に劣後するような言われ方をすることもあるが、実際のところ、そうではないらしい)。本論文の補足情報Cでは、「両者の組み合わせが、ほぼ全てのアルゴリズムの中で、(ハードウェア効率の意味で)最適に近い」と述べられている。
2⃣ フェルミオン ・スワップ・ネットワーク
 まず言葉の説明:スワップ・ネットワークとは、スワップ・ゲートのみで構成される回路である。フェルミオン系を物理量子ビットへ変換する場合を区別したければ、 フェルミオン ・スワップ・ネットワークと呼ぶ。
 本論文のスワップ・ネットワークは、先行研究[*98],[*99]で導入された量子リソースが少ない(ハードウェア効率の高い)アーキテクチャが、基本的には踏襲されているものの、カスタマイズが施される。本論文では、2つ~4つのモードで発生する可能性のある相互作用をターゲットとしている。各相互作用には、独自の隣接条件がある。(挿入可能な)スワップ・ゲートの組み合わせを探索する、探索ルーチンには、最急降下ヒューリスティックが採用されている。fswap層(スワップ・ゲートで構成される量子回路)は、残りの相互作用の理想的な隣接構成からの距離を、どれだけ短縮するかによって、候補プールから選択される。この戦略が成功するかどうかは、効率的なプロトコルにつながる距離の概念を慎重に選択するかどうかにかかっている(らしい)。

【4】ベースラインとの比較結果 
1⃣ 前説 
 各材料のハミルトニアンをシミュレートする単一のVQE層を実装するのに必要な量子リソースを推定した。比較は、本論文のセットアップと、「ベースライン」†1である。対象となった材料は、次の5つである:①ガリウム砒素(GaAs)、②二硫化水素(H3S)、③リチウム銅酸化物(Li2CuO2)、④シリコン、⑤バナジン酸ストロンチウム(SrVO3)。推定した量子リソースは、❶量子ビット数、❷ゲート数及び❸量子回路深さ†2、である。ただし、初期状態の準備は考慮されていない。
†1 ブロッホ基底を採用し、フェルミオン系↔量子ビットの変換に、ジョルダン・ウィグナー変換を用いたセットアップ。材料および化学物質の量子シミュレーションにおけるコストのオーバーヘッドを見積もる際に、一般的に使用される標準的なアプローチでもある。
†2 「回路深さ」とは、並列化可能なゲートをグループ化した、当該グループの数を指す。
2⃣ 結果 
 以下、[]内は、ベースラインでの推定結果である。
① ❶1120[1500]、❷4.1×105[3.0×1012]、❸7.9×105[3.5×109]
② ❶1870[1500]、❷2.4×106[3.0×1012]、❸3.7×104[3.5×109]
③ ❶1024[1260]、❷2.3×105[1.5×1012]、❸8.4×103[2.1×109]
④ ❶1120[750]、❷4.5×105[1.8×1011]、❸8.5×103[4.3×108]
⑤ ❶180[864]、❷7.5×103[3.2×1011]、❸8.8×102[6.7×108]
3⃣ 評価 
 ザックリ言って、ゲート数は、106~108削減されている。
 回路深さは、105~106削減されている。

【5】感想 
 リソースの削減幅は劇的であるが、施策自体は地味というか、目からウロコ的である。

XⅧ 量子SVMは古典SVMと比べて境界層の剥離を正確に検出できる、と主張する論文追加あり
【0】はじめに
 航空機の主翼上の散乱した圧力データから境界層の剥離を検出し最小化することは、安定的かつ効率的な航行を確保するために極めて重要である。ナヴィエ・ストークス方程式の厳密解が求められていない現状では、境界層剥離の検出は、数値シミュレーションもしくは、機械学習・深層学習で研究することになる。本論文は、機械学習を用いている。
 上海交通大学他[*100]の研究者は、剥離発生に関する分類タスクにおいて、量子サポートベクターマシン(量子SVM)は、古典SVMに比べて、”優れている”と主張する論文[*101](以下、本論文)を発表した(23年11月21日)。”優れている”点は、速度ではなく、精度(Accuracy:  正解率)である。

【1】本論文の主張
 本論文は、以下を主張する。なお、量子SVMは、量子回路を使ったNISQマシンではなく、量子アニーリング・マシンで実行される。
(1) 二値分類において、量子SVMは90.9%の正解率(Accuracy)を示した。古典SVMは81.8%であり、正解率が11.1%向上した。
(2) マルチ・タスク分類において、(平均)正解率は、量子SVMは79%を示した。古典SVMは67%であり、(平均)正解率が17.9%向上した。
 実は、正解率が量子>古典である理由は、必ずしも、量子アニーリング法にあるわけではない。

【2】事前整理
(1) 翼のレイノルズ数
 流体力学で最も重要な無次元数はレイノルズ数Reである。Re=速度×代表長さ/動粘度、である。航空機の翼を対象とする場合、翼弦長(一般にコードと呼ばれる)を代表長さとして、レイノルズ数を計算する。なお、翼弦長は、翼の前縁と後縁を結んだ直線(翼弦線)の長さ、である。この場合、(区別するため)特別にRecと表記されることがある。
 巡航速度をマッハ0.8とした場合、主翼のRecは10億程度となる。

(2) 境界層及び境界層の剥離
0⃣ 層流と乱流 
 流れには、層流と乱流という分け方があり、境界層にも、層流境界層と乱流境界層という分け方がある。雑に言うと、大小様々な渦の存在が、乱流の本質と考えられている。乱流でなければ、層流となる。教科書には、Re≧2000で乱流と書いてあるが、Reが2000以下でも乱流は発生する。というより、自然界に層流は、ほぼ存在しない。
1⃣ 境界層 
 粘性流体中を物体が運動している状況を考える。そのような場合、粘性流体の粘性の影響により、物体表面近傍では、流体の速度が遅くなっているはずである。この速度が遅くなっている場所は、物体表面から鉛直方向に存在する、非常に薄い層である。この薄い層を境界層と呼ぶ。境界層の流体側の面は滑らかであると仮定することができて、境界層の外側は非粘性流と扱って構わない。
 境界層の厚さは、流体の速度や表面形状などによって変わる。層流境界層内の流れは、乱れておらず、きれいな(放物線状の)速度分布形状を想定できる。乱流境界層内の流れは、乱れており、大小様々な渦が存在する。速度分布形状は、べき乗則に従う急峻な形状となる。境界層内の流速が、一様速度と一致する箇所で境界層(層流境界層、乱流境界層)は終わる。乱流境界層は層流境界層に比べて、逆圧力勾配下での剥離への耐性が強くなる(つまり、剥がれ難くい)。ゴルフボールのディンプルは、乱流境界層を形成するために、造形されている(抗力が減って飛距離が出る)。
 本論文は、航空機の主翼を考えているのだから、流れは乱流で、境界層も乱流境界層である。
2⃣ 境界層の剥離 
 境界層は、様々な要因で物体表面から剥がれる(剥がれても、もちろん再生する)。境界層剥離に伴って後流(伴流とも呼ばれる、英語ではwake)が発生すると、揚力(英語ではlift)が低下・抗力(英語ではdrag)が増大し、速度が低下する。航空機で言えば、失速・墜落につながる可能性がある。
 剥離(流体では、英語でseparation。流体以外の分野によっては、delaminationという文言もある)には(も)、層流剥離と乱流剥離が存在する。また、剥離した境界層は再付着(英語では、reattachment)する。一般には、再付着に伴って速度が減速する共に、流れの安定性が損なわれる(翼に関しては、層流剥離泡という議論がなされる[*102],[*103])。

(3)  迎角 
 迎角(英語では、angle of attack:AoAあるいはAOA)は、先の 翼弦線と流れ方向とが成す角を言う。揚力は、迎角がある値に達するまでは増加するが、その値を超えると、急激に低下する。その値を失速迎角と呼ぶ。
 失速迎角のスイートスポットは、15°~18°程度のようである。また、20°を超えることは無いようである。ちなみに、迎角0でも揚力は発生する(ように主翼は設計されている)。

【3】セットアップ
(1) 問題セットアップ
 量子及び古典サポートベクターマシン(SVM)を使って、「境界層剥離の発生」と「迎角および流速」との対応関係を、学習する。ちなみに、2次計画問題の定式化は、線形分離不可能な場合の、ラグランジュ双対問題の形式で行われている。
1⃣ タスク 
 タスクは、分類タスクで、以下の2種類が設定された:㈠境界層剥離が発生したか、発生しなかったを(二値)分類する、㈡剥離が発生した場合の迎角を判断する(マルチ・クラス分類)。具体的には、迎角を4つのグループ(14°と15°、16°と17°、18°と19°、及び20°)に分け、剥離が発生した迎角が、どのグループに属するかを、マルチ・クラス分類として定式化した。
2⃣ 計算環境とハイパーパラメータ 
 量子SVMは、2次計画問題を2次制約なし二値最適化問題(QUBO)形式に変換して、D-Waveのアニーリングマシン(Advantage 4.1 システム)で解いた。古典SVMは、㈠はscikit-learnのsvm.SVCで、㈡はscikit-learn の Nusvcが使用された。カーネル関数は、ガウシアン・カーネル(RBFカーネルとも呼ばれる)が採用された。ハイパーパラメータは以下の通り:
 ㈠正則化パラメータ(コスト・パラメータとも呼ばれる)C=3、幅パラメータγ=1。量子SVMに対しては、さらにB=K= 2、というハイパーパラメータが用いられた。Bは、符号化に用いられる基底。Kは双対変数を符号化する二値変数の数。
 ㈡正則化パラメータC= 21、γ=0.27、ν=0.3。νは、サポートベクターの数と学習時誤差を調整する役割を果たすらしい。量子SVMのハイパーパラメータは、B= 4、K= 3である。

(2) データの取得 
1⃣ 風洞実験 
 データは、風洞実験及び数値シミュレーションから取得した。風洞実験では、粒子画像流速測定を行い速度データを取得した。迎角αは、翼型(NACA0018翼†1を使用)を固定した回転テーブルを回転させて α=0 ~ 19 °の範囲で調整した。α≤10°の場合は2°刻みで、>10°の場合は1°刻みなので、迎角は15個。流速(平均自由流速度)は 10、13、および 17m/sの3個。データ総数は、15×3=45個である。境界層剥離は、翼型モデルの中央部に、10 個の圧力タップを配置して、測定した。
2⃣ 数値シミュレーション 
 数値シミュレーションでは、NACA633-018翼型†2を使用している。迎角は0°~20°の範囲を、1°刻みで設定した。つまり、21個が設定された。流速(m/秒)は、40~120m/sの範囲を、10m/s刻みで設定した。つまり9個が設定された。データ総数は、21×9=189個である。境界層剥離検出のための圧力測定は、翼表面に均等配置した106点で行った。
 なお、数値シミュレーションに用いたソルバーは、ANSYS Fluentである。ハードウェアはワークステーションが使われた。乱流モデルは、航空力学分野で多用されている[*105]、SST k-ωモデル†3を採用している。蛇足ながら、差分は中心差分が採用され、陰解法で解かれている。
†1 「風車、送風機などの流体機械にしばしば使われる代表的翼型」とされる[*104]。
†2 後縁失速タイプの翼型と言われている[*103]。633の最後の3は、下付き文字で、誤植ではない。
†3 SSTは、Shear Stress Transport(せん断応力輸送)の略である。境界層内部におけるレイノルズ応力(せん断応力)の輸送効果を考慮している、という意味である。k-ωモデルは、kとωという2つの乱流量を導入した2方程式モデルである。kは乱流エネルギー、εは乱流消失率、という物理量である。一般的な流体工学では、k-ωモデルよりもk-εモデルが使われる。ω=ε/kは、乱流の時間スケールの逆数に対応する[*105]。航空分野ではk-εモデルよりも、k-ωモデル(やSST k-ωモデル)が使われる。その理由は[*105]に、「航空分野(流速でマッハ0.8、レイノルズ数10億)で考慮する乱流にとって重要な物理量は、時間スケールであり、ωは、レイノルズ応力やkに直結する大きな空間スケールの変動に固有の時間スケールである」と書かれている。

(3) データセット
1⃣ 境界層剥離 
 風洞実験のデータ45点で構成。34点が学習用、11点がテスト用に使われた。
2⃣ 剥離が発生した場合の迎角判断 
 迎角14°~20° の範囲を1°刻みで設定した7個のデータで構成されており、各角度で 9 個のデータ ポイントが含まれている(流速40~120m/sの範囲を、10m/s刻みで設定したので9個)。総数は7×9=63個である。学習データ43個、テスト用20個に分割した。隣接する 2°を 1 クラス、20°のデータを単独のクラスとして分類し、データセットを 4 つのクラスに分割した。
 分類能力をより適切にテストするために、データを 10 回シャッフルし、異なる学習用データセットとテスト用データセットを取得した。

【4】比較結果 
(1) 境界層剥離の発生検出 
1⃣ 計量指標
 比較に用いた計量指標は、❶F値(F1スコア)、❷正解率(Accuracy)、❸適合率(Precision)、❹再現率(Recall)の4つ。これらは、分類タスクにおける標準的な指標である。ここで、❶=2×❸×❹/(❸+❹)。❷=(TP+TN)/(TP+TN+FP+FN)である。TP:剥離が実際に発生し、剥離発生を(正しく)予測した件数。TN:剥離が実際に発生せず、剥離が発生しないことを(正しく)予測した件数。FP:剥離が実際に発生しなかったが、剥離発生を(間違って)予測してしまった件数。FN:剥離が実際発生したが、剥離が発生しないと(間違って)予測した件数。❸=TP/(TP+FP)、❹=TP/(TP+FN)
2⃣ ベンチマーク 
 ベンチマーク(古典SVM)は、scikit-learn 1.0.2 によって提供される svm.SVCである。カーネル関数は、ガウシアン・カーネル(RBFカーネル)を採用しており、正則化パラメータ(あるいはコスト・パラメータ)C=3、幅パラメータγ=1である。量子SVMには、さらに次のハイパーパラメータが用いられる:B=K= 2。Kは双対変数を符号化する二値変数の数。Bは、符号化に用いられる基底である。
3⃣ 結果
 量子SVMの結果をq、古典SVMの結果をcで表すと、❶(q,c)=(0.9091、0.7143)、❷(q,c)=(0.9091、0.8182)、❸(q,c)=(1.0、1.0)、❹(q,c)=(0.8333、0.6667)となった。なお、❶と❷でqの数値は同じであるが、誤植ではない(ただし、本論文のママという意味)。

(2) 迎角のマルチタスク分類 
 10個のデータセットを使った結果の中から、良い方の5つを抽出する。ハイパーパラメータは、5つの平均を採る。決定関数は、その平均値から計算される。
 ベンチマーク(古典SVM)は scikit-learn の Nusvcである。ハイパーパラメータは、γ= 0.27、C= 21、ν=0.3。νは、サポートベクターの数と学習時誤差を調整する役割を果たすらしい。量子SVMで追加されるハイパーパラメータは、B= 4、K= 3である。
 計量指標である「平均正解率」は、古典SVMは 0.67、量子SVMは 0.79 である(なお、標準偏差は 古典SVM 0.121、量子SVM 0.097)。

【5】考察 
(0) 本論文が掲載されたジャーナルは、サイエンス・パートナー・ジャーナル(SPJ)である。一流科学雑誌米サイエンスに属する、オンラインのみのオープン・ジャーナルである。ネイチャーも同様のネイチャー・パートナー・ジャーナル(npj)を立ち上げている。ただ、どちらも、特定の研究機関と共同で作成するらしい。本論文が掲載されたのは、SPJのIntelligent Computingであり、中国の之江実験室と共同で作成されるジャーナルである[*106](ので、お手盛りの可能性は否定できない?)。なお、之江実験室とは、浙江省・浙江大学・アリババが共同出資して設立した「研究機関」らしい(浙江省は、100億元(≒1637億円≒US$1.4bil)を拠出したらしい)[*107]。
(1) データセット作成において、 風洞実験ではNACA0018翼を使用し、数値シミュレーションではNACA633-018翼型を使用しているが、同じ翼型を使うべきだと思えるが、どうなのだろうか。また、NACA0018翼を航空機の主翼の翼型として使用することが妥当か、という議論もあるように思える。ソルバー(Fluent)と乱流モデル(SST k-ω)は標準的である。
(2) 量子>古典の度合が、やや行き過ぎていて、眉唾に感じてしまう。量子SVMは、二値分類で11.1%、マルチ・タスク分類で17.9%も”優秀”である。通常であれば、トントンもしくは、かろうじて量子>古典であろう。
(3) マルチ・タスク分類で量子SVM>古典SVMとなった理由を、本論文では、「量子アニーリングが、必ずしも大域的最適解を返さないことにある」と考えている。つまり、最適解に近い解をいくつか使用することによって、精度が上がるという主張である。アンサンブル平均のイメージであろうか。これが「もし、本当なら」、量子アニーリング・マシンの使い道は、グッと広がると思われる。

❚❚❚追 加❚❚❚ 医療画像の識別・診断で、量子SVM>古典SVMという論文
 SVMつながりで、追加した。エチオピア・ゴンダール大学の研究者は、「量子SVM⚡1は、アルツハイマー病の初期段階を、古典SVM⚡2より正確に識別できる」と主張する論文[*Supp-1]をscientific reportsにて公開した(24年6月20日)。初期段階とは、「非常に軽度認知症、軽度認知症、中等度認知症」⚡3であり、非認知症、を含めて脳MRI画像⚡4から識別(多値分類)する。
 研究フローは以下の通り:まず、アンサンブル深層学習モデルを使って、脳MRI画像から特徴量を抽出する。当該特徴量を、量子SVM、古典SVMの入力として、多値分類タスクを行う。量子SVMと古典SVMの結果を比較する。アンサンブル深層学習モデルとは、「VGG16⚡5+ResNet-50⚡6」を意味している。
 機械学習モデルの評価指標は、(分類タスクであるが、医療分野なのでギョーカイに併せて)以下の通り:❶正診率(accuracy)、❷陽性的中率(precision)、❸感度(recall⚡7)、❹F1スコア、❺ROC-AUC。※ただし、そもそも、グランドトルゥースは明示されていない。
 比較指標を、「(量子SVMの結果-古典SVMの結果)/古典SVMの結果」⚡8とすると、❶15.1%、❷13.1%、❸14.1%、❹13.2%、❺10.4%となる⚡9。額面通りに受け取れば、”大幅に、性能がアップ”している(鵜呑みにはできないと思っている☛医学系の論文は捏造が多いから・・・)。
 ちなみに、XⅧで同じことをすると、❶11.1%、❷0.0%、❸25.0%、❹27.3%となる。怪しさが、さらに増す。
⚡1 詳細な情報なし(→査読者は指摘しないのだろうか?)。詳細と言っても、量子カーネル=量子状態の内積=具体的な「符号化の方法」、が分かれば十分である。「符号化の方法」は、この文脈では、一般に特徴量マップと呼ばれる。最も有名なのが、ZZ特徴量マップである。
⚡2 詳細な情報なし(→査読者は指摘しないのだろうか?)。詳細と言っても、古典でも、カーネル関数の詳細が分かれば十分である。
⚡3 正確には、この3つが何を表してるか不明である(説明がない→査読者は指摘しないのだろうか?)が、バリー・ライスバーグ博士によるアルツハイマー病の7段階の、2,3,4段階に相当するとしておく。cf.https://www.alz.org/asian/about/stages.asp?nL=JA&dL=JA
⚡4 ADNIデータベースから抽出されている。ADNI(Alzheimer’s Disease Neuroimaging Initiative)は、アルツハイマー病発症過程を縦断する脳画像研究であり、日本,米国,欧州,豪州において、同一プロトコルを用いて実施される、非ランダム化長期観察研究である。2005年に米国で発案、開始された。日本のADNIは、J-ADNIと呼ばれる。
⚡5 16層からなるVGGNet。VGGNetは、オックスフォード大学のVisual Geometry Group(VGG)が開発した(深層)畳み込みニューラルネットワーク・モデルで、画像識別分野では有名。VGGNetの中でも、VGG16とVGG19が優れているとされる。
⚡6 50層からなるResNet。ResNetは、多層化による勾配消失問題をスキップ接続で解消した(深層)畳み込みニューラルネットワーク・モデル。画像識別分野では有名。ResとはResidual(残差)の意味で、スキップ接続を含むブロックを残差ブロックと呼ぶ。
👉 VGGNet、ResNetでは、過学習防止策として、バッチ正則化及びドロップアウトを採用(ドロップアウト率は、不明)。
👉 VGGNet、ResNetのハイパーパラメータ等は以下の通り:バッチサイズ=64、学習率=1.0×10-4、オプティマイザ=SGD(Stochastic Gradient Descent:確率的勾配降下法)、損失関数=交差エントロピー、エポック数=125。
⚡7 一般的な分類タスクの文脈で再現率(recall)と呼ばれる指標は、医療分野ではsensitivity(日本語では、感度)と呼ばれる(→査読者は指摘しないのだろうか?)。その意味でも、この論文は、やや中途半端な感じがする。
⚡8 論文[*131]に、このような結果が示されているわけではない(弊社が計算しただけ)。
⚡9 ちなみに、アンサンブル学習とともに、それぞれ1⃣VGG16単体、2⃣ResNet-50単体で特徴量を抽出した結果も存在する:
1⃣❶12.2%、❷12.3%、❸11.7%、❹12.3%、❺10.8%。2⃣❶11.3%、❷11.8%、❸6.7%、❹7.3%、❺15.1%。

XIX 量子古典ハイブリッド生成モデルは、古典生成モデルより、高質なヒット化合物を探索できると主張する論文
【0】はじめに
 トロント大学他[*108],インシリコ・メディシン[*109],ザパタ・コンピューティングは、「量子古典ハイブリッド生成モデルは、古典生成モデルよりも、高質なヒット化合物を探索できる」と主張する論文[*110](以下、本論文)を発表した(2024年2月13日)。
 本論文の主張は、「量子古典ハイブリッドモデルの探索結果が、古典モデルよりも優れている」という内容であり、「量子モデルが古典モデルよりも高速」という内容ではない。量子古典ハイブリッドモデル(のモデル・アーキテクチャ)は、量子生成モデルと古典的深層学習モデルで構成される、敵対的生成ネットワークである。さらに、量子生成モデルは量子回路ボルンマシンであり、古典的深層学習モデルは、LSTM(Long Short Term Memory)である。
† ヒット化合物と標的タンパク質とが強く結合する、という意味である。

【1】本論文の主張
(1) 3つの標的タンパク質のうち一つで、ハイブリッド生成モデルは、古典生成モデルと比べて、ドッキング・スコアで優れたヒット化合物を探索することができた。
(2) 「量子モデルの複雑さと、高品質の分子生成の有効性との間に、直接の関係がある」ことが示され、この傾向は、「量子モデルの量子ビット数を増加させて分子設計の結果を体系的に改善できる可能性を強調している」。
(3) KRASG12D、 G12Rへの結合を示すKRAS阻害剤(抗がん剤)候補化合物を生成した。それらは、WT NRASとHRAS及びWT HRASとNRASに対しても結合を示した。さらに、独特の阻害プロファイルを示しており、有望な抗がん剤となる可能性がある。

【2】事前整理
(1) 機械学習・深層学習を用いた創薬プロセス
 まず、低分子化合物を対象とした前臨床までの創薬プロセス[*111]について、簡単に整理する。最初のステップは、「スクリーニング」である。つまり、化合物ライブラリーからヒット化合物をスクリーニングする、というステップである。ヒット化合物は、創薬標的に対して活性が確認されたという状態である。次のステップは、「リード探索」である。ヒット化合物の中から、(ざっくり言って)薬理作用を有する化合物を探索する。薬理作用が確認されたヒット化合物は、リード化合物と呼ばれる。最後のステップは、「リード最適化」である。リード化合物は、安全性と十分な薬理作用が期待できるように最適化できた場合、前臨床候補化合物となる。
 スクリーニングのステップにおける旧来型の手法は、ウェット実験で確認するという手法である。 この「化合物と標的タンパク質とが結合するか否かを実験的に確かめる」手法は、手間暇がかかる。具体的には、1つの化合物につき約1万円を要する[*112]らしい。ヒット化合物を見つける確率が約1/1万であることを鑑みると、ヒット化合物の値段は1億円~ということになる。このコスト及びウェット実験にかかる時間を削減するために、コンピュータを使った「仮想スクリーニング」が指向されるようになった。仮想スクリーニングは、マシンパワー頼みで、総当たり方式(ブルート・フォース)で行う方法と機械学習・深層学習を使って計算コストを抑えた方式がある。本論文で扱っている仮想スクリーニングは、後者である。
 一般に、機械学習・深層学習を使った創薬では、3つのことが期待される[*113]。㊀時間とコストの削減(この場合の時間とは、ヒット化合物及びリード化合物を同定するまでのトータル時間である)、㊁成功確率の向上(ここで言及されている確率は、治験をクリアする確率である)、㊂新規性。本論文では、㊂において、面白い結果が示されている。

(2) RASタンパク質及び、KRAS阻害剤
 RASタンパク質は、低分子GTPアーゼ・タンパク質(あるいはGTP結合タンパク質)のサブ・ファミリーである。GTPアーゼは、アーゼの接尾語がついている通り、酵素である。具体的には、GTP(グアノシン3リン酸)の3番目のリン酸を、GDP(グアノシン2リン酸)に加水分解(脱リン酸化)する加水分解酵素(ファミリー)である。RASタンパク質には、HRASタンパク質、KRASタンパク質、NRASタンパク質という3種類のサブタイプが存在し、それぞれHRAS遺伝子、KRAS遺伝子、NRAS遺伝子から作り出される。3つのRASタンパク質は、全てがん発生に関与することが分かっている。
 GTPアーゼは、通常の酵素とは異なる。基質であるGTPと分解物であるGDPと、それぞれ結合した上で安定的に共存し、細胞内シグナル伝達を担う分子スイッチとして機能する。このため、結合タンパク質とも呼ばれる。正確に言うと、GTPアーゼ=RASタンパク質がGDPと結合した状態はシグナル伝達に関わらないオフ・スイッチであり、GTPと結合した状態はシグナル伝達に関わるオン・スイッチである。つまり、RASタンパク質が基質に結合することによりスイッチが入り、基質を分解するにつれて、スイッチが切れる(実際には、GDPからGTPへの変換(を加速)する因子、GTPからGDPへの加水分解を促進する因子も関わり、より複雑なプロセスとなっている)。分子スイッチとしてのRASタンパク質は、細胞増殖シグナル伝達の上流に位置している。RAS遺伝子が変異することでRASタンパク質が変異し、GTP結合状態が増えると、シグナル伝達が恒常的に活性化される。その結果、がん化が引き起こされる。
 RASファミリーの中でも、KRASは最も高頻度に変異し、KRAS変異はRAS変異によって促進されるがんの約80%を占めている。さらにKRAS変異は、特に致命的ながんに多く、膵臓がんの77%、大腸がんの43%、非小細胞性肺がんの27%に存在している。このため、KRAS変異を持つがんを効果的に抑制することは、極めて重要と認識されており、KRAS変異が原因となるがんについて研究開発が進められている[*114]。
 KRAS変異によって引き起こされるシグナル伝達の恒常的な活性化を阻害することを作用機序とする薬剤(以下、KRAS阻害剤と呼ぶ)の開発は困難であった。その理由は、㊀KRASに疎水性のポケットがなく活性向上が困難であるにもかかわらず、㊁細胞内に豊富に存在するGTPと KRAS の親和性が高く、非常に高い阻害活性が要求されるからであった[*115]。
 KRASの最も一般的な変異は、12番目のグリシン(G12)で発生する。G12での変異は、さらに9つのサブタイプ(G12C、G12D、G12R、G12S、G12Vなど)が存在する。非小細胞性肺がんは、G12C変異を最も多く含む。米カリフォルニア大学サンフランシスコ校のチームは、G12Cに不可逆的に結合し、恒常的なシグナル伝達を阻害することに成功した(2013年)。この成果を契機に研究が進展し、米アムジェンはKRAS阻害剤ルマケラス(一般名ソトラシブ)を開発することに成功した。ルマケラスは、非小細胞性肺がんを適用対象として、2021年5月にFDA承認を得た。現状、KRAS阻害剤は12GCを標的にしたルマケラスのみである。

(3) 量子回路ボルンマシン(QCBM)という生成モデル
 ザパタは、QCBMは量子優位をもたらすというキャンペーンを以前から展開している。QCBMは変分法に基づく量子生成モデルである。つまり、パラメータ化された量子回路(アンザッツ)|ψ(θ)⟩ によって構築される。QCBMの学習には、アンザッツのパラメーターを最適化して、ターゲット確率分布に近似する確率分布を生成することが含まれる(パラメータ最適化には、古典的オプティマイザーが使用される)。この確率分布は、量子力学のボルン則に従って生成される。量子力学のボルン則は、測定基準(密度演算子ρ)が与えられれば、それだけで、特定の結果|x⟩ の測定結果を取得する確率pが、計算できるという”法則”である。純粋系のρは、アンザッツによってρ=|ψ(θ)⟩⟨ψ(θ)|と計算(構成)され、確率pは、p=|⟨x|ψ(θ)⟩|2 と計算される。確率pを|x⟩の関数p(|x⟩)→p(x)として捉えれば、確率分布関数となる。
 生成モデルは、観測されるデータから、その観測データを生み出している隠れモデルを見つけるという学習モデルである。観測データは、確率分布関数から生み出されるとして定式化されるから、生成モデルの構築は、観測データが従う確率分布関数を推定することを意味する。QCBMに基づく生成モデルは、ボルン則に基づいてデータから確率分布関数を推定する生成モデルと考えることができる。

(4) その他 
1⃣ STONED-SELFIES アルゴリズム
 分子表現としてSELFIESを使用した「化合物生成アルゴリズム」である。ステップは以下の通り:㊀SMILESの入力から同じ意味を持つSMILESを複数ランダムに生成する、㊁生成したSMILESをSELFIESに変換する、㊂SELFIESをランダムに変異させる、㊃SELFIESからSMILESに変換する。
2⃣ VirtualFlow[*116] 
 VirtualFlowは、バッチシステムで管理された、Linuxベースのコンピュータ・クラスタ上(バイ・ネームで言えば、AWS)で仮想スクリーニング関連タスクを実行するための、汎用性の高い並列ワークフロー・プラットフォームである。VirtualFlowはオープンソース・プロジェクトで、ハーバード大学(のChristoph Gorgulla)が当該プロジェクトの開発者であり、リード・デベロッパーである。現在、VirtualFlowには2つのバージョンがあり、それぞれ異なるタイプのタスクに対応している。VFLP: リガンド調製用VirtualFlow、VFVS:仮想スクリーニング用VirtualFlow。これらはワークフロー管理と並列化に関して同じコア技術を使用しており、個別に使用することも、互いに連携して使用することもできる。今後、追加バージョンの登場が予定されている。VFVS用のビルド済みリガンド・ライブラリは無償で入手可能である。
† 一般に「標的タンパク質上の結合部位に結合することでシグナルを生成する分子」と定義される。比喩的には、標的タンパク質が鍵穴、リガンドが鍵に例えられる。

【3】本論文におけるモデル詳細
(0) 創薬の文脈から見たモデルの説明 
 本論文は、ある特定の疾患における標的タンパク質とリガンドの結合作用を基に、ヒット化合物を探索する(創薬における1つの)ステップを対象としている。具体的に言えば、特定疾患は癌であり、標的タンパク質は、KRASタンパク質である。つまりKRAS阻害を作用機序とする抗がん剤候補(ヒット化合物)を探索するステップが、本論文の研究対象となっている。

(1) データセットの生成
 KRAS タンパク質をターゲットとする生成モデルを学習するための堅牢なデータセットが構築されている。当該データセットは、広範な文献レビューを通じてキュレーションされた、実験的に確認された約650のKRAS 阻害剤からスタートしている。続いて、㈠仮想スクリーニングと、㈡局所的な化学空間探索を使って、データを増やした。
㈠ 仮想スクリーニングでは、まずVirtual Flow 2.0を使用して 1 億個の分子をスクリーニングした。次に、分子ドッキング技術と組み合わせて Enamine社の REAL®ライブラリを利用した[*117]。このスクリーニングの上位 250,000 個の化合物は、最も低いドッキング スコアを示し、その後データセットに統合された。
㈡ 局所化学空間探索は、STONED-SELFIES アルゴリズムを使用して実施され、実験的に得られた 650 件のヒット化合物に適用された。得られた誘導体は、合成可能性に基づいてフィルタリングされ、最終的に 85 万個の分子が学習セットに追加された。
† Enamine(https://enamine.net)は1991年、早期創薬におけるハイスループットスクリーニングの出現とともに設立された。Enamineはスクリーニング化合物、ビルディング・ブロック、フラグメントのグローバルプロバイダーとして、製薬会社、バイオテクノロジー企業、創薬センター、学術機関、その他世界中の研究機関が実施する幅広い研究プログラムをサポートしている。

(2) モデル・アーキテクチャ
1⃣ 全体構成
 モデルアーキテクチャは、敵対的生成ネットワークである。まず、深層学習の文脈のみで説明すると、以下のようになる:生成器としてLSTMを用いる。生成器の入力となる確率が従う確率分布のサンプラーとして、QCBMが用いられている。識別器は、インシリコ・メディシンの低分子化合物生成プラットフォームChemistry42である。
 創薬の文脈で補足すると、QCBMは、標的タンパク質への結合能を失わない範囲で、あるリガンドが別のリガンドに変換される写像を、確率分布関数として学習していると解釈できる。学習済みのQCBMがサンプリングする確率を受け取って、LSTMは新たなリガンドを生成する。新たに生成されたリガンドは、Chemistry42によって、薬理学的フィルタリングをかけられる。
2⃣ LSTMのアーキテクチャ等
 LSTMの損失関数は、負の対数尤度関数である。Adamオプティマイザーを使用して学習され、過学習を軽減するために、ドロップアウトなどの正則化手法が実装されている。活性化関数には、シグモイド関数(とtanh関数)を使用している。エポック数は40。
3⃣ QCBMのアーキテクチャ等
 IBMの量子ハードウェア(16量子ビットのNISQマシン)と量子シミュレータで実行される。QCBMの損失関数も、負の対数尤度である。オプティマイザーにはCOBYLA を使用して、合計96 のパラメーターが最適化される。線形トポロジーが採用され、16 量子ビットと 4 層でネットワークが構築される。エポック数は30。

【4】比較結果 
(1) 3つのタンパク質に対する事前検証
0⃣ 標的タンパク質 
 「1SYH(受容体)、6Y2F(酵素)、4LDE(受容体)」という3つの標的タンパク質に焦点を当てた。㊀1SYH は、アルツハイマー病、パーキンソン病、てんかんなどの神経疾患および精神疾患に関連するイオンチャネル型グルタミン酸受容体である。㊁6Y2FはSARS-CoV-2ウイルスの主要なプロテアーゼであり、RNA翻訳に重要である。㊂4LDEは、β2 アドレナリン受容体である。詳しく述べると、筋弛緩と気管支拡張に関与するホルモンであるアドレナリンに結合する細胞膜貫通受容体(GPCR)である。
1⃣ 目的と評価指標
 本論文で提示するハイブリッドモデルが、標的タンパク質に対して強い結合親和性を示す新規分子を生成すること及び、ドッキング スコアを最小限に抑えること、を目標として事前検証を実施した。評価指標としては、ドッキングスコアと成功率(success rate:SR)を採用した。ドッキングスコアは、2種類のドッキング・シミュレーション用ソフトウェア(QuickVinaとSMINA)を使って計算する。成功率とは、事前に定義された構造ベンチマークを満たす分子の割合を示す。
2⃣ 比較対象モデル
 本論文で提示されているハイブリッドモデルを(長いので)BM-LSTMとする。BM-LSTMの比較対象となる古典モデルとしては、以下が選択された:VAE(分子表現として、SMILESとSELFIESを使う)、MoFlow(Flowベースのグラフ生成モデル)、REINVENT(再帰型ニューラルネットワークに基づくSMILES生成モデル)、GB-GA(グラフベースの遺伝的アルゴリズムに基づく生成モデル)、JANUS(STONED-SELFIES アルゴリズムを採用した遺伝的アルゴリズムに基づく生成モデル)、LSTM(分子表現として、SMILESとSELFIESを使う)。
3⃣ 結果
 以下に示すように、実に微妙な結果である。BM-LSTMは、古典モデルに比べて、標的タンパク質に対して強い結合親和性を示す新規分子を生成できていない。
 ㊀1SYHでは、REINVENTのドッキングスコアが、QuickVina・SMINAとも最も優れていた(最小であった。以下、同じ)。成功率はBM-LSTMが最も優れていた。㊁6Y2Fでは、JANUSのドッキングスコアが、QuickVina・SMINAとも最も優れていた。成功率はBM-LSTMが最も優れていた。㊂4LDEでは、QuickVinaのドッキングスコアはBM-LSTMが最も優れていた。SMINAのドッキングスコアは、GB-GAが最も優れていた。成功率はBM-LSTMが最も優れていた。
4⃣ スケーラビリティの期待
 量子ビットの数を2量子ビットから18量子ビット増やした場合の成功率が、直線的に増加していることをもって、「量子モデルの複雑さと、高品質の分子生成の有効性との間に、直接の関係があることを示している」と結論してる。そして、「この傾向は、量子モデルの量子ビット数を増加させて分子設計の結果を体系的に改善できる可能性を強調している」とかなり大風呂敷を広げている。

(2) KRAS阻害剤
1⃣ フィルタリング 
 KRAS阻害剤として有望なリガンド構造を抽出するために、BM-LSTMによって生成された低分子化合物は、様々なフィルターを通してふるいにかけられた。
🛎 2次元構造フィルターで、水素結合供与体、酸素原子、芳香族原子の割合、回転可能な結合などの単純な構造パラメーターと組成パラメーターを評価する。
🛎 2D 特性フィルターで、分子量、親油性、トポロジカル極性表面積(tPSA)、分子の柔軟性などの推定化合物特性を評価する。
🛎 医薬化学フィルターにより、望ましくない、または問題のある構造フラグメントを特定する。
2⃣ 追加の条件 
 以下のような条件が課せられた。
🧪 すべての Chemistry42 フィルターを正常に通過する。
🧪 タンパク質-リガンド相互作用スコアが 、-8 kcal/mol 未満。
🧪 0.7 を超えるファーマコフォア一致スコア。
🧪 合成Accessibility (ReRSA) スコアが 5 未満。
3⃣ 特性評価の結果 
 1⃣で課したハードルを越えた15の化合物が実際に化学合成され、特性評価された。最終的に、2つの化合物ISM061-018-2(以下、ISM18と呼ぶ) および ISM061-22(以下、ISM22と呼ぶ)が選ばれた。
 ISM18は、KRAS12GDへの結合を示した。またWT NRASとHRASに対して結合を示した。
 ISM22は、KRAS12GDへの結合は示さないが、G12R (及びQ61H)への結合を示した。また、WT HRAS及びNRASに対して結合を示した。さらに、ISM22は、RASタンパク質とRAFタンパク質の相互作用曲線において50% の最大活性で安定するという独特の阻害プロファイルを示した。これは、ISM22がシグナル伝達経路に与える影響が独特であることを示しており、有望な薬剤となる可能性がある。

【5】考察 
(1) QCBMがサンプラーとして優秀であることは、肚落ちする。数学的なアルゴリズムを使って計算機上で発生させる乱数より、物理乱数の方が、よりランダムであることと本質的には符号する(と考えている)。
(2) とは言え、本論文で提示されている量子古典ハイブリッド生成モデルが、古典生成モデルよりも優れているかというと、3戦して1勝2敗であるから、答えはノーであろう。古典モデルであっても深層学習モデルは、優秀なので、量子モデルが凌駕することは難しい。これは、当然、創薬以外の分野でも共通して観察される。
(3) 不毛な台地を回避できる量子アルゴリズムの多くは、古典アルゴリズムで効率的にシミュレート出来るという論文(こちら)は、QCBMも、その範疇に含んでいる。ただし、それはmaximum mean discrepancyに基づくコスト関数を使用している場合であり、本論文のQCBMは該当しないと思われる。と同時にそれは、量子優位性を保証するものでもない。本論文は、(本論文で提示した)ハイブリッド生成モデルが量子優位性を示していないことを認識しているし、量子優位性をウリにしようともしていない(と思われる)。
(4) KRAS阻害剤が上市できれば、ブロックバスターの可能性も夢ではないだろう。30年以上KRASを標的とする薬剤が開発できなかったところ、KRASG12Cを標的としたルマケラスが、2021年5月にFDAで承認された。現状KRAS阻害剤は、ルマケラス1つのみである。
 G12Cは非小細胞性肺がんに多い変異であった(G12D、G12Vも含む)。すい臓がんではG12D、G12V、G12R変異が多い。大腸がんでは、G12DおよびG12Vが最も多く、G12Sが含まれることもある[*114]。今回、G12DやG12Rに活性を示す低分子化合物が見つかっているから、ベストシナリオだと、すい臓がんに対する抗がん剤が開発できるかもしれない。これは大きな福音であろう。

XX mRNA二次構造予測問題で、変分量子アルゴリズムに量子加速性があるかを検証した論文
【0】はじめに
 量子計算界隈は今、量子計算が、実アプリケーション(ビジネス)において役立つことを、示す必要に迫られている。正確には、当面NISQデバイス⚔1しか存在しないという前提の下、NISQデバイスでも、ビジネスに役立つと示すことが、求められている。これは、暫時ハイプを喧伝した結果故の自業自得でもある⚔2
 IBM(Quantumニューヨーク及び東京)とモデルナ[*120]の研究者は、「mRNA(メッセンジャーRNA)の二次構造予測問題における、変分量子アルゴリズムのスケーリングを検証」した論文[*121](以下、本論文)を公開した(24年5月30日@arXiv)。本論文は、量子アルゴリズムと古典アルゴリズムとを比較し、計算速度が高速か、あるいは計算結果が高精度か、を議論する内容ではない。本論文の問題設定は、次の通りである:
 問題のサイズが大きくなるにつれて、古典アルゴリズムでは、手に負えなくなる。その領域(サイズ)で、変分アルゴリズムは問題を解くことができるだろうか。その問いに答えることが、本論文のテーマである。しかも、対象としている問題は、役に立つ実用的な問題(創薬に結びつく生命科学分野の問題)である。
⚔1 Noisy Intermediate-Scale Quantumデバイス。量子誤り訂正が実装されていない量子計算実行装置を指す。ニスクと発音する。名付け親であるMITの理論物理学者John Preskill教授によれば、イントネーションは-皮肉なのか-リスク(risk)と同じである。NISQデバイスの計算結果には、かなりの誤差が含まれていると考えられるので、通常は、量子誤り緩和(策)と呼ばれる、古典コンピュータを用いた統計的処理によって計算誤差を除去する。実行的なノイズ除去には、ハードウェア固有のノイズを考慮する必要がある。
⚔2 そのため、ヘンテコな主張がまかり通っている。曰く「量子コンピューターはこのムーアの法則を笑いものにする力をもっているわけです。2年で2倍どころか。2年で数兆倍になります[*122]」。もし仮に、それが本当なら、確かに凄い。直ぐに、光の速度を越えそうだ。

【1】本論文の主張
 本論文は、以下を主張する:
(1) 量子誤り緩和策を使用しなくても、アルゴリズムとオプティマイザを工夫すれば、「NISQデバイスで実行される変分量子アルゴリズムは、mRNAの二次構造予測において、最良の古典ソルバーと遜色がない」。使用した量子アルゴリズムはVQEで、より正確にはCVaR-VQE(☞【2】(1))である。
(2) 問題のサイズ(mRNAの配列長)が増加した場合に、(1)設定において、量子加速性を期待はできるが、明言はできなかった(☞【4】(4))。
❚為念・注釈❚
 あくまで、(2)がメインである。(1)は古典>量子を主張しているようで驚くかもしれない。しかし、系のサイズが小さい問題で古典計算を凌駕しなくても、量子計算にとってはダメージはない。量子計算の主戦場は、系のサイズが大きい問題である。

【2】事前整理
(0) mRNAの二次構造予測問題 
 mRNA(RNA)の二次構造予測問題は、塩基配列の最も安定した折り畳みを見つける問題である。二次構造の二次は、部分という意味合いである。最も安定した折り畳みを予測するには、「生理学的条件下で、RNAが最も採用する可能性の高いコンフォメーションである、折り畳まれていない状態」と比較して、最も低い自由エネルギー(MFE)を持つ構造を、計算モデルで決定する必要がある。
0⃣ mRNAと医薬品 
 リボソームに、タンパク質の設計図を運ぶ。これが、メッセンジャーRNA(リボ核酸)の役目である。リボソームは、タンパク質(アミノ酸)を翻訳・合成する細胞内の小器官である。設計図は、DNA(デオキシリボ核酸)から、mRNAに転写(コピー)される。
 ここで、重要なことは、タンパク質を直接作らせるのは、mRNAであってDNAではない、ということである。言い換えると、mRNAを”人工的に”合成し、リボソームに届けることができれば、”人工的に”タンパク質を、細胞内(体内)で合成できる、ことになる⚔3。改めて、薬学的に表現すると、医薬品となり得るタンパク質を、体内で生産できる、ことになる。このシナリオを、新型コロナウィルスのワクチンという形で実証したのが、モデルナであった⚔4。ただし、モデルナの新型コロナウィルス・ワクチンで、mRNAが合成させるタンパク質は、医薬品ではなく、抗原である。ワクチンは、獲得免疫の性質を利用するので、これは当然である。
⚔3 人工的なmRNAは、生体内で分解されやすい、炎症反応を惹起する、という2つの問題があった。後者は、mRNAの塩基(ウラシルー正確には、ウリジン)を化学的に修飾することで、解決された。そして、解決した人物が、2023年のノーベル生理学・医学賞を受賞した、米ペンシルベニア大学のカタリン・カリコ博士と、ドリュー・ワイスマン博士である。
⚔4 [*123]によれば、mRNAを使ってヒトにクスリを作らせるというアイデアは、米ハーバード大学メディカル・スクールのデリック・ロッシから、フラッグシップ・バイオニアリングというベンチャー・キャピタルに持ち込まれたものらしい。モデルナは、フラッグシップが設立し、CEOのステファン・バンセルも、フラッグシップが見つけたらしい。
1⃣ 二次構造及び擬似ノット
 生命科学分野において、二次構造という言葉は、タンパク質やDNA、RNA等に対して適用される。1本鎖であるRNAの文脈では、部分的に形成される2本鎖を二次構造と呼ぶ。RNAを構成する4種類の塩基(アデニンA,シトシンC,グアニンG,ウラシルU)は、水素結合により塩基対を形成する。この、水素結合により形成された塩基対構造が、二次構造である。mRNA(を含むRNA)の機能性は、二次構造に本質的に関連している。
 RNAの二次構造には、「ヘアピンループ、内部ループ、多分岐ループ、バルジ、ヘリックス、および擬似ノット」と呼ばれる構造が存在する。擬似ノット⚔5を持つRNA二次構造予測の問題はNP完全であるが、幸い、擬似ノットが現れる回数は、他の塩基対に比べ非常に少ない。そのため、通常は、擬似ノットを無視して、RNA二次構造予測が行われる。擬似ノットを無視しても、実験室で観察される二次構造の予測において 65~73% の精度が達成されている。
 本論文では、すべてのケースにおいて、擬似ノットは無視されている(と思われる)。
⚔5 RNA二次構造における塩基対は、一般的に、「入れ子」構造として現れる。「入れ子」でない塩基対が、擬似ノットである。
2⃣ NussinovアルゴリズムとZukerスキーム
 RNAの二次構造を予測する有名な古典アルゴリズムには、 NussinovアルゴリズムとZukerスキームがある。これらの方法を、概略的に述べると、次のようになる:すべての可能な塩基対を体系的に評価→熱力学モデルを適用して、安定性を推定→最小自由エネルギー(MFE)構造を計算。
 ただし、本論文では、上記アルゴリズムを使用するわけではない。RNA二次構造予測問題を、二次制約無し二値最適化問題に置換し、古典ソルバー(CPLEX⚔6)と量子アルゴリズムとで比較する。このため、上記アルゴリズムに関しては、軽く触れるのみに留める。
 Nussinov アルゴリズムは、1 本の RNA 配列に対して、塩基対数が最大となる二次構造を求めるアルゴリズムである。Nussinov アルゴリズムは、動的計画法に基づいており、行列の値を再帰的に求める。Zukerスキームは、Nussinovアルゴリズムよりも、複雑にエネルギーを計算する。二次構造のエネルギーは、ループの自由エネルギーの和として近似される。
⚔6 IBM® ILOG CPLEX Optimization Studioは、数理計画と制約プログラミングを利用した意思決定最適化モデルの迅速な開発と実装を可能にする、処方的分析ソリューション。出所)https://www.ibm.com/jp-ja/products/ilog-cplex-optimization-studio

(1) CVaR-VQE 
0⃣ 概要 
 まずザックリ言うと、CVaR-VQEは、「(離散)最適化問題の収束を高速化する」アルゴリズムとされている。
 本論文の量子アルゴリズムは、VQE(Variational Quantum Eigensolver:変分量子固有値ソルバー法)である。正確には、改良型のVQE、つまりCVaR-VQEが採用されている。CVaRとは、金融リスク管理において名が知られているConditional VaR(Value at Risk)-条件付きバリューアットリスクである。金融分野では、期待ショートフォール(Expected shortfall:ES)とも呼ばれる。IBM及び仏高等師範学校が開発した手法で、[*124]において紹介されている。
 VQE(やQAOA)は、 (しばしばアンザッツと呼ばれる)パラメータ付き量子回路U(θ)を用いて、試行波動関数|ψ(θ)⟩を生成(U(θ)|0⟩=|ψ(θ)⟩)し、期待値⟨ψ(θ)|H|ψ(θ)⟩を最小化することで、最適化問題を解くという枠組みである。CVaR-VQEでは、期待値を最小化するのではなく、CVaRを最小化する。
1⃣ 定量的な説明 
 以下、やや詳しく、VQEとCVaR-VQEの違いについて述べる。VQEは、試行波動関数|ψ(θ)⟩ の測定後に、サンプリングされたビット列の確率分布とそれに対応するエネルギーを使用して、適切なコスト関数=期待値⟨ψ(θ)|H|ψ(θ)⟩を計算する。そして、古典的な最適化スキームによって、コスト関数を最小化するパラメーター θ を特定することで、最適化問題を解く。
 一方、CVaR-VQEでは、CVaR ベースのコスト関数を使用する。CVaR ベースのコスト関数は、サンプリングされたビット列確率分布の下側 α テールの平均として定義される。具体的には、サンプリングされ昇順に並べられたビット列の集合を{Ei}(i=1~K)として、CVaR(α)は
     CVaR(α)=1/⌈αK⌉∑ Ei
で表される。⌈αK⌉は、αKを越えない最大整数を意味する。以降、CVaR-VQEをCVaR(α)-VQEと表記する。期待値⟨ψ(θ)|H|ψ(θ)⟩は、CVaR(α)のα=1に相当するから、CVaR(α)-VQEはVQEの一般化と捉えることができる。
2⃣ CVaR(α)-VQEの特徴及び利点 
 [*124]では、 CVaR(α)-VQEが、組み合わせ最適化問題に対する、ヒューリスティック解法の実用的な目標により近いことを主張している。具体的に、組み合わせ最適化問題の文脈でVQE(及びQAOA)の性能と堅牢性を大幅に改善することを、解析的、数値的に示したとしている。ただし、最新の古典的ヒューリスティクスと、”同等の性能が得られる”とは主張していない。
 別の文献[*125]では、「CVaR(α)-VQEは、量子ハードウェア・ノイズに対して堅牢」とされている。さらに、α を (0, 1] の範囲で使用すると、古典的オプティマイザの収束挙動が改善される、と期待される。

(2) 中西-藤井-藤堂(NFT)アルゴリズム[*126] 
0⃣ 概要 
 本論文では、ハードウェア・ノイズの下で、比較的優れていることが判明したNFT アルゴリズムを古典的オプティマイザとして使用している。NFTアルゴリズムは、「パラメータ付き量子回路(アンザッツ)用に特別に設計された、より優れた最適化アルゴリズムが存在するかどうかは、まだ十分に調査されていない」という問題意識の下、開発された(と思われる)。そして、その問題意識は、「サポートベクターマシンにおける最適化手順では、二次計画問題の特徴的な構造を利用して、各ステップで2つのパラメータに関してコスト関数を正確に最小化する逐次最小最適化が広く使用されている」という事実にインスパイアされている(と思われる)。
 まとめ的に言うと、NFTアルゴリズムは、「アンザッツに基づく量子古典ハイブリッドアルゴリズムに特化した最適化手法」であり、「コスト関数は、アンザッツの特徴的な構造を使用して、各ステップで特定の選択されたパラメータに関して正確に最小化される」。
1⃣ NFTアルゴリズムの特徴及び利点 
 標語的に頭出しを行えば、「ハイパーパラメータフリー、高速な収束、パラメータの初期選択への依存度が低い、統計誤差に対して堅牢」となる。
 やや補足すると、以下のようになる。期待値を推定するためのサンプル数が有限であるために、統計誤差が存在する場合、NFTアルゴリズムは、既存のオプティマイザよりも速く収束する。NFTアルゴリズムは、初期パラメータの選択とは、ほとんど関係なく収束するが、他の方法は、特定の初期パラメータでは失敗する。まとめると、実用的な状況で、NFTアルゴリズムは、ほぼすべての量子古典ハイブリッドアルゴリズムを、大幅に容易に加速する。
2⃣ NFTアルゴリズムのカラクリ
 NFTアルゴリズムは、以下の特性を利用する:アンザッツが A2 = I に従うユニタリ・ゲート exp(iθA)で構成されている場合、コスト関数は、3つのパラメータ θiを持つ周期 2π の正弦関数として表現できる。この特性のおかげで、3 つの異なるθiで、コスト関数を評価することによって、コスト関数の正確な最小値を与えるθiを決定できる。最適なθiは、正弦関数を最小化する角度に対応する。
 収束を保証するにはコスト関数の不偏推定値が必要であるが、数値シミュレーションの結果、有限サンプリングでも NFTアルゴリズムが堅牢であることが示された(らしい)。
3⃣ NFTアルゴリズムが成立する前提条件 
 前提条件は、以下の3つである。アンザッツを備えた量子古典ハイブリッドアルゴリズムのほとんどは、この前提条件を満たしている(らしい)。ちなみに、本論文では、㈡の固定ユニタリ・ゲートはCZゲート(ECRゲート⚔7)で、回転ゲートのユニタリ演算子Aは、パウリYである。
㈠ アンザッツのパラメータは、互いに独立している。
㈡ アンザッツは、固定ユニタリ・ゲートと回転ゲートのみで構成される。回転ゲートは、 A2 = I に従うユニタリ・ゲート exp(iθA)である。Iは恒等演算子である。
㈢ コスト関数は、K個の期待値の、重み付き合計で表される。
⚔7 Echoed Cross Resonanceゲート。IBM用語であり、IBMのNISQデバイスで使用可能な2量子ビットゲート。

(3) 行列フリー測定緩和 
 行列フリー測定緩和 (M3)は、サイズ 2n の完全な割り当て行列に基づいて作業する代わりに、ノイズの多いビット文字列によって形成される、遥かに小さな部分空間を使用する。そうすることで、通常は大規模なシステムを効率的に処理できるようにする。

【3】本論文におけるセットアップ 
(1) アルゴリズム 
  最適化問題を解く量子アルゴリズムは、CVaR(α)-VQEである。オプティマイザは、NFTアルゴリズムである。「量子誤り緩和(QEM)のオーバーヘッドを最小限に抑えたい」という理由で、代表的なQEMであるZNE(Zero-Noise Extrapolation:ゼロノイズ外挿)⚔8やPEC(Probabilistic Error Cancellation:確率的誤りキャンセル)⚔9は使っていない。代わりに、動的デカップリング⚔10を使用する。また、読み出し誤りの緩和には、行列フリー測定緩和を採用している。
⚔8 ZNEでは、異なるノイズレベルで実行されるように量子プログラムを変更し、計算結果をノイズのないレベルで推定した値に外挿する。具体的には、量子システムのノイズレベルを無次元のスケールファクターλでパラメータ化する。λ = 0の場合、ノイズは除去され、λ = 1の場合、物理的ハードウェアの真のノイズレベルと一致する。[*127]が詳しい。非マルコフ的ノイズには、有効に対応できないと評価されている。
⚔9 PECでは、ノイズのない期待値は、ノイズのある量子回路からの期待値の線形結合として書くことができることに注目する。ノイズのある量子回路から、ノイズがない(理想的な)量子回路を推定するには、(物理ハードウェアに実装可能な)ノイズの多い「基底演算」の集合を選択する必要がある。PECでは、当該基底演算は、ある種のトモグラフィーを通じて、実験においてノイズの多いハードウェアから学習されると仮定する。例えば、[*128]を参照。
⚔10 回路のアイドル時にパルスを追加し、オーバーヘッドを追加することなく量子誤りを抑制するのに役立つ。

(2) アルゴリズムの実行 
0⃣ 概要 
 mRNA二次構造予測問題は、二次制約付き二値最適化問題(QUBO)として定式化できる。QUBOと言えば、量子アニーラ(量子アニーリング・マシン)であるが、本論文では、IBMのNISQデバイスを使う。もちろん、変分量子アルゴリズムのスケーリングを議論するためである。ハードウェアとして、量子シミュレータとNISQデバイス実機を使用する。
1⃣ 量子シミュレータ 
 量子シミュレータは、Qiskit⚔11の行列積状態シミュレータ(つまり、テンソルネットワーク・シミュレータ)であり、CVaR(α)-VQEの”ノイズフリー”シミュレーションを実行した。量子ビット数は{10,15,20,25,30,35,40}が選択された。αは0.1に設定された。アンザッツの層数は、2である。アンザッツの層数とは、「一組の量子回路としてのアンザッツ」の個数を指す。
 ショット数 Nshotsは、量子ビット数=10で、25、量子ビット数=15で 210、その他で 213とした。NFTアルゴリズムは、各反復で、neval= 3 セットの回路パラメーターを評価する。nevalは、新しい回路パラメータ セットを提案するために、各反復で評価される、回路パラメータの異なるセット数を表す。各反復は、neval × Nshotsの回路呼び出しで構成される。最適化スキームは、CVaR 値の十分な収束が観察されるまで、反復回数Niter=100 ~ 200で実行される。
 NFT などの従来の最適化プログラムは、局所的最小値で行き詰まる傾向があるため、各問題インスタンスに対して Ntrial= 10 回の独立した CVaR(α)-VQE 試行を実行する。各試行は、一様分布からランダムに初期化された一連の回路パラメータから開始される。
⚔11 IBMの量子計算フレームワーク。 
2⃣ 実機 
 実機では、配列長25、30及び42のmRNA二次構造予測問題を解く。配列長25に対しては、量子ビット数を26とした。配列長30は、量子ビット数を40及び50とした。配列長42は、量子ビット数を80とした。
 NISQデバイス実機には、IBMブリスベーン、IBM大阪、IBMトリノの3機種が選択された。ブリスベーンと大阪は、127量子ビット・プロセッサーEagleが搭載されている。トリノは、133量子ビット・プロセッサーHeronとチューナブル・カプラーを搭載している。HeronはEagleに比べて、3~5倍の性能向上を実現しているらしい。量子回路は、1量子ビットゲートがYゲートで、2量子ビットゲートがECRゲート(ブリスベーン、大阪)あるいはCZゲート(トリノ)である。
 量子ビット数26,40,50のケースには、ブリスベーン及び大阪が割り当てられた。α=0.25、アンザッツの層数は、1である。試行回数は、量子ビット数に対して、それぞれ、8回、8回、5回である。量子ビット数80のケースには、トリノが割り当てられた。α = 0.1、アンザッツの層数は2である。ショット数は、26 量子ビットの場合は 28、それ以外は 213に設定した。
 ①回路深さ、②NFTアルゴリズムを実行する最大回数、③2量子ビットゲート数とすると、量子ビット数26→①18,②104,③25|40→ ①20,②320,③39|50→ ①20,②600,③49|80→ ①17,②なし,③158である。

【4】変分量子アルゴリズムのスケーリング検証 
(1) 指標
 指標は、成功確率と最適性ギャップ(L1相対誤差)である。グランドトルゥースは、CPLEXの解である。CPLEXの解と、同一の最低エネルギーのビット文字列が見つかった場合に、量子アルゴリズムの出力は、成功と見なされる。成功確率 psuccは Nsucc/Ntrialとして定義される。ここで、Nsuccは成功した試行の数である。

(2) 検証のための予備的な結果~量子シミュレータ 
 量子ビット数に応じて、平均成功確率は、ザックリ言って40%~の範囲である。平均は、試行回数(10回)にわたる単純平均である。量子ビット数は{10,15,20,25,30,35,40}で、25量子ビットまでは平均成功確率が90%を越えている。30量子ビットで70%程度に急落し、35では40%~50%の間である。40量子ビットでは、やや上がって60%程度である。
 平均最適性ギャップ(=L1相対誤差)も量子ビット数に応じて、0~20%である。25量子ビットまでは、ほぼ0である。30量子ビットで10%近くに増加し、35では20%程度に達する。40量子ビットでは、やや下がって15%程度である。
 どちらの指標も、量子ビット数の増加とともに、明らかにかつ急激に、悪化している。アンザッツの層数を増やしたり、α の選択を最適化したり、CVaR(α)-VQEアルゴリズムの進歩を組み込んだりすることで、結果は改善されると期待しているらしい。

(3) 検証のための予備的な結果~NISQデバイス実機 
 平均成功確率は、26量子ビットで50%程度。40量子ビットで40%を下回り、50量子ビットで40%といったところ。当然、ノイズありなので、シミュレータの結果よりも悪い。80量子ビットの結果は、示されていない。
 平均最適性ギャップ(=L1相対誤差)は、26量子ビットで20%を下回るものの、40量子ビットで20%を上回り、50量子ビットで30%~40%の間といったところ。こちらも当然、ノイズありなので、シミュレータの結果よりも悪い。80量子ビットの結果は、示されていない。

(4) 検証結果
 CPLEX が問題を解決するのにかかる時間は、配列の長さとともに指数関数的に増加することを示している。一方で、変分量子アルゴリズムの結果は、指数的かどうかの確認は困難であるものの、配列長とともに増加していると考えられる。従って、変分量子アルゴリズムが、何らかの加速性を示す可能性はあるが、明確には分からないという結論である。
 変分量子アルゴリズムに対して、量子リソースのスケーリングを議論することは難しい。推定が困難な要素は、実行される回路の合計数ℕであり、ℕは、さらに4つの部分要素{1/Psucc、Niter、Nshots、neval}に分解できる。量子ビット数の増加に対して、各部分要素が指数関数的に増加しなければ、何らかの加速性の発現が期待できる。シミュレータの結果は、成功確率Psuccが指数関数的に悪化(低下)する傾向を見せた。実機の結果は、指数関数的とは言えないように見えるが、判断材料が足りないため、断定できない。結局、よくわからないという結論である。

【5】考察 
(1) mRNAの二次構造予測という「マネー臭が強いテーマ」を選んでいる。その上で、NISQデバイス上の変分量子アルゴリズムが古典アルゴリズムに対して、何らかの加速性が現れることを期待したが、明確な結論は得られなかった。
 量子シミュレータによるシミュレーションは、ノイズなしで行われている。ノイズありシミュレーションを行えば、判断材料が増えると思われる。なぜ、行われなかったのだろう。

(2) 商業化に近い生命科学分野における量子アルゴリズムに関して、IBMはクリーブランド・クリニック🛡(ラーナー研究所)と論文[*129]を発表している(24年5月4日)。こちらのテーマは、タンパク質構造予測問題である。グーグル・ディープマインドのAlphaFoldシリーズを始めとする深層学習ベースのモデルに対して、量子アルゴリズムが優位性を発揮できるか、を扱っている。
 AlphaFoldなどが素晴らしい成果を示していることを認めつつ、深層学習ベースのモデルでは、カバーできない領域があると[*129]は、主張する。具体的には、㊀突然変異が発生したタンパク質、㊁タンパク質の本質的に無秩序な領域、㊂深さが30未満の浅い多重配列アラインメント、に対して深層学習ベースのモデルは予測精度が低いと指摘している⚔12。特に、㊁は、 GPCR(Gタンパク質共役受容体)を始めとする膜貫通タンパク質が該当するため、創薬において、影響が大きいとする(エビデンスとして、FDA 承認薬の約 35% が GPCR を標的としていることを上げている)。
⚔12 ただし、突然変異に関しては、AlphaMissenseで対処できる可能性がある、と書いている。AlphaMissenseは、グーグル・ディープマインドが 2023 年 9 月に発表した、単一アミノ酸置換の病原性予測ツールである。ヒト体内に存在するタンパク質の単一アミノ酸置換のうち、理論上考えられる全て、に対応するミスセンス・バリアント約 7,100 万件の病原性を予測した。
🛡 クリーブランド・クリニック、IBM、英ハートリー・センターは、人工知能(AI)や量子コンピューティングを含む、高度コンピューティング技術を通じて、医療と生物医学を進歩させることを目的とした革新的な共同研究を発表した(24年6月6日)[*130]。具体的には、AIを使うプロジェクトと量子コンピュータを使うプロジェクト、それぞれ1つが立ち上げられた。後者は、量子コンピューティングを応用して大規模データセットを解析し、てんかん患者の手術効果を予測しやすい体内の分子的特徴を特定するプロジェクトである。目的は、治療計画を個別化し、患者の転帰を改善するために使用できる新しいバイオマーカーを発見することである。

(3) [*129]では、ジカウイルス・NS3ヘリカーゼ・Pループに対象としてタンパク質構造予測問題を、深層学習ベースモデル(PEP-FOLD3⚔13とAlphaFold2)、量子アルゴリズム⚔14、古典アルゴリズムで解いた⚔15。結果は、PEP-FOLD3が最良で、 量子アルゴリズムが続いた。指標は、二乗平均平方根偏差(RMSD)で、PEP-FOLD3は1.64Å、 量子アルゴリズムは1.78Åであった。 古典アルゴリズム1.88 ÅでAlphaFold2は 3.53 Åであった。
 ここでも、やや、残念な結果に終わっている。
⚔13 ペプチドの構造予測ツール。PEP-FOLD3は、5〜50 個のアミノ酸からなるペプチドをモデル化するように設計されている。
⚔14 実機IBMクリーブランドを使用して、CvaR-VQEを実行した。
⚔15 QUBO問題に変換してGurobiオプティマイザーで解いた。Gurobi Optimizerは、有名な線形計画/整数計画ソルバーである。

(4) ちなみに[*129]では、「10,000量子ビットと、十分な回路忠実度があれば、生物医学的に関連するタンパク質と変異体の予測が達成可能になる可能性がある。例えばヘモグロビンの141残基⚔16は、4,967個のエンタングルド量子ビットを使用して、予測できる可能性がある」との期待が述べられている。
⚔16 最も生物学的に関連するタンパク質のいくつかは、このサイズとスケールに存在する、らしい。

【尾註】
*62 Nathan Haboury et al.、A supervised hybrid quantum machine learning solution to the emergency escape routing problem、https://arxiv.org/pdf/2307.15682.pdf
*63 一般的な機械学習の文脈では、周波数改良型ルジャンドル記憶モデル(Frequency improved Legendre Memory)をFiLMと呼ぶかもしれない。
*64 武田 麻奈・柳井 啓司、単一画像変換ネットワークによる複数タスクと組み合わせタスクの学習、https://mm.cs.uec.ac.jp/pub/conf20/200803takeda_1.pdf
*65 ハーバード大学のスピンオフとして2017年に設立された、米国の量子ソフトウェア・スタートアップ。創立者は、変分量子固有値ソルバー法(VQE)を開発した、アラン・アスプ=グジック(当時ハーバード大学。その後、加トロント大学に移籍)。23年9月、SPAC上場することを発表した。
*66 Manuel S. Rudolph et al.、Synergistic pretraining of parametrized quantum circuits via tensor networks、https://www.nature.com/articles/s41467-023-43908-6.epdf?sharing_token=bngweoxbIqyRxoKqCXjtX9RgN0jAjWel9jnR3ZoTv0PmoYCEkg6R05HUAGbL_2q5GOY1lDH8PKRw2v0lZ3d3Y2oYrd2_uEp-wbgnQJWVuCCmheTm-EQ4_AZvgN4NE46_aW9vntIj0da_eWNtERBnUyOoq9MQNZ06eYUlRP03HfU%3D%20Synergistic%20pretraining%20of%20parametrized%20quantum%20circuits%20via%20tensor%20networks
*67 "最も賢い億万長者"チャールズ・サイモン(と妻)が設立した、サイモンズ財団により、2016年に設立された研究所。計算天体物理学センター、計算生物学センター、計算数学センター、計算神経科学センター、計算量子物理学センター、科学コンピューティング・コア、という6つのセンターがある。
*68 William Huggins et al.、Towards Quantum Machine Learning with Tensor Networks、https://arxiv.org/pdf/1803.11537.pdf あるいは、https://iopscience.iop.org/article/10.1088/2058-9565/aaea94
*69 James Dborin et al.、Matrix Product State Pre-Training for Quantum Machine Learning、https://arxiv.org/pdf/2106.05742.pdfあるいは、https://iopscience.iop.org/article/10.1088/2058-9565/ac7073/meta(オープンアクセス)
*70 Manuel S. Rudolph et al.、Decomposition of Matrix Product States into Shallow Quantum Circuits、https://arxiv.org/pdf/2209.00595.pdf あるいは、https://iopscience.iop.org/article/10.1088/2058-9565/ad04e6
*71 西野友年・大久保毅、解説|テンソルネットワーク形式の進展と応用、日本物理学会誌 Vol. 72, No.10, 2017,pp.702-711、https://www.jstage.jst.go.jp/article/butsuri/72/10/72_702/_pdf
*72 Supplementary Information for “Synergistic Pretraining of Parametrized Quantum Circuits via Tensor Networks”、https://static-content.springer.com/esm/art%3A10.1038%2Fs41467-023-43908-6/MediaObjects/41467_2023_43908_MOESM1_ESM.pdf 
*73 大久保龍之介、変分量子アルゴリズムの応用と限界、https://www.icepp.s.u-tokyo.ac.jp/download/master/m2021_okubo.pdf
*74 Edward Grant et al.、AN INITIALIZATION STRATEGY FOR ADDRESSING BARREN PLATEAUS IN PARAMETRIZED QUANTUM CIRCUITS、https://arxiv.org/pdf/1903.05076.pdf あるいは、https://quantum-journal.org/papers/q-2019-12-09-214/pdf/
*75 Ankit Kulshrestha & Ilya Safro、BEINIT: Avoiding Barren Plateaus in Variational Quantum Algorithms、https://arxiv.org/pdf/2204.13751.pdf
*76 秋本洋平、「進化計算の新時代」特集号|Evolution Strategiesによる連続最適化ーCMA-ESの設計原理と理論的基盤、システム/制御/情報、Vol.60,No.7,pp.292-297,2016、https://www.jstage.jst.go.jp/article/isciesci/60/7/60_292/_pdf/-char/ja
*77 マルチバースは、スペインの量子ソフトウェア・スタートアップ。他は、ナバーラ大学、Donostia International Physics Center、バスク科学財団。全てバスク地方にある。
*78 Borja Aizpurua et al.、Hacking Cryptographic Protocols with Advanced Variational Quantum Attacks、https://arxiv.org/pdf/2311.02986.pdf
*79 所属機関としては、英サウサンプトン大学も含まれるが、研究者は全て中国人。
*80 ZeGuo Wang et al.、A Variational Quantum Attack for AES-like Symmetric Cryptography、https://link.springer.com/article/10.1007/s11432-022-3511-5
*81 同、https://arxiv.org/pdf/2205.03529.pdf
*82 Pablo Bermejoet al.、Improving Gradient Methods via Coordinate Transformations:Applications to Quantum Machine Learning、https://arxiv.org/pdf/2304.06768.pdf
*83 https://it.impress.co.jp/articles/-/24341
*84 Shungo Miyabe et al.、Quantum Multiple Kernel Learning in Financial Classification Tasks、https://arxiv.org/pdf/2312.00260.pdf
*85 Arash Afkanpour et al.、Alignment Based Kernel Learning with a Continuous Set of Base Kernels、https://sites.ualberta.ca/~szepesva/papers/alignment_based_kernel_learning.pdf
*86 Gian Gentinetta et al.、Quantum Kernel Alignment with Stochastic Gradient Descent、https://arxiv.org/pdf/2304.09899.pdf
*87 Mohammad Hassan Hassanshahi et al.、A quantum-enhanced support vector machine for galaxy classification、https://arxiv.org/pdf/2306.00881.pdf
*88 他の機関は以下の通り:ラ・プラタ国立大学(アルゼンチン)、ストラスクライド大学(英)、スイス連邦工科大学ローザンヌ校、ドノスティア国際物理センター財団(スペイン)、ウォータールー大学(加)、ベクター研究所(加)、チュラロンコン大学(タイ)、カリフォリニア工科大学(米)
*89 M. Cerezo et al.、Does provable absence of barren plateaus imply classical simulability? Or, why we need to rethink variational quantum computing、https://arxiv.org/pdf/2312.09121.pdf
*90 M. Cerezo et al.、Variational quantum algorithms、https://arxiv.org/pdf/2012.09265.pdf
 ちなみに、藤井啓祐教授(大阪大学)も著者に名を連ねている。
*91 Matthew L. Goh et al.、Lie-algebraic classical simulations for variational quantum computing、https://arxiv.org/pdf/2308.01432.pdf
*92 Hsin-Yuan Huang et al.、Predicting Many Properties of a Quantum System from Very Few Measurements、https://arxiv.org/pdf/2002.08953.pdf
*93 G. To´th et al.、Permutationally Invariant Quantum Tomography、https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.105.250403
*94 Phasecraftは、マテリアル・サイエンスに、まずは特化する意向を持っている。具体的には、電池素材設計、強相関電子系モデルである「フェルミ・ハバード・モデル」及び、量子スピン液体等のシミュレーション技法を研究している。量子ビットに電子を効率的に符号化すると特許を持つ。平行して、「量子ハードウェアのノイズとエラーを低減する」プロジェクト(加ウォータールー大学、加ペリメーター理論物理学研究所、ユニバーシティ・カレッジ・ロンドンとともにQuantum Benchmarkが参画。21年5月発表)を主導している。
*95 Laura Clinton et al.、Towards near-term quantum simulation of materials、https://www.nature.com/articles/s41467-023-43479-6
*96 https://static-content.springer.com/esm/art%3A10.1038%2Fs41467-023-43479-6/MediaObjects/41467_2023_43479_MOESM1_ESM.pdf
*97 arXivでは22年11月10日に公開されている:https://arxiv.org/pdf/2205.15256.pdf
*98 Ian D. Kivlichan et al.、Quantum Simulation of Electronic Structure with Linear Depth and Connectivity、https://arxiv.org/pdf/1711.04789.pdf
*99 Bryan O’Gorman et al.、Generalized swap networks for near-term quantum computing、https://arxiv.org/pdf/1905.05118.pdf
*100 他はTuring Quantum(量子光方式の量子コンピュータを開発しているとされるスタートアップ)。
*101 Xi-Jun Yuan et al.、Quantum Support Vector Machines for Aerodynamic Classification、https://spj.science.org/doi/epdf/10.34133/icomputing.0057
*102 李家賢一、翼型上に生ずる層流剥離泡、日本流体学会誌 ながれ22(2003)、pp.15-22、https://dl.ndl.go.jp/view/prepareDownload?itemId=info%3Andljp%2Fpid%2F8765679&contentNo=1
*103 吉田憲司、[連載]温故知新(先人の教え)~低速の翼に関する話題~ 第2回 翼型の失速タイプに関する考察、日本流体学会誌 ながれ41(2022)、pp.293-300、https://www.nagare.or.jp/download/noauth.html?d=41-4_293_rensai3.pdf&dir=136
*104 中野朋則、博士論文(2006)‖NACA0018翼から発生する離散周波数騒音に関する流体力学的研究、https://niigata-u.repo.nii.ac.jp/record/27574/files/16_0007.pdf
*105 松尾裕一、航空RANS解析で使われる乱流モデルの特性評価、日本流体学会誌 ながれ35(2016)、pp.237-245、https://www.nagare.or.jp/download/noauth.html?d=35-3_tokushu4.pdf&dir=102
*106 https://spj.science.org/journal/icomputing
*107 https://spc.jst.go.jp/hottopics/1901/r1901_jiang.html
*108 アカデミアは、トロント大学の他に米国の「ハーバード大学とスタンフォード大学」及びクロアチアのザクレブ大学。病院及び研究機関は、「米セントジュード小児研究病院、米ダナ・ファーバー癌研究所、クロアチアのMediterranean Institute for Life Sciences、加ベクター研究所、カナダ先端研究機構」。
*109 AI創薬スタートアップ。香港とニューヨークに拠点を置く。創業者はラトビア人で、モスクワ大学で物理学と数学の博士号を取得している(出所:https://forbesjapan.com/articles/detail/68724)。がんや特発性間質性肺炎などの治療薬を開発している。
*110 Mohammad Ghazi Vakili et al.、Quantum Computing-Enhanced Algorithm Unveils Novel Inhibitors for KRAS、https://arxiv.org/pdf/2402.08210.pdf
*111 低分子化合物による医薬品の割合は、約60%である。出典:高橋洋介、新薬における創薬モダリティのトレンド 多様化/高分子化の流れと、進化する低分子医薬、https://www.jpma.or.jp/opir/news/064/06.html
*112 千見寺浄慈、タンパク質―化合物複合体情報を用いたバーチャルスクリーニング手法、生物物理 56(4)、pp.221-223(2016)、https://www.jstage.jst.go.jp/article/biophys/56/4/56_221/_pdf
*113 例えば、ボストン・コンサルティング・グループ、創薬における AI の可能性を解き放つ現状、障壁、将来の機会、2023年6月、https://cms.wellcome.org/sites/default/files/2023-06/unlocking-the-potential-of-AI-in-drug-discovery_report.pdf
*114 https://www.activemotif.jp/blog-kras-research-drug-discovery
*115 佐藤亮、KRASG12C阻害剤として世界で初めて臨床で効果を示した AMG-510 の創製、ファルマシア Vol.56 No.12 2020、https://www.jstage.jst.go.jp/article/faruawpsj/56/12/56_1131/_pdf
*116 https://scholar.harvard.edu/gorgulla/virtualflow-project
*117 アステラス製薬が、AWS上でVirtual FlowやEnamineのREALライブラリーを使って仮想スクリーニングを行ったというデモ資料がある:https://d1.awsstatic.com/local/health/20211118%20drug%20discovery%20EIB%20seminar%20session%204.pdf
*118 M. Cerezo et al.,Challenges and opportunities in quantum machine learning、https://www.nature.com/articles/s43588-022-00311-3
 ちなみに、上記論文は、「御手洗光祐、最近の展望|量子コンピュータを用いた機械学習、応用物理第93巻第1号(2024)」で読むことが勧められている"最近の"(と言っても2022年であるが・・・)レビュー論文である。
*119 M. Cerezo et al.,Cost Function Dependent Barren Plateaus in Shallow Parametrized Quantum Circuits、https://arxiv.org/pdf/2001.00550.pdf
*120 モデルナとIBMは、2023年4月20日に、「モデルナのmRNAの研究およびサイエンスの進展・加速に向け、量子コンピューターや人工知能などの次世代技術を探索することで合意した」と発表している。出所)https://newsroom.ibm.com/2023-04-20-Moderna-and-IBM-to-Explore-Quantum-Computing-and-Generative-AI-for-mRNA-Science
*121 Dimitris Alevras et al.、mRNA secondary structure prediction using utility-scale quantum computers、https://arxiv.org/pdf/2405.20328
*122 木谷哲夫、イノベーション全史、中央経済グループパブリッシング、2024
*123 後藤直義,フィル・ウィックハム、ベンチャー・キャピタリストー世界を動かす最強の「キングメーカー」たち、ニューズピックス、2022
*124 Panagiotis Kl. Barkoutsos et al.、Improving Variational Quantum Optimization using CVaR、https://arxiv.org/pdf/1907.04769v3
*125 Samantha V. Barron et al.、Provable bounds for noise-free expectation values computed from noisy samples、https://arxiv.org/pdf/2312.00733
*126 Ken M. Nakanishi et al.、Sequential minimal optimization for quantum-classical hybrid algorithms、https://arxiv.org/pdf/1903.12166
*127 Tudor Giurgica-Tiron et al.、Digital zero noise extrapolation for quantum error mitigation、https://arxiv.org/pdf/2005.10921
*128 Zhenyu Cai et al.、Quantum Error Mitigation、https://arxiv.org/pdf/2210.00921
*129 Hakan Doga et al.、A Perspective on Protein Structure Prediction Using Quantum Computers、https://pubs.acs.org/doi/full/10.1021/acs.jctc.4c00067
*130 https://newsroom.clevelandclinic.org/2024/06/06/cleveland-clinic-ibm-and-the-hartree-centre-collaborate-to-advance-healthcare-and-life-sciences-through-artificial-intelligence-and-quantum-computing
*Supp-1 Abebech Jenber Belay et al.、Deep Ensemble learning and quantum machine learning approach for Alzheimer’s disease detection、https://www.nature.com/articles/s41598-024-61452-1#Sec9


お問い合わせ
  

TOP