MerchantBank Consulting
サブページ画像

量子×金融

金融分野における量子コンピューター活用の戦略設計については、こちらを参照。

ーーー全体構成の説明ーーー
⓵ 4つのパートで構成している理由
 以下、Ⅰ機械学習、Ⅱ最適化、Ⅲシミュレーション・モデリング、Ⅳ量子安全通信・暗号、に分けて整理する。その理由は、以下の通り:
 量子コンピュータの有望なアプリケーションは、多くの資料で、4つに大別されている:①シミュレーション、②機械学習、③最適化、④暗号(セキュリティ)。例えば、Q-NEXT[*1]量子情報科学センターの資料[*2]、アーサーDリトルのレポート[*3]、ハイペリオン・リサーチ[*4]の調査結果[*5]、Zapata Computing[*6]のレポート[*7]、BCGのレポート[*60](及び日経ビジネスの記事[*8])など。❶シミュレーション、❷最適化、❸機械学習とする資料も多い:レビュー論文[*26]、QuEra[*47]他のサーベイ[*48]、マッキンゼーのレポート[*50]。なお[*50]で前向きなのは❶だけ[*51]で、❷は微妙[*52]、❸は抑制的(後述)。野村証券は、量子コンピュータが市場に与える5大インパクト[*42]を上げている(ただし2019年と古い)。FINRAのレポート[*58]も新味はない。
 米ムーディーズ・アナリティクスは、量子コンピューティングが金融サービス業界に与える潜在的な影響について調査したレポート[*34]を公開した(23年6月)。潜在的なユースケースは、基本的に既視感あり[*35]。ただ、「二次加速に依存するアルゴリズムは、困難に直面する可能性が高い」という指摘は興味深い[*36]。
⓶ 使用した資料(論文)+α
 本稿で使用したは主に4本[*11]、[*17]、[*43]、[*62]である。補足的に6本[*26]、[*44,*45]、[*46]、[*53]、[*57]、[*71]を使用している。追加的に、日本の文献(参考文献5)を使用している。
[主な論文]
㈠ *11:米大手商業銀行のJPモルガン・チェース銀行(JPモルガン)は、機械学習で解決できるユースケースを中心に、金融アプリケーションにおける量子アルゴリズムの現状を紹介するレビュー論文(以下、本論文と呼ぶ)を、arXivにて公開した(2021年9月9日)。本論文の基本姿勢は、量子アルゴリズムに対して前のめりである。その一方、【1】に示すように、指数関数的に高速化されるアプリケーションは、発見されていない。そして【2】で示すように、2次加速されるアプリケーション自体も、それほど多いわけではない。
㈡ *17:JPモルガン(及びシカゴ大、デラウェア大、メンテンAI[*15]、アルゴンヌ国立研究所[*16])は、同様の新しい論文(以下、新論文)を、arXivにて公開した(22年6月27日)。新論文は量子機械学習に加えて、モデリングや最適化についても紙幅を割いている(ので、Ⅱ及びⅢに反映させた)。
㈢ *43:*11及び*17と全く同じメンバー(JPモルガン及びシカゴ大、デラウェア大、米国富士通研究所←デラウェア大から移動、メンテンAI、アルゴンヌ国立研究所)が、物理学者向け(と謳う)量子金融の論文を書いた(23年7月11日)。
㈣ *62:金融を含む広範な分野[*63]にわたる量子アルゴリズムに関する長大な(337ページに及ぶ)レビュー論文。AWS量子コンピューティングセンター、独アーヘン工科大学、英インペリアル・カレッジ・ロンドン、米カリフォリニア工科大学他の研究者が作成(2023年10月4日公開@arXiv)。金融は、ポートフォリオ最適化と(オプション・プライシング向け)モンテカルロ・シミュレーションに限定されている。
[補足的な論文]
*26:スイス・ロシア・英国の研究者による(総合的な)レビュー論文である。
*44,*45:スペイン(ガリシア・スーパーコンピューティング・センター、ア・コルーニャ大学、オビエド大学)の研究者及び英HSBCは、量子金融計算に関するサーベイ論文を出している(22年3月28日)[*44]。ほぼ同じメンバーは、ほぼ同じ内容のレビュー論文も出している(21年5月24日)[*45]。
*46:仏BNPパリバの実務家が書いた、量子コンピュータを使った金融リスク計測に関する論文。
*53:米QuEra(中性原子方式H/Wベンダー)が書いた論文。中性原子方式の量子ビットが、最適化問題に適すると主張する論文。
*57:米Quantinuum(イオントラップ方式H/Wベンダー)が書いた論文。該社が開発した「量子モンテカルロ積分エンジン」のトリセツ的論文。☛内容は、Appendix 1を参照。
⓷ 為念
 参考文献5で例示されているサーベイ論文と、本稿で使用した論文の対応は、以下の通り(古い論文は、カバーしていない)。
 Herman et al. [2022]⇔*17 
 Egger et al. [2020]⇔なし 
 Bouland et al. [2020]⇔なし 
 Gómez et al. [2022]⇔*44 
 Orús, Mugel and Lizaso [2019 b]⇔なし 
 Pistoia et al. [2021]⇔*11 
 なし⇔*43 
 なし⇔*26 
 なし⇔*46 
 なし⇔*53 
 なし⇔*57 

Ⅰ 機械学習
 機械学習は既に、金融機関において重要な役割を担っている。例えば、大手金融データ・プロバイダーであるリフィニティブ[*9]は「金融業界では、世界的に機械学習の利用が広がっており、将来的にその成功が極めて重要になる、との認識が見受けられた」という調査結果を報告している(19年4月)[*10]。機械学習の量子版である量子機械学習が、機械学習タスクの成果を高めてくれるのであれば、金融機関(ここでは、ほぼ商業銀行・投資銀行を意味している)にとって有益であろう。
 英国の大手商業銀行HSBCと1⃣米Quantinuumは、サイバーセキュリティ、不正行為検出・自然言語処理(⋍機械学習)において、量子技術がもたらすインパクトを探索するプロジェクトを行うと発表した(23年5月30日)[*54]。さらにHSBCは、2⃣スイスのTerra Quantumとの提携を発表した(23年9月7日)[*55]。銀行業務における様々な最適化問題において、量子古典ハイブリッドアルゴリズムが古典アルゴリズムを凌駕する問題を探索する。候補の一つは、「担保の最適化」である。3⃣米リゲッティ(の英国子会社)他とともに、量子機械学習モデルを使って、マネーロンダリングを示す異常行動を検知することに焦点を当てたプロジェクト(23年9月から18か月間)を始めた[*61]。イノベートUKから助成金を受ける。

【1】現状分析
 本論文冒頭で、量子機械学習の現状が以下のように説明されている。
(1) 量子コンピュータに古典データを効率的にアップロードし、量子計算の結果を古典的に読み出すことは、現在進行形の研究分野である。これまで考案された量子アルゴリズムの多くは、古典データにアクセスするための、量子ランダムアクセスメモリ(QRAM)の存在を前提としている。QRAMの実現は理論的に証明されているが、具体的なハードウェアの実装は未達である。
(2) 量子線形代数アルゴリズムをそのまま適用して、特定の金融ユースケースを解決することは必ずしも可能ではない。
(3) 金融関連のユースケース解決においては、古典アルゴリズムと量子アルゴリズムの複数の要素がエンドツーエンドで関与している。従って、古典アルゴリズムの、いずれかの要素and/or量子アルゴリズムの、いずれかの要素がボトルネックとなり、量子アルゴリズムの優位性が損なわれる可能性がある。そのため、特定のユースケースを解決するための量子的な高速化を定量化することは、必ずしも直感的なものではない。
(4) 現在のところ、古典的な手法に比べて指数関数的に高速化できる量子機械学習のエンドツーエンドのアプリケーションは発見されていない(注釈:言い方を変えると、2次加速できるアプリケーションは、発見されている)。
 なお、新論文では、以下の記述がある。
(5) 量子機械学習アルゴリズムが実用的で有用なアプリケーションをもたらすことができるかという問いに答えるには、相当な努力が必要であり、数十年かかるかもしれない。
 
 23年の新しい論文[*43]では、❶量子enhanced機械学習の課題をData Loading(入力データの量子埋め込み問題、あるいはシンプルに、入力問題)、加速は不明、❷量子ネイティブ機械学習※の課題をパラメータ・チューニングand/orサンプリングの複雑性、加速は不明、としている。
※ここ[*43]では、量子ニューラル・ネットワーク、量子回路ボルンマシン、量子カーネル手法など、を意味している。
 サーベイ論文[*44]は、「量子機械学習(QML)アルゴリズムは、金融アプリケーションには(論文[*44]の著者が知る限り)広く採用されていないが、近い将来検討されるに値する」と書きつつ、以下のような注意喚起を行っている。
㊀ QMLは、近い将来物理的に実現可能になるとは予想されていないQRAMを前提としている。
㊁ QMLの一部は、脱量子化できる。つまり、量子インスパイアード古典アルゴリズムに変換できる。
 
 [*50]では機械学習[*53]について抑制的であり、次のように書いている:「あるデータクラス」の学習では、学習時間の削減を少なくとも「多項式加速」できる。
 
[参 考]
(1) 内容重複するが、スイス・ロシア・英国の研究者による(総合的な)レビュー論文[*26](22年3月)では、4つの問題として示されている(金融に限定されていない。射程は、量子機械学習全般)。
1⃣ 入力問題:古典的入力データを、量子レジスタにロードする計算コストは​​非常に高く、量子計算自体の計算コストを超える可能性がある。
2⃣ 出力問題:目的とする特定の解を取得するには、出力量子レジスタの複数のサンプルが必要である(から余分な計算が必要となる)。
3⃣ コスト問題:量子機械学習アルゴリズムに必要な実際のゲート数についてはほとんどわかっていない。
4⃣ ベンチマーク問題:古典アルゴリズムは開発と改善を続けているため、量子アルゴリズムの優位性は、その程度が変わる可能性がある。

(2) Matthias Troyer(マイクロソフト・テクニカルフェロー兼量子部門バイスプレジデント。ETHZで博士号取得後、東大でポスドクらしい)はMicrosoft Azure Quantum Blogにおいて、古典コンピュータと量子コンピュータの演算性能を比較する投稿を行った(23年5月1日)[*32]。古典コンピュータは、単一の最先端のGPUを備えたマシンを想定。量子コンピュータ(QC)は、耐故障性(ゲート方式)量子コンピュータ(つまりFTQC)であり、1万論理量子ビット、または約100万物理量子ビットを備えたマシンを想定している。(注:当該ブログの射程は、金融に限定されていない)
⓪古典コンピュータとの比較において、QCが問題を解くのに、2週間以上要するアプリケーションは考えない。
①QCは古典コンピュータに対して、問題のサイズに漸近的に高速であることを鑑みると、2次加速では意味がない。超多項式の加速が必要である。
②QCは操作を実行するための出力帯域幅が制限されている。例:機械学習によく使用されるグラフィック処理ユニットなどの帯域幅の1/10,000しか処理できない。
③量子システムにデータを出し入れすることが大きなボトルネックであること、及び②を考慮すると、㊀大規模データセットでの機械学習、㊁大規模な連立(線形一次)方程式を解く気候予測、㊂Groverのアルゴリズムに依存する創薬アプローチ、等では古典コンピュータに対する優位性を示せない。
④QCが優位性を示せるアプリケーションは『計算化学と材料科学に関連するアプリケーション』である。

【2】ユースケース1
 以下では、本論文で、「量子アルゴリズムの計算量が、古典アルゴリズムと比べて低減されることが定量的に示されているケース」のみを取り上げる。なお、 ❶指数関数的加速がHHL(Harrow-Hassidim-Lloyd)アルゴリズムに基づく、量子版「線形回帰・ガウス過程回帰、主成分分析、サポートベクターマシン等」、❷デリバティブ・プライシングを2次加速できる量子振幅推定法(量子モンテカルロシミュレーション)におけるサンプリングに使用する、パラメータ付き量子回路(いわゆるansatz)の学習用量子アルゴリズム、は除外した。
 ❶を除外した理由は、㊀HHLアルゴリズムはNISQでは実行できない[*56]、㊁特定条件(入力データ行列のスパース性・低ランク性)下で有効、㊂(一般的には)入力状態準備にQRAM(量子ランダムアクセスメモリ)が必要(これは[a]QRAMが技術的に大変という意味に加えて、[b]QRAMという入力仮定は強力なので古典アルゴリズムも同様の条件設定で高速化する可能性があるという意味を含む)、㊃量子的な出力から古典解を抽出するための測定回数は、量子ビット数に応じて指数関数的にスケーリングされる(つまりHHLアルゴリズムが使用可能な計算機が出現するまで、実際の計算量削減は不明)、からである。
為念・・・金融分野ではない(電磁場解析)が、HHLアルゴリズムを適用して指数関数的加速を達成したとする成果が、実は多項式加速であったという例がある[*27]。

(1) 量子強化学習アルゴリズムは、古典アルゴリズムと比較して、2次加速を実現する。本論文では、「金融における強化学習は、 アルゴリズム取引やマーケットメイクでの適用が期待されている」が、「現状、量子デバイスのハードウェア制約により、量子強化学習は適用されていない」と記述されている。なお本論文では触れられていないが、資産運用においても、強化学習の適用が期待されている。
 ちなみに、㊀参考文献1(27頁)には、「金融機関においては、(中略)活用の用途は多くありません。・・・(中略)金融市場との相性は良いとはいえません」とある。㊁参考文献2(20ページ)には、「ファイナンス分野:ヘッジの問題を始め、強化学習と相性が良い」とある。
★量子強化学習を使ったディープヘッジングが、デルタヘッジよりも優れているとの主張(23年3月)は、こちらを参照。
(2) 自然言語処理における「構成的分布意味モデル」の中で、本論文は、英オックスフォード大とケンブリッジ大の(計算機科学の)研究者による、CSC(Coecke, Sadrzadeh and Clark)モデルを取り上げている。量子CSCモデルの計算量は、O(√M√Nlog(M))で、古典的CSCモデルは、O(NM)である。つまり、ほぼ2次加速が実現できる。ここで、N:名詞の意味空間の次元、M:モデル文を分類するクラス数である。
 金融における自然言語処理の適用ケースは幅広いと思われるが、本論文では、「ローン審査におけるリスク評価、金融予測におけるセンチメント分析」をあげている。
 新論文によれば、Coecke他は「CSCモデルは、量子コンピュータで実行するのがより自然である」と主張している。その理由は、❶CSCモデルの前群(pregroup)及びベクトル空間は、モノイド圏であり、❷(モノイダル圏上で構成される)圏論的量子力学と親和性が高い、からである。その主張は、合理的と思われる。つまり、古典計算機からの出力とは、質的に異なる出力が得られるかもしれない。
(3) 量子k近傍法の計算量は、O(√Mlog(M))あるいは、O(√k・√M)が可能。古典k近傍法は、O(M)である。つまり、ほぼ2次加速が可能。ここで、 Mは学習集合サイズ。
 金融におけるk近傍法の適用ケースとして、本論文は「財務予測及び信用スコアリング」をあげている。
 
[参 考]
1⃣ レビュー論文[*26]によれば、以下のモデルも、2次加速可能である。
① アンサンブル法
② ベイジアンネットワーク・・・新論文に「特定のパラメータにおいて、2次加速を得ることができる」とある。ユースケースとして、ポートフォリオシミュレーションと意思決定モデリングがあげられている。[*43]には、「正確な推論は#P困難だが、量子技術を使用すると、特定のパラメーターで二次的な高速化を実現できる」とある
③ ベイジアン深層学習
④ ボルツマン・マシン・・・本論文ではユースケースとして、(過学習を招きがちなオーバーサンプリングに頼らず、不正データを生成・増やすことで精度よく)クレジットカードの不正使用を検知する、(モンテカルロ法でデリバティブ・プライシングする際のサンプリング用途での)パラメータ付き量子回路の学習、があげられている。

2⃣ [*26]によれば、以下のモデルは量子アルゴリズムの計算量が不明確なので、削減量もまた不明確である。
㊀ 決定木
㊁ 隠れマルコフモデル・・・グラフィカル・モデルと一括りにしないで、特出しされている。
㊂ グラフィカル・モデル・・・隠れマルコフモデル、ベイジアンネットワーク、ボルツマン・マシン以外の有用な該当モデルは何?
㊃ 変分オートエンコーダ・・・トランスフォーマーは、ここに含まれるのだろうか?  ※「アテンション行列は、疎であり低ランクである」という経験上の期待!を受け入れるならば、アテンションに関する計算限定ではあるが、(HHLアルゴリズム由来の)指数関数的加速を享受できることになるだろう。
㊄ 多層パーセプトロン・・・MLP-Mixerは含まれるで良いだろうか。
㊅ LSTM(Long Short Term Memory)
㊆ 強化学習・・・古典アルゴリズムの計算量も不明確と記述されている。なお、本論文では、「量子強化学習(RL)アルゴリズムを、対応する古典アルゴリズムと比較して、様々なパラメータで2次加速実現を示した」、「シミュレータを実装した古典回路を効率的に量子回路に変換できるため、環境を古典的にシミュレートできるあらゆるRL問題に適用可能である」と記述されている。

3⃣ 念のため、[*26]で指数関数的加速を示すとされているアルゴリズムをあげておく。中国の研究者による(主にH/W主体の)レビュー論文[*28](23年3月)には、「機械学習で指数関数的な量子高速化を達成できるかどうかは、まだ議論中(under debate)である」という記述がある。
1) 線形回帰 ←HHLアルゴリズム使用。QRAM必要。
2) ガウス過程回帰 ←HHLアルゴリズム使用。QRAM必要。
3) 主成分分析 ←HHLアルゴリズム使用。QRAM"不要"。・・・【3】ユースケース2(1)へ 
4) サポートベクターマシン ←HHLアルゴリズム使用。QRAM必要。
5) k平均法クラスタリング ←HHLアルゴリズム使用。QRAM必要。
6) 畳み込みニューラルネットワーク ←?
7) パーシステント・ホモロジー ←?
8) 敵対的生成ネットワーク(GAN)(☛ただし、量子アルゴリズムはpolylogなので、正確には、指数加速ではない。)
 [*43]には、「データが高次元空間で行われた測定のサンプルで構成されている場合、量子GANが古典GANに対して指数関数的な利点を示す可能性があることが示された」とある。また、「量子GANは、デリバティブ・プライシングを容易にすることができる」。
※) (混合ガウスモデル ☛ただし、量子アルゴリズムはpolylogなので、正確には、指数加速ではない。)

【参考事例㊀】量子回路ボルンマシン(QCBM)vsコピュラ
 IonQとGE Researchは、株式市場予測において、量子モデルが古典的なコピュラモデルと同等以上の結果をもたらした、と主張した(2022年6月22日)[*18]。しかし客観的に見て、量子モデルが、アウトパフォームしているとまでは、言い難い。
 日経225を含む4つの市場インデックスで構成するポートフォリオを対象として、古典モデルと量子モデルを使って、VaRや期待ショトーフォールを計算した。古典モデルでは、周辺分布にt分布、コピュラにtコピュラを使用する。パラメータは、最尤推定法で推定する。確率分布を仮定する「パラメトリック・モデル」を避けるため、量子モデルとしては、(量子)生成モデルを選択している。tコピュラからのサンプリング(コピュラ空間のデータ)が、量子モデル(量子生成モデル)の教師データとなる。
 具体的な量子モデルは、量子回路ボルンマシン(Quantum Circuit Born Machine:QCBM)である。パラメータ推定は、同時摂動確率近似(SPSA:Simultaneous Perturbation Stochastic Approximation)を用いる。コスト関数は、カルバック・ライブラ情報量を使用。古典モデルと量子モデルを比較するという意味では、tコピュラからの同じサンプリングを適用して、(例えば)変分オートエンコーダVAEとQCBMの結果を比較するという方法が、ストレートであるように思える。
 勾配消失と局所最適への落ち込みは、パラメータ推定(最適化)の障害となるが、それを低減させる方法として、アニーリング・トレーニングという訓練方法を提案している。アニーリング・トレーニングにより、1/4の反復回数で、最適化を実行できたという。
 なお、ほぼ同じ内容の論文[*59]が、23年10月にnatureで公開されている。

【参考事例㊁】量子アルゴリズムは、景気後退を高精度に予測できる? 
 (超伝導方式量子コンピュータを開発しているNASDAQ上場企業)米リゲッティ・コンピューティングは、量子版の予測モデルが景気後退を予測する精度は、古典版に比べて高い、と主張するブログを公開した(23年4月25日)[*30]。英インペリアル・カレッジ・ロンドン、米ムーディーズとの連名である。
 リゲッティ他が主張する量子予測モデルは、「シグネチャ」を使った予測モデルの量子版である。景気後退予測に用いられる古式ゆかしい予測モデルは、プロビットモデルである。時系列データである経済変数・経済指標を、説明変数として、景気後退カテゴリに分類される確率を推定する。プロビットモデルを高性能化したモデル(の一つ)として、シグネチャを使った予測モデルがある(シグネチャに正式な日本語はなさそうである。署名では、筋が悪い)。
 シグネチャ(シグネチャ・トランスフォーム、パス・シグネチャとも呼ばれる)は、ラフパス理論と呼ばれる比較的新しい数学(正確には、確率論)における重要な産物であり、応用において貴重な役割を果たす。極めて荒っぽく言うと、ラフパス理論は、確率論を解析的(代数学的に)に取り扱えるようにした数学理論である。機械学習への応用を念頭において述べると、シグネチャの内積を計算して、パスの連続関数による空間にカーネルを導入することで、カーネル法を使った回帰タスクが実行できる(もちろん、シグネチャを使った機械学習の範囲は、もっと広い)。ラフパス理論のおかげで、パスの連続関数による空間や、内積計算(カーネル導入)といった、解析的・代数学的な処方を可能となっている。
 シグネチャを使うと、時系列データを、点の集まりとしてではなく、時間軸に沿って順序付けされたデータの流れ=経路(パス)として扱うことができる。シグネチャを使った予測モデル(今の場合、シグネチャ・カーネル法)は、パスそのものを扱うことができる。将来における値(今の場合は、景気後退を示す値)を、パスの関数とみなすことで、将来予測を行う。情報豊富なパスそのものを、まるっと、説明変数(説明変数ストリーム、と表現した方が良いかもしれない)に使った方が、望ましい予測が得られると予想されるケースでは、シグネチャを使った予測モデルを試してみる価値があるだろう[*33]。今の場合、それが景気後退予測ということになる。景気後退予測にあたって、経済指標の時系列的順序あるいは履歴が重要であれば、シグネチャ予測モデルは検討に値するだろう。なお、今の世の中は便利で、シグネチャを計算するPythonのライブラリが存在する(例:esig、iisignature、Signatory[*31])。
 景気後退予測の精度比較はバックテストを用いて行われた。2000 年 1 月~2010 年 1 月までの (毎月の) 日付ごとに算出される、その後 12 か月間の景気後退の推定確率が対象である。パフォーマンスは、分離指標を使用して測定された。分離指標は、バックテスト期間中、景気後退の推定確率が 1/3 未満である月の割合として定義された。 プロビットモデルの分離指標は77.5%。シグネチャ・モデルでは、79.2%であった。ここでは意外なことに、それほど目立った改善は見られない。ところが、シグネチャ・モデルの量子版は85.8%であり、大幅な改善が成されている(出来すぎ感は強い)。
 シグネチャ・モデル(シグネチャ・カーネル法)の古典版→量子版の改善は、シンプルに、カーネル法→量子カーネル法の改善による。うまく”はまった”、という感じであろうか。ただ、シグネチャを使った機械学習モデルは、カーネル法の枠組みとすることで量子版が自然に構築できて、かつ量子的優位性が見込めるため、そこに注目するのは極めて妥当と思われる。また、スピードではなく精度に焦点を当てているところにもセンスを感じる。
 なお、「このバックテストの演習は、多くの実際的な要因を無視しているため、理論的な性質にとどまっていることに注意せよ」との注釈が付いている。
☛ リゲッティは同社公式ブログに、「2024年前半には、相互依存するマクロ経済領域からのより高次元のデータセットを使用する予定」であり、「この作業は、量子誤り緩和策を使用して、リゲッティの84量子ビットのAnkaa™システムで実行される」と投稿した(24年1月4日)[*68]。
👉 リゲッティUKは、アマゾン・ウェブ・サービス、インペリアル・カレッジ・ロンドン、スタンダード・チャータード銀行と共同で、イノベートUKの助成金を獲得した、と発表した(24年1月11日)[*69]。量子シグネチャ・カーネルの高度化、古典手法に対する結果のベンチマーク、広範かつ高次元のデータストリームに対するシグネチャとシグネチャ・カーネルを効率的に計算する量子アルゴリズムの構築などが研究目的。2024年1月1日に開始され、期間は18ヶ月間の予定。

【3】ユースケース2
(1)特徴量抽出のための量子技術→量子主成分分析
 [*43]では、次のような前捌きが行われている:特徴量抽出は、生の学習データを前処理して、データをより意味のある表現空間に変換する。ただし、場合によっては、人間が解釈できないような方法で、データが変換される可能性がある。規制の厳しい金融業界では、そのような変換は許容できない。金融分野では(効率的で有用かつ)説明可能な特徴量抽出方法を見つけることが重要である。
 サーベイ論文[*44]では、量子的手法を使った主成分分析(PCA)の高速化について、2つの方向性を示している。一つは、量子位相推定(QPE)の使用であり、もう一つが「共分散行列を密度行列として使用し、量子主成分分析(QPCA)を行う、である。
1⃣ QPEの使用・・・PCA の最初のステップは、共分散行列の固有値計算である。QPEは、固有値を指数関数的に、高速に求めることができる(数学的に証明されている)。しかし次にあげる2つの問題から、大幅な高速化は難しいと記されている。㊀一つ目は、入力問題(ローディング問題ともいう)。共分散行列のすべての固有ベクトルを記述する初期状態をロードする必要があり、"計算コスト"がかさむ。㊁二つ目は、共分散行列は通常、密行列であり(疎行列のみを対象とする)HHLアルゴリズムが適用できない。
2⃣ QPCA・・・十分なリソースがあれば、QPCAは指数関数的に高速に実行される。しかし次にあげる3つの問題から、指数加速は達成されないであろう、と記述されている。❶サイズがN×Nの共分散行列を密度行列するために、N2個の古典的な操作が必要。❷密度行列が純粋状態でなければ(実際は、その蓋然性が高い)、蒸留する必要がある。これは、2log(N)量子ビットの追加と古典的な前処理の追加を必要とする。❸蒸留された状態を量子回路にロードする必要がある。これには、多数のゲートが必要になる可能性がある。

(2)ブースティングの量子化[*43]
❶AdaBoostの量子化
 AdaBoostは量子化により、VC次元※への依存性が2次関数的に削減される。ただし、ランダムな推測よりもマージンへの依存性が大幅に悪化する。また、学習データに対する量子状態分布を準備する必要がある。
※VC次元:Vapnik-Chervonenkis次元。二項分類において任意に分類できるデータポイントの最大数。
❷その他 
 QBoostの量子化は、行われているとの記述はあるものの、加速については明記されていない。具体的には、「離散最適化に量子ヒューリスティックを使用して、弱分類器の線形結合を選択する」という枠組みが提案されており、「金融リスクの検出に適用されている」とある。
 なおXGBoostの量子化は、「行われていないようである」と記されている。

(3)脱量子化[*43]
 脱量子化(英語では、Dequantization)は、量子アルゴリズムの高速性を、古典アルゴリズムで実現する取り組みである。つまり、量子機械学習アルゴリズムが古典アルゴリズムに比べて、指数加速をもたらすという主張を否定する。その意味で、本項は他項と真逆である。
 (低ランクデータを含む)特定のデータ構造へのサンプリング・アクセスが提供された場合に、最良の量子アルゴリズムと競合する(次元依存性を実現する)、古典アルゴリズムが得られる。これまで、低ランクSDP(semidefinite programming:半正定値計画問題)の解決、PCA(主成分分析)の実行、クラスタリングなどを目的とした脱量子化アルゴリズムが開発されている。

【4】考察
(1) 量子機械学習に対する金融機関の期待値
 先にあげたZapataのレポート[*7]には、「金融業界(及び、航空宇宙・自動車業界)は、シミュレーションとモデリングを量子コンピューティングの主要な使用例として挙げている」とある。さらに、その理由を、「金融業界では、従来の機械学習(及び、分析/最適化アプリケーション)の成熟度が、他業界に比べて高く、量子的な優位性を得るためのハードルが高いため」と分析している。
 ちなみに、マッキンゼーは、21年12月のレポート[*12]で、次のようにと予測している:NISQデバイスでは最適化(トレーディング戦略最適化、インデックス・トラッキング最適化、担保資産活用(の最適化))が収益をもたらす。FTQCが実用化されれば、㊀信用リスクマネジメント、㊁市場リスクマネジメント及び、㊂サイバーリスク管理と㊃(資金洗浄等)金融犯罪の低減、が収益をもたらす(順番は、金額インパクトも表している)。
 金融機関(≒商業銀行・投資銀行)においては「量子機械学習がキャッシュフローに与えるインパクトは、それほど大きくない」と予想されている。ひとまず、そう結論できるだろう。

(2) ただし・・・
 ただし、Zapataのレポート[*7]には「私たちの研究により、特に生成AIが、量子力学の実用的な優位性をもたらす最も有望な手段であることが明らかになりました」との記述がある[*29]。その理由は、「量子コンピュータが、従来は困難だった複雑な確率分布の符号化とサンプリングを可能にするため」という。生成AIが金融機関のキャッシュフローにもたらすインパクトを定量化しない限り、(1)の結論は保留すべきであろう。
 新論文には、以下の記述がある:❶量子ベイジアンネットワークは古典的ベイジアンネットワーク(=代表的なグラフィカル・モデル)に比べて、"特定のパラメータにおいて"、2次加速を得ることができる。❷量子敵対的ネットワークは、古典敵対的ネットワークよりも、指数関数的な優位性を示す可能性があることが示された。なお、レビュー論文[*26]によれば、量子敵対的ネットワークは、ほぼ指数関数的加速(正確には、polylog)を示す。

【5】備考
(1) 入出力の計算量
 量子計算と古典計算の”計算量”を比較する場合には、❶データセットの準備、❷出力結果の読み出し、に対する作業量も勘案しなければならない。本論文では、L2ノルムを採用した回帰(→最小自乗回帰)タスクを例にとって、作業量を定量化している。
 最小自乗回帰タスクはN×d連立方程式の解法に帰着する。ここで、dは特徴量ベクトル空間の次元、Nは特徴量ベクトルの個数。❶には、O(N・log(N))のコスト(計算量)が必要で、❷にはO(d)のコストが必要となる。

(2) データの読み込みに必要なリソース量
 量子コンピューターの実際の金融問題へのさまざまなアプリケーションを評価する中で、米投資銀行ゴールドマン・サックス(GS)は、データの読み込みに必要なリソース量を、具体的に調査することが重要であると認識するに至った。
 量子コンピュータの場合、読み込まれるデータも量子コンピュータに適した形式に変換する必要がある。ブロック符号化は、そのような変換スキームの1つである。GSはアマゾン(AWS)と協力して、ブロック符号化の実行に必要な計算リソースを評価した(22年6月)[*13]。その結果は、「ブロック符号化を実装するには、数百または数千のqubitが必要」というものであった。つまり現段階では、有用な量子アルゴリズムが存在するとしても、データロードのステップでボトルネックが発生する。

(3) 金融向け量子アルゴリズムに利益をもたらし得るハードウェア等[*43]
❶ 状態準備の複雑さを軽減できるハードウェアとして、ネイティブ多重制御ゲートがあげられている。ネイティブ多重制御ゲートは、QAOA などの変分量子アルゴリズムにも恩恵を与え、引いては「高次の組み合わせ最適化問題にもメリットをもたらす」としている。
❷ 量子アルゴリズムの実現可能性を向上させるハードウェアとして、量子メモリがあげられている。しかし、能動的な誤り訂正を行わずに低コストでスケーラブルな量子メモリを実現することは、非常に困難であると考えられている。従って、新しい量子メモリアーキテクチャが必要になるだろう、と結論している。
❸ 最後に、量子ハードウェアの動作クロック速度が、古典コンピューターに比べてはるかに遅いことが、多くの量子アルゴリズムの使い易さを制限している、としている。

(4) ふわっとした話
 【2】では除外した”ふわっと”した話は、たくさんある。例えば、「量子ボルツマンマシンは、株式市場暴落の予測において、最高精度を備えていることが示されています」[*14]というような例である。
 他には「量子コンピューターは複雑な金融データを古典コンピューターよりも速く処理できるため、より迅速でパーソナライズされたサービスを提供できることが示された」とか「情報収集や顧客とのやり取りに革命をもたらし得るAIが量子コンピューターと融合すると、その可能性は高まるばかり」といった例[*49]。

(5) 余談
 米国で金融業は、安全保障上の役目を含めなくても、最重要の基幹産業である。故に、世界一の競争力を維持することが求められている。つまり、競争優位をひっくり返すような、破壊的な技術革新を見過ごすことは許されない。したがって、量子コンピュータの研究も熱心である。GSやJPモルガンが量子コンピュータに傾倒しているからといって、日本の商業銀行・証券会社が追随する必要は、必ずしもない。日本の都銀が投資銀行に憧れて、夢破れたのと同じ構図である。

Ⅱ 最適化
【1】概観-加速・計算量削減
(1) 新論文において、最適化を対象として、量子アルゴリズムによる計算量の削減が定量化されているケースは、2つある。1⃣非構造化探索、2⃣2次錐計画問題、である。
1⃣ 量子非構造化探索としては、グローバー探索が有名である(非構造とは、「任意に並び替えられている」状態と理解して良い)。2次加速を実現する。新論文では、Dürr-Høyerアルゴリズム(DHA)があげられている。DHAは、最小値探索アルゴリズムである。サイズNの探索空間χが与えられたとき、最小化する関数f :X → ℝを評価するオラクルに対して、O(√N)のクエリーを必要とする。言わずもがな、古典アルゴリズムはO(N)である。
 金融においても、非構造化探索及び最小値探索のユースケースは膨大だろう。
2⃣ 2次錐計画問題(Second-Order Cone Programming:SOCP)とは、2 次錐制約と呼ばれる制約条件の下で,目的関数を最小化または最大化する数理計画問題である。こちらは、やや劣って、多項式加速を実現する。
 金融における(代表的な)ユースケースは、ポートフォリオ最適化である。

(2) 23年の新しい論文[*43]では、❶Quantum-enhanced混合整数計画問題:課題=オラクルの複雑性、加速は2次加速。❷Quantum-enhanced対称錐計画問題:課題=量子BLAS※の制限、加速は『不明』。❸Quantum-enhancedヒューリスティックス†:課題=パラメータチューニング、加速は「部分的な証拠がある」、としている。パラメータ=変分パラメータ+ハイパーパラメータ。
 ※BLAS(Basic Linear Algebra Subroutine)とは、線形代数ライブラリという意味。量子BLASは、量子アルゴリズムに必要な線形代数計算(逆行列計算や特異値分解など)を実行するライブラリのこと。
 †ここでは主に、「変分量子回路を含む古典量子ハイブリッド手法」が想定されている。
 以下、少し詳しく整理する。
1⃣ 連続最適化
 連続最適化問題の中で、構造を持った(英語ではstructured)凸計画問題に焦点を絞っている。さらに、構造を持った凸計画問題の注目すべき例として、対称錐計画問題(SCP)をあげている。ちなみに、最適化問題という名称はビジネスでの呼び名で、アカデミアでは数理計画問題と呼ぶ(と言いつつ、アカデミアでは、数理最適化という言葉も用いらていれる)。このため、最適化問題と呼んでいながら、計画問題という"接尾語"がつく。
 SCP御三家(という用語があるわけではないが、代表例と言う意味で・・・)は、線形計画問題(LP)、2次錐計画問題(SOCP)、半正定値計画問題(SDP)であり、金融アプリケーションで頻繁に使用される(らしい)。しかし、SCPは古典的に非常に効率的に解決できる(主双対内点法により、"多項式時間"で最適解が求まる)ため、量子加速の余地はわずかと考えられている。(SCPを含む、)構造を持った凸計画問題全般に対して、量子加速が期待できるか?は未解決の問題である、と([*43]では)記述されている。新論文では、SOCPは多項式加速とあるが、後退したのか? 参考文献5にも、SOCPが多項式加速との記述がある。
2⃣ 離散最適化
 離散最適化には、ポートフォリオの最適化など、金融で最も一般的に見られる最適化問題のいくつかが含まれる(離散最適化はアカデミアの呼び名で、ビジネス界では、組み合わせ最適化と呼ばれる)。なお、離散最適化の代表的な問題としては、整数計画問題(ナップサック問題が最も有名)、混合整数計画問題、ネットワーク最適化問題がある。離散最適化における量子手法として、([*43]では)以下の3つがあげられている。
❶量子ウォーク探索・・・ツリーのサイズに関してツリー探索を、ほぼ2次加速する量子ウォーク探索ベースの技術が開発されている。しかし、追加のリソースが必要であるため、エンドツーエンドで、どの程度の加速が実現できるかは不明。
❷シミュレーテッド・アニーリング法・・・量子加速が達成されるかは、不明。
❸量子ヒューリスティックス・アルゴリズム・・・
㊀ 変分量子アルゴリズム:変分パラメータとハイパーパラメータの調整が困難であり、それ自体が NP 困難になる可能性がある。さらに特定の初期化では、パラメーターに関する勾配が消える可能性があり、それらを推定するには指数関数的に多くのサンプルが必要になる。→量子加速は、不明。
㊁ 量子アニーリング:量子トンネリングにより、ポテンシャル障壁の貫通が可能になるが、実際の問題に現れる障壁がトンネリングを許可するかどうかを事前に知ることはできない。→量子加速は、不明。
㊂ QAOA(近似的量子最適化アルゴリズム):レイヤーごとに2つのパラメーターのみを使用することや、問題インスタンス間で最適化されたパラメーターを転送できる能力など、追加の利点がある。→量子加速は、不明(👉下記、参考2を参照)。
[参 考2] QAOAは、古典にやや勝ると控えめに主張する論文
 米商業銀行大手JPモルガン・チェース他🛡0は、低自己相関二進数列(LABS)問題に対して、QAOAが古典アルゴリズムよりも優位であると主張する論文を発表した(24年5月29日@Science Advances[*74])。LABS問題とは、「指定された長さNの数列Sに対して定義されるエネルギーE(S)🛡1を最小化🛡2するSを探索する問題🛡3」である。比較対象とされた古典アルゴリズムは、文献調査の結果、最も優秀であった「タブー(Tabu)探索に基づくMemeticアルゴリズム」というヒューリスティクス。比較した計量指標は、「解を得るまでの時間(TTS)」で、QAOA🛡4のTTSは1.21N、古典のTTSは、1.34Nで、"わずかに"優れている🛡5
 なお、QAOAは、Quantinuumのハードウェアで実装された。古典アルゴリズムは、アルゴンヌ国立研究所のPolarisスーパーコンピューターで実行された。
🛡0 米アルゴンヌ国立研究所、Quantinuum。
🛡1 Sの自己相関の2乗和として、定義される。
🛡2 しばしば、メリット係数F(S)最大化と置換される。ここで、F(S)=N2/(2×E(S))である。
🛡3 レーダーパルスのピーク電力低減に応用されるらしい。LABS問題は、シミュレーテッド・アニーリングでは高品質の解が得られないらしい。その理由は"ゴルフ・コース型"のエネルギー地形に起因するとされる。ゴルフ・コース型のエネルギー地形とは、大域的最小値が、深くて狭い孤立した箇所に存在することを意味している。この地形により、確率的探索手順では長いシーケンスに対して、高品質の解が得られなくなると推測されている(とすれば、量子アニーリングでも同じ結果となるはず)。
🛡4 正確には、QAOA+quantum minimum finding。
🛡5 "わずかに"の意味は、2次加速でもない、という意味(※Nが大きくなれば、わずかではない:実アプリケーションにおける適当なNの水準を理解していない)。さらに『状態準備や測定』を含めたエンド・ツー・エンドで考えた場合、どの程度の優位性になるだろうか。ちなみに、skew-symmetricと呼ばれる特定タイプのLABS問題に限れば、古典のTTSで1.15N2が得られている。
[参 考1]ネットワーク最適化問題について
 QuEra[*47]による論文[*53]には、「最大独立集合問題(及び等価な、最大クリーク問題、最小頂点被覆問題)において、超線形加速が達成された」との記述がある。最大独立集合問題(正確には、最大クリーク問題)は、ポートフォリオ最適化問題と見做せる。
3⃣ 動的計画問題
 意思決定を順番に行う必要があるような最適化問題は、動的計画問題となる。金融における動的計画問題には、アメリカンオプションのプライシングに加えて、住宅ローン担保証券(CMO)の構築がある。具体的には、各トランシェの最適な支払いスケジュールの決定が動的計画問題となる。[*43]の筆者の知る限り、CMO構築に対する量子ソリューションの実証はないそうである。

(3) 日銀金融研究所ディスカッションペーパー[参考資料5]
 ❶離散ポートフォリオ最適化について、以下のように整理している:
現状整理☛現存する量子ハードウェア(量子アニーラ・イジングマシン、NISQマシン)で実行できる、量子アニーリング法や(変分法に基づく)量子古典ハイブリッド・アルゴリズムを使った、評価作業が行われている。
課題👉量子アニーリング法や変分量子アルゴリズムは、ヒューリスティックス・アルゴリズムであり、高速化の理論保証はない。変分量子アルゴリズムは、大規模な最適化問題を扱う場合に、調整すべきパラメータ数が増えることで、古典コンピュータ側の負担が増大する。
 ❷連続ポートフォリオ最適化について、以下のように整理している:
 (そもそも誤り耐性汎用量子コンピュータが必要と目されている)HHLアルゴリズムには(さらに)、いくつかの前提条件(例えば、スパース性)があるので、HHLが適した問題設定を考える必要がある。

(4) 長大なレビュー論文[*62]は、ポートフォリオ最適化について、以下のようにまとめている(ただし、制約のないケースは単純過ぎるので、割愛)。
❶ 等式制約
 誤差 ϵ に対して、計算量は Õ(κζ log(1/ϵ))。Õは対数項を無視した、ソフト・オーと呼ばれるビッグ・オーである。Õ(κζ log(1/ϵ))において、κ は逆行列の条件数、ζ はスペクトル・ノルムに対するフロベニウス・ノルムの比である。κ と ζ の値がどのようなものになるのか、またそれらが n[投資可能な資産のセット]に依存するかどうかは、事前にわからない。かつ、量子トモグラフィーを使用することによる、乗算オーバーヘッドが発生する。
 実務上は当然考慮すべきである、データの読み込み(データ・ローディング)を考慮すると、量子高速化の可能性が排除されるだろう、と結論している(100 個程度の資産であれば、ノートPCを使って数秒以内に解決できる、と書かれている)。
‖補遺‖
 米商業銀行シティグループ(のシティ・イノベーション・ラボ)、AWS及びClassiq(イスラエルの量子ソフトウェア・スタートアップ)は、等式制約を課したQAOAのパフォーマンスを検証した(24年2月7日)[*73]。具体的には、ペナルティ係数に摂動を与えたとき、有効な解が見つかる確率に影響を与えるかを検証した。
 結果は、ペナルティ係数がある値(ピーク値)に達するまでは、係数の増加とともに、有効な解が得られる確率は上昇する、であった。ピーク値を過ぎると、確率は低下する。

❷ 不等式制約
 ロングオンリー(買い持ちのみ)制約あるいはターンオーバー制約が、代表的な不等式制約として知られている。誤差 ϵ に対して、計算量は Õ(n1.5(ζκ/ξ)log(1/ϵ))。ここで、κ はアルゴリズムの過程で現れる逆行列Gの最大条件数。ζは、逆行列Gのスペクトル・ノルムに対するフロベニウス・ノルムの比。ξは、量子状態トモグラフィ-の推定精度。
 実務上は当然考慮すべきである、データの読み込み(データ・ローディング)を考慮すると、量子高速化の可能性が排除されるだろう、と結論している(100個程度の資産であれば、ノートPCを使って数秒以内に解決できる、と書かれている)。
 ちなみに、量子リソースは以下のように推定されている(ただし[*64]からの引用):誤差ϵ = 10−7 および n(投資可能な資産数) = 100 に対して、論理量子ビット 数=8×106、T 深さ =2×1024、および Tカウント 8×1029。Tカウントは、文字通りTゲートの数。T深さは、並列化可能なTゲートをグループと見做した時の、グループの数である。👉‖参考‖
 (量子計算の高速化は、問題のサイズに対して漸近的であるから)資産数が増えていけば、量子アルゴリズムの優位性が現れると考えるかもしれない。しかし、莫大な量子リソース見積もりを鑑みて結論すると、量子アルゴリズムの出る幕は、おそらくないだろうと考えられる。
† ある端数Ujについて|Δwj|≤ Ujという制約。ここで、Δwjは、あるポートフォリオから次のポートフォリオへの資産wjの保有量の変化を表す。
👉|参考| 24年1月30日(29日?)公開された[*71]の付録Aでは、様々な分野における量子リソース推定結果をリストしている。金融分野→ポートフォリオ最適化→アセット・アロケーションでは、[*62]の他に1件上げられている。2019年と古い論文[*72]であるが、資産数約100万(220≒106)に対して、量子ビット数106、T深さ3×107と推定している。量子ビット数はともかく、T深さは(5年で)激増してしまったらしい([*71]はT深さとTカウントを区別していないように見える)。
‖補遺‖
 先のシティ+AWS+Classiqは、不等式制約を課した場合も検証している[*73(再)]。不等式制約の場合は、係数の増加とともに、有効解を見つける確率は上昇した。ただし、最良の上位1%に含まれる有効解を得られる確率は、ペナルティ係数が小さい場合であった(この傾向は、等式制約の場合も同じ)。
† 得られた全ての有効解を目的関数に基づいて評価し、最良の上位1%を特定した。

❸ 非凸制約
 基数制約(カーディナリティ制約:投資資産数の上限制約)などの整数値の制約は、非凸制約となる(解決が、困難になる)。この場合、ポートフォリオ最適化問題は、混合整数計画問題(MIP)として定式化される。MIP は通常、分枝限定法(ブランチ・バウンド・アプローチ)で解決される。
 分枝限定法とは、元の問題の制約を一部緩和した問題(緩和問題)を繰り返し解くことにより、元の問題の解を求めるアルゴリズムである。MIPに適用される場合、緩和問題は、整数変数を連続変数に緩和した問題となる。計算量は Õ(√T)×nの多項式、となる。nは投資可能な資産数。Tは、56までのnに対して、 20.14nから20.20nと推定されている。
 量子メモリ(QRAM)を使わずに、ほぼ2次加速を実現できるとしているが、n多項式の追加のオーバーヘッドの可能性は排除していない。 2次加速が、実際のインスタンス サイズに対する誤り耐性量子計算による本質的に遅い量子クロック速度と、オーバーヘッドを克服するのに十分であるかどうかは不明、と結ばれている。既出の「2次加速に依存するアルゴリズムは、困難に直面する可能性が高い」という指摘[*36]並びに、マイクロソフト(MS)テクニカルフェロー兼量子部門バイスプレジデントMatthias Troyerのブログ(MSの公式ブログ)における「2次加速では意味がない」という主張[*65]は、重みが増しているかもしれない。

【2】量子アルゴリズムによる質的な向上
 高速化ではなく、量子アルゴリズムが古典アルゴリズムを質的にアウトパフォームしたという例を示す。量子計算において、高速性以外を訴求している点を評価したい。
 ニューヨーク大学とトロント大学の研究者は、「量子コンピューティングは、金融ネットワークのシステミック・リスクを軽減する」と題する論文を発表した(23年3月9日)。この論文[*19]における、量子コンピューティングとは量子アニーラ(D-Waveのマシン)を使った量子計算であり、金融ネットワークとは銀行間ネットワークである。システミック・リスクを軽減するとは、「量子アニーリング(QA)法と古典的手法(Louvain法)と比べて、QA法の方が、”摂動”資産の数を多くする」という意味である。これでは、何のことか分からないと思うので、以下、説明する。

(1) 摂動資産(perturbed asset)
 まず、摂動資産(perturbed を直訳すると、摂動となる)について説明する。摂動資産とは、銀行間ネットワーク内でカスケード障害を引き起こす「金融ショック」によって、価値が減損する銀行保有資産を指している。摂動資産の数が多くても銀行間ネットワーク全体が破綻しなければ、ネットワーク全体が金融ショックに強い=システミック・リスクが軽減された、と考える。
 これでも、よく分からないと思うので、背景を説明する。

(2) 背景→定式化の枠組み
 余談ながら、新論文にも金融クラッシュという項目(6.4.5)で、金融ネットワークのシステミック・リスクが取り上げられている。新論文で取り上げられている嚆矢となった研究Matthew Elliot他[*20]同様に、論文[*19]も、銀行価値方程式から始める。ただし、Elliot他によるオリジナル手法はNP困難であることが判明している(2016)ので、アプローチを変えている。
1⃣ 達成したい目標は、❶銀行間ネットワーク構造を変更して、金融ショックに対する耐性を高める、ことである。これを実現するために、❷最適化アルゴリズムを使用して、銀行破綻によって発生する可能性のある損失を最小限に抑える、という定式化を行う。つまり、最適化問題として扱う。
 論文[*19]の手法で重要な点は『銀行の総負債と全体的な金融構造を変えることなく、銀行の持ち合いを再編成することによってのみ、カスケードの失敗を軽減することを目指す』という点である。これは、現実的な解決策という観点から導出されている。
2⃣ 先にあげた最適化問題❷を現実の銀行間ネットワークで実行することは、計算量的に困難である。いわゆる次元の呪いが発生するためである。実際、22年6月末時点で、米国には商業銀行だけで、4,000行以上ある[*21]。信用組合等を含めると9,000を超える(日本は、総合農協を含めても1,000程度)。そこで論文[*19]は、次元の呪いに対応するために、2段階アプローチを採用する。2段階アプローチとは、❸銀行間ネットワークを、コミュニティに分割し、コミュニティ内でのみ最適化(部分最適化)するというアプローチである。コミュニティは、次項で定義する。

(3) ”コミュニティ”を始めとする、いくつかの定義
 コミュニティとは、次のように定義されている:グラフ Gに関するコミュニティ Cとは、C 内の他のノードに密に接続され、同じグラフ G 内の他のコミュニティ内のノードに、疎に接続されているノードのサブセットである。
 コミュニティよりも、 クラスターという用語が分かりやすいかもしれない。コミュニティ分割は、大規模なネットワークから、コミュニティを抽出するタスクである。そして、コミュニティ分割の 1 つのアプローチは、モジュール性を最適化することである。モジュール性とは、クラスタリングの良さを表す指標・尺度である。

(4) 量子アルゴリズムの数学的及び、アルゴリズム的枠組み
1⃣ (2)❷の最適化問題(銀行間ネットワーク構造最適化問題)は、混合整数線形計画法(MILP)問題として定式化される。言わずもがな、2段階アプローチでは、最適化は分割されたコミュニティに対して行われる。
2⃣ ネットワークをコミュニティに分割するというタスクを実行するために、銀行間ネットワークを数学的に表現しよう。具体的には、重み付き有向グラフとして表現する。エッジの強さは、持ち合い行列Cによって表現される。そして、銀行間ネットワーク(重み付き有向グラフ)の分割を、古典アルゴリズムと量子アルゴリズムで行う。
 古典アルゴリズム(Louvain法)は次項(5)で説明する。量子アルゴリズムを説明するために、ここで、モジュール性とイジング・スピングラスとの間に、関係性を天下り的に導入する。その関係性とは、モジュール性関数が、イジング・スピングラスのハミルトニアンとして表現できるという関係性である。つまり、銀行間ネットワーク(重み付き有向グラフ)の分割は、量子アニーリング(QA)問題として定式化できる。

(5) 古典アルゴリズム、Louvain法
 ここで、論文[*19]で採用されている古典アルゴリズム、Louvain法について説明する。
 Louvain法は、コミュニティを繰り返し更新してモジュール性を最大化する、貪欲な(英語では、greedy)最適化手法である。コミュニティを高速に抽出することができる手法と認識されており、アルゴリズムもシンプルで、プログラムへの実装も容易、とされている。ただし、ヒューリスティックベースの最適化アルゴリズムであるため、発見したコミュニティの最適性を保証するものではない。通常はユーザーが、収束基準を指定する必要がある。論文[*19]では、2 つの反復間のモジュール性ゲインが 1×10-5未満の場合、アルゴリズムを終了している。
 なお論文[*19]では、(エッジの方向を忘れて、つまり)無向グラフに対して、Louvain法を実行している。有向グラフにLouvain法を適用する場合の一般的なアプローチであるから、というのがその理由である。

(6) セットアップ
 1⃣ 銀行間ネットワークは、0~1でランダムに生成された値を銀行に割り当てて、生成する。ただし、しきい値以下であれば、生成値は0とする。資産の持ち合い割合も、0~1でランダムに割り当てる。摂動資産を特徴づけるパラメータは、資産の減損割合α(0~1)と摂動資産の数βである。シミュレーションは、βを与えて破綻銀行数をカウント(アンサンブル平均)する、という形式で行われる。
 銀行の価値が、ある臨界値を下回った場合に、破綻したとする。破綻(あるいは債務不履行)した銀行が負担するコストは、資産の平均市場価値×21.7% とされている(経験値と思われる)。つまり、破綻行に対応するベクトル要素には、当該銀行価値の 21.7% が割り当てられ、他の要素はゼロになるように、破綻行のペナルティ・ベクトルが生成される(この部分は、Elliot他の銀行価値方程式をみないとピンとこないかもしれないので、論文[*19]の式(1)を参照されたい)。
 2⃣ ハードウェアは、2つの D-Waveシステムを使用している:❶2048量子ビットのD-wave 2000Qソルバー、キメラグラフ埋め込み。 ❷5000量子ビットのD-Wave Advantage System1.1 5000Qソルバーと、ペガサスグラフ埋め込み。
 3⃣ ハードウェア能力の制限により、ネットワークにつながっている銀行の数(上限)は50であり、その場合のコミュニティ数上限は6である(6を超えると、やり直し)。余談ながら、論文の途中から、コミュニティ=モジュールとなっており、分かりにくい。

(7) 結果
 2段階アプローチは部分最適化であるから、大域的(つまり銀行間ネットワーク全体)最適化である1段階アプローチよりも、精度が低いと考えられる。にもかかわらず、❶2段階アプローチ・量子分割アルゴリズムは、❷1段階アプローチよりも、銀行を破綻に至らしめる摂動資産数が多い。具体的には、❶は5程度で破綻がスタートする。❷は4程度からスタートする。❸2段階アプローチ古典アルゴリズムは、摂動資産0でも破綻がスタートしている(故に、そもそもおかしいのでは?と思える)。そして、摂動資産が5では破綻銀行数が30を超える。とはいえ、❶でも摂動資産が6~7で、破綻銀行数が30を超える。
 量子アルゴリズムの華々しい勝利には見えないだろう。しかし、次元の呪いからスケーラブルでない1段階アプローチを採用しなくても、量子アルゴリズムは古典アルゴリズムと同等以上の精度がある。それが重要との主張であろう。
 なお、実データ(国際決済銀行の2015年第2四半期レポートから抽出された、日米英仏独伊西葡希の持ち合いデータ)を使ったシミュレーション結果も示されている。(6)セットアップ1⃣の結果と同様のパフォーマンスを示しているために、現実世界でも、同じ結果(スケーラブルな量子アルゴリズムで、古典アルゴリズムと同等以上の結果)が得られるだろうとの期待を表明している。

(8) 考察
❶ 量子アニーラかNISQかという議論は別として、QA法と古典アルゴリズムの比較をしているのに対して、量子コンピューティングがアウトパフォームという表現は、やや誤解を招くと思われる。
 例えば、QA法を古典コンピュータで実行するシミュレーテッドQA(SQA)法とLouvain法との比較は、どうなるのだろうか。SQA法でもアウトパフォームするのであれば、量子コンピューティングがアウトパフォームとはならないだろう。量子インスパイアード・アルゴリズムがアウトパフォームという表現になるであろうか。もちろん、その場合でも、任意の古典アルゴリズムをアウトパフォームしたことを意味しない。
❷ 古典アルゴリズムであるLouvain法は無向グラフに対して実行されており、量子アルゴリズムは有向グラフに対して実行されている。比較という意味で、このアプローチで公正なのか、という疑問は残る。ただし、1段階アプローチと2段階アプローチ・量子アルゴリズムとの比較が(結果としては)本質という見方をすれば、先の疑問は無意味であろう。

【参考】
1⃣ 量子アニーリング法とQAOA(近似的量子最適化アルゴリズム)とで、ポートフォリオ最適化の比較をBBVA(ビルバオ・ビスカヤ・アルヘンタリア銀行)と共同で行ったところ、QAOAが勝ったと報告している(22年7月)[*22]。BBVAはスペインの大手商業銀行で、競合他社と比べて、量子技術への関心は高いようである。
 [*43]によれば、「QAOAは、VQEとは対照的に、以下の追加の利点がある:㊀レイヤーごとに2つのパラメーターのみを使用する、㊁問題インスタンス間で最適化されたパラメーターを転送できる」。
2⃣ 投資資産数の上限制約(基数制約,Cardinality Constraint)を課した、(インデックス追従)ポートフォリオ最適化問題を量子アニーラで解くハイブリッド量子古典的アプローチを開発したと発表した(22年8月)[*23]。インデックスは、Nasdaq100とS&P500である。Nasdaq100は、従来の1/4の株式数で、S&P500は従来の1/10で、同じリターンを得られたとする。
3⃣ 富士通は、スペインの金融機関であるKutxabank(クチャバンク)が推進する投資ポートフォリオの最適化検証プロジェクトにおいて、同社のデジタルアニーラを活用して開発された「問題の定式化に必要な変数の数を減らすアルゴリズム」の有効性が確認されたと発表した(22年12月)[*24]。従来のアルゴリズムより、適した投資配分の算出が可能なことを実証したと主張。

Ⅲ シミュレーション・モデリング
【1】加速・計算量削減
(1) 新論文において・・・
 モデリング(シミュレーション)を対象として、量子アルゴリズムによる計算量の削減が定量化されているケースは、4つある。定量的でないケースとしては、VaRやCVaR(信用VaR)を、量子振幅推定アルゴリズムを用いることで「より高速(faster)に」計算できるとの記述がある。
① 量子モンテカルロ積分に関して、量子振幅推定アルゴリズムを用いることで、2次加速を実現。
② 高次元ブラック・ショールズ方程式の求解に関して、偏微分方程式の次元(この場合は資産の数)に対する指数関数的加速を実現。ただし、同じ時点における原資産価格の確率分布の下で、将来時点におけるオプションの期待値を読み出す。
③ グリークス(=デリバティブの感応度)計算に関して、2次加速を実現。
④ 信用評価調整(CVA)の計算に関して、量子モンテカルロ積分を利用して、2次加速を実現。

(2) 23年の新しい論文[*43]において・・・
1⃣ サマリー
 ❶量子モンテカルロ法(QMCI):課題=確率分布のローディング(デリバティブプライシングとリスク分析では若干異なる)、加速は2次加速。❷量子技術を使った偏微分方程式の求解:課題=事前処理及び事後処理、加速は不明、としている。
2⃣ 新しい情報
①準モンテカルロ積分(quasi-MCI)による2次加速:quasi-MCIとして知られる決定論的"古典的"手法は、低次元の問題に対してQMCIと同様の2次加速が得られる。一般的に、quasi-MCIには、次元への指数関数的な依存が存在するが、金融分野の一部のケースでは(なぜか)この依存性は現れない。結論として、ケースによっては、quasi-MCIは2次加速を達成する。
②ハミルトニアン・シミュレーションによる指数加速:対象が2次元線形偏微分方程式の場合、当該偏微分方程式(PDE)によって表現される時間発展を、ハミルトニアン・シミュレーションを使用して、シミュレート可能。時間発展演算子(行列)の全固有値が既知の場合、シミュレーションの指数加速が達成可能となる。ただし、PDEの解は量子状態で出力されるため、古典的な量に変換するために、追加のオーバーヘッドが必要となる。つまり、エンドツーエンドで言うと、指数加速が得られるとは限らない。

(3) サーベイ論文[*46]において・・・
 ①「技術が未成熟であるため、銀行による当初の熱意はすでに少し薄れてきている」。②「計算速度の観点から、市場リスクや信用リスクなどの分野では、あまり強力ではない」。「大手金融機関であっても、古典計算は現在、数分、長くても数時間であるため、2次加速にそれほど大きなインパクトはない」。③「エキゾチックなデリバティブのプライシングに遅延が発生しても、実際には重大な懸念事項とはならない」、としている。
 このため、「大規模なロールアウトの商業的必要性は明らかではない」を結論としている。その一方で、「ポートフォリオ最適化は、金融分野における量子コンピュータのユースケースとして、適しているかもしれない」としている。

(4) 日銀金融研究所ディスカッションペーパー[参考資料5]
 ❶デリバティブ・プライシング、❷リスク管理について、量子モンテカルロ積分(QMCI)の使用を前提に整理している。
 ❶は、以下のように整理されている:
㊀ モンテカルロ法は、対象となる変数が従う確率分布(デリバティブであれば、原資産価格の変動が従う確率分布)を与えなければ実行できない。(モンテカルロ法が必要とされるエキゾチックなデリバティブは、特に)その確率分布を対数正規分布等に仮定することが、馴染まない。従って、確率分布を効率的に生成する量子アルゴリズムを開発する必要がある(量子敵対的生成ネットワークは、その有力候補である)。[分布ローディングで、量子加速が減じられると懸念されているが、その点は、触れられていない。]
㊁ モンテカルロ法ではなく、(有限差分法を始めとする)偏微分方程式(の数値解法)やツリー・モデルによって、プライシングすれば十分な場合もある。そのため、古典アルゴリズムに対する(量子アルゴリズムの)優位性を示す必要があると考えられる。つまり、デリバティブのプライシングにおける量子アルゴリズムとしては、モンテカルロ法の量子版QMCIが取り上げられる。しかし、そもそもモンテカルロ法を使わずにプライシングされるデリバティブも、少なくない。
👉 故に、QMCIを前提とした、デリバティブ・プライシングの量子加速自体を再考察した方が良い。そのような理解で良いだろうか。
※[*57]では、パラメータ付き量子回路を使う等により、確率分布ローディングを行い、ローディング問題を解決している。ただし、当面は、二項分布、正規分布、対数正規分布のみに対応。また、プライシングにはMCIからQMCIに置き換えるメリットは乏しいが、グリークス計算にはメリットがあると主張している。

 ❷は、以下のように整理されている:
㊀ ❶と同様に、確率分布を効率的に生成する量子アルゴリズムを開発する必要がある。VaR(バリューアットリスク)やストレステストでは、(過去の事例をもとに)事前に損益分布を仮定している(が、これが結果として大きな損失を生じさせたことは、リーマンショックの重要な教訓であった)。[つまり、この要請は、デリバティブ・プライシング以上であることが広く認識されている。][また、ローディング問題も同様に、存在する。]
㊁ 既存のリスク計測手法には古典モンテカルロ法以外の代替手法が存在する場合もある。例えば、過去データが十分にあればヒストリカル・シミュレーション法を用いることで少ない計算量で VaR が計算可能である。[これは、ミスリーディングと思われるが、如何だろうか。]
👉 ❷についても、❶と同じ(QMCIを前提とした、量子加速自体を再考察した方が良い)であろうか。
※[*57]でも、QMCIはリスク管理において、最大の貢献をするとされている。ただし、NISQの量子リソースでは難しい、と結論している。

(5) レビュー論文[*62]は、である。デリバティブ・プライシング用途のモンテカルロ・シミュレーションについて、以下のようにまとめている。
1⃣ 量子加速 
 教科書的には、量子モンテカルロ法(MC)は、古典MCに比べて2次加速を実現する。そのカギは、確率振幅√pxのローディングにある。ここで、pxは、古典的には、確率変数xが、観測される確率。量子的には、量子状態|x⟩が測定される確率である。
❶特定の確率分布
 pxが、マルコフ過程の定常分布である場合、2次加速が得られる(※)。
※ アジアン・オプションやバミューダン・オプションのような、経路に依存するデリバティブであれば、2次加速は得られない可能性がある。
❷ 古典MCの優位点
 古典MCは、多くの場合、大規模な並列化が可能である。一方、量子MCで2次加速を実現するには、逐次アプローチが必要である。量子デバイスのクロック速度が遅いことを考慮すると、実用的な利点を達成するには、かなり大きな問題サイズが必要となると考えられる。典型的な産業シナリオでは、数万もの経路をサンプリングし、およそ数秒の実行時間で、オプション価格は、十分な運用精度で評価できる。
† オプションの価格評価で、量子MCが古典MCと競合するのに必要な要件は、約 50MHz の論理クロック 速度に変換される。この速度は、物理ハードウェアの現在の状況と、表面符号で論理ゲートを実行する現在知られている方法を考慮すると、予測可能な速度よりも、桁違いに高速である(から非現実的という指摘)。
❸ 古典的2次加速など
 準モンテカルロ法は、古典MC法と比較して、ほぼ2次加速を達成できる。また、サンプル数は、マルチレベル・モンテカルロ法を介して、古典的に削減できる可能性もある。
❹ テンソルネットワーク
 オプション価格評価に対するテンソルネットワークベースの古典的なアプローチが大きな利点をもたらす可能性がある。
❺ 量子の逆襲?
 確率過程の新しいアナログ量子表現が開発されている[*66]。古典手法よりも指数関数的に高速化される。ただし、この方法は、アナログな性質により追加の注意が必要であり、具体的なアプリケーションを見つけることは、未解決の問題である。

2⃣ リソース推定
 本論文では、「3つの原資産、5つの支払日、20のバリア日付を持つノックイン・プットオプションを備えたオートコーラブルのバスケット」に対して、リソース推定された事例が引用されている。結果は、論理量子ビット数=4700、T 深さ =4.5×107、T カウント =2.4×109。であった。T深さとは、量子回路で、並列には実行できないTゲートの数である。 T カウントは、Tゲートの数である。
 対して、古典的なモンテカルロ法では (わずか)4×104サンプルが必要であると概算されている(計算時間は、数秒程度とされている)。
 ちなみに、[*71]の付録Aにリストされている量子リソース推定(金融分野→デリバティブ(オプション)プライシング)では、上記例含めて8つの例があげられている。結果は、量子ビット数103~105、Tカウント107~1014である(前述の通り、おそらく[*71]はT深さとTカウントを区別していない)。
❚為・参考❚
 韓国Orientomと浦項工科大学の研究者は、「イオントラップ方式の量子ハードウェアでは、超伝導方式と比較して、2量子ビットゲートの数が1/2~1/3に削減される」と主張する論文[*74]を発表した(24年4月7日)。量子モンテカルロ・シミュレーションを使った米財務省短期証券のプライシングを対象としている。ただし、量子フーリエ変換(QFT)に基づく量子位相推定法を前提としている。近年は、ハードウェア効率を上げるため、QFTを使わない反復量子位相推定法、特にベイジアン量子位相推定法(B-QPE)が使われていると理解している。B-QPEは量子化学計算でも機能している(例えば、こちらを参照)から金融計算で使えないわけはないであろう。したがって、おそらく、この論文[*74]の結果は変わるであろう。
 ただ、超伝導方式の2量子ビットゲートの数が膨らむ理由は、”量子ビットの接続性”に起因する。つまり(全結合が不可能な)超伝導方式だと、ハードウェア効率の低いSWAPゲートを使わなければ、離れた量子ビット同士を接続できない。そのために、2量子ビットゲートの数が増えるのだから、B-QPEを使っても、超伝導>イオントラップの図式は変わらないだろう。しかし、IBMが量子誤り訂正符号で表面符号と訣別し、長距離カプラの採用に舵を切った(こちらを参照)ことから、その辺りの事情も変わってくるだろう。
 結論として、[*74]の定量的な結果(1/2~1/3)は、あまり意味がないと思われる。
† 量子金融プラットフォームに特化したソフトウェア会社。イスラエルのQuantum Machinesと提携している(23年6月~)。

【2】具体例
 量子計算の具体例というには、やや迫力に欠ける。(1)は、古典アルゴリズムを、古典量子ハイブリッド・アルゴリズムと量子インスパイアード・アルゴリズムと比較している。(2)はテンソルネットワーク(TN)を使ってアウトパフォームしている。TNは、うまく情報集約する手法であり、量子アルゴリズムではない。
(1)堕天使予測
 仏クレディ・アグリコルCIB(クレディ・アグリコル銀行の投資銀行部門)、仏Pasqal(中性原子方式の量子H/Wベンダー)及びスペインのMultiverse Computing(量子S/Wベンダー)は、”堕天使予測”において、次の2つを報告した(23年1月):
❶ 古典量子ハイブリッド・モデルは、古典モデル対比で、同程度の性能を少ない学習器で達成し、実行時間は約1/3になった。
❷ 量子インスパイアード・モデルは、少ない学習器でありながら、古典モデル対比で、(わずかに)高い性能を示し、実行時間は約1/9になった。
 堕天使とは、債務者の信用格付けが、投資適格から非投資適格になることを指す。欧米の社債市場では広く使われている用語である。
 詳細は、こちらを参照。

(2)テンソルネットワークを使ったデリバティブ・プライシング
  クレディ・アグリコルCIB、Pasqal及びMultiverse Computingは、ブラックーショールズーバレンブラット・モデル及び、ヘストン・モデルを対象に、次の2つを報告した(23年1月):
❶ テンソルネットワークを利用して、深層ニューラルネットワーク(DNN)と同じ精度を達成するのに必要なパラメータ数を、大幅に削減した。
❷ DNNと同じパラメータ数では、高速化を実現した。
 詳細は、こちらを参照。

【参考】高頻度・統計的裁定取引のための量子アルゴリズム
 株式市場における、高頻度・統計的裁定取引のための量子アルゴリズムを、中国の研究者が提案した(22年7月、New Journal of Physicsに投稿[*25])。O(N2d)の古典アルゴリズムに対して、量子アルゴリズムはO(k2×ε×(dN)1/2)であり、量子優位性(4次加速)を示した。 ここで、kは条件数、εは、計算精度に依存する数値、 Nは取引データの長さ、d は株式数である。最大固有値と最小固有値の比で定義される条件数は、どの程度、正則行列であるかの尺度を示す。
 線形回帰と共和分検定を用いる古典アルゴリズムに対して、量子アルゴリズムは、量子線形回帰と量子共和分検定を用いる。線形回帰と共和分検定は基本的に行列演算であるから、HHLアルゴリズムを想起しても分かるように、量子優位性の発生に驚きはない。もちろん任意の条件下で、行列演算に量子優位性が発生するわけではないが、そうなるように工夫されている。
 研究の重要なポイントとして、さらに以下があげられる:条件数の推定を高速に行うツールを開発した。条件数固定と考えられるケース、条件数が変動すると考えられるケースに分けて、それぞれで効率的なアルゴリズムを構築している。また、条件数が大きいときの対処にも、工夫を凝らしている(条件数が大きい場合、量子アルゴリズムが、平均して成功するまでに、長い時間を要する)。
 投稿論文の最後に、実データがあげられている。米国の株式市場には約8,000 の株式が取引されている。NYSE、NASDAQ の通常の取引時間は、どちらも 1 日あたり 6.5 時間。0.5 秒間隔で集計されたクオート・データの場合、1 日あたりのデータの長さは、6.5 × 3600 × 2 = 46,800となる。1 年間の平均取引日数は約253日であるから、取引データの典型的なサイズは、N=1.2×107となる。さらに、このデータを扱うには、50以上の量子ビットが必要であると見積もっている(量子アルゴリズムを実際に走らせたわけではない)。

【参考】デリバティブ評価における量子優位性のしきい値
 米ゴールドマン・サックスとIBMチューリッヒ研究所(スイス)他は、量子コンピュータが、複雑なオプションの価格評価において実質的な優位性を得るために、必要なリソースを調査した論文[*37]を発表した(21年5月)。対象デリバティブは、実用性の高さを鑑み、❶自動コーラブル・オプション(↓)及び、❷ターゲット・アクルーアル・リデンプション・ノート(フォワードではなく、敢えてノートと記した)。結果として「8,000個の論理量子ビットと、5,400万のT深度(Tゲートの数)が必要」であり、「量子優位性を得るには、価格評価計算を1秒程度で実行する必要」があると推定した。このような結果を受けて、[*34]では「デリバティブの価格評価は、はるかに複雑」とコメントされている。
→Terra QuantumとCirdan Capital(英国の金融ブティック)は、マルチアセット(つまり高次元)の自動コーラブル・オプションを、"ベンチマークに比べて"75%速く(10分が2分になった!)プライシングできた、と発表した[*41](23年7月6日)。テンソルネットワークを使った量子アルゴリズムを使用した、ようであるが、詳細は不明。ちなみに(既出であるが)、テンソルネットワークを使ったデリバティブ・プライシングの例には、こちらがある。ヨーロピアンとバミューダンを扱っている。

Ⅳ 量子安全通信・暗号
【0】日本
 野村證券、NICT、東芝、NECは共同で、金融分野における量子暗号通信の適用可能性について、国内で初めての検証を実施した。その結果、①量子暗号通信を適用しても従来のシステムと比較して遜色のない通信速度が維持できること、②大量の株式取引が発生しても暗号鍵を枯渇させることなく高秘匿・高速暗号通信が実現できること、が確認できたと発表した(22年1月)[*38]。

【2】EU・英国
(1) 英大手商業銀行HSBC
1⃣ 東芝と英BTが提供している「量子暗号通信の商用メトロネットワーク」に参画するを発表した[*39](23年7月5日)。HSBCは、量子技術の採用に積極的で「最適化、シミュレーション、機械学習におけるアプリケーションを模索」している。また通信に関しても、量子暗号(QKD)のみならず耐量子暗号の試験も行っている。
2⃣ HSBCは、為替取引(FX)をQKDで保護した、と発表した(23年12月6日)[*67]。HSBC AIマーケッツの取引端末に、量子鍵配布(QKD)を利用した量子防御機能を搭載。ユーロから米ドルへの、€30milのFXシナリオを保護した。
(2) 件の量子暗号通信商用メトロネットワークは、22年4月からトライアルサービスが提供開始されている[*40]。最初の顧客は会計事務所(ビッグ4の一角)アーンスト&ヤング。

【3】中国
 南京大学他の研究者は、量子デジタル署名(QDS)に基づく量子電子商取引スキームを提案した論文[*70]を発表した(24年1月12日)。商取引の場合、否認防止が必要であり、要素技術として、暗号技術だけでは不十分である。ユニバーサル・ハッシュと、測定デバイス非依存(MDI)QKDを基に、プロトコルを構成した。MDIなので、測定デバイスの不完全さを付いた「サイドチャネル攻撃」に耐性を持たせたところが、肝。最大25dBの減衰、署名生成速度0.82 回/秒にて、0.428メガビットのサイズの取引に、署名することに成功した。

Appendix 1 Quantinuumの量子モンテカルロ積分エンジン
【0】はじめに
 イオントラップ方式量子コンピュータを開発している米Quantinuum(の子会社である英ケンブリッジ・クォンタム・コンピューティング)は、完全統合型「量子モンテカルロ積分(QMCI)エンジン」を開発したと発表した(23年9月12日)[*A-1]。この発表に先だって、同エンジンについて書かれたトリセツ的な論文(以下、本論文)[*57]が公開されている(arXivにて、23年8月11日)。本論文は、QMCIの適用対象として、金融分野を当面の主対象としている。
 完全統合型という意味は、パッケージとして完成度が高いという意味である。例えば、「必要な機能を達成する効率的な量子回路」や「確率分布回路と連携して、和、積、最大値/最小値などの確率分布の基本演算に関連する回路」を自動的に構築する『改良Pビルダー』というモジュールや、リソース推定モジュールが用意されている。PビルダーのPは確率(probability)のpを示唆している。

【1】本論文の主張
 QMCIの実施にあたっては、いくつかの障害が存在する。例えば、モンテカルロ積分の量子化は、2次の量子加速をもたらすことが知られているが、実際の適用においては、2次加速を阻害する障害がある。本論文では、そのような障害を回避する方法を考案・開示している。
 尤も、本論文の注目すべき点は、「QMCIの2次加速は、(古典的なモンテカルロ積分に代わって)QMCIを採用させる理由になるとは限らない(おそらくならない)」と主張している点である。(少なくとも金融分野においては)高速性ではなく精度が鍵であり、十分に小さな誤差が要求されるアプリケーションでは、QMCIが古典モンテカルロ積分(MCI)を確実に置き換えると、主張している。

【2】QMCIを実用的にするための打ち手
(0) 量子振幅推定
 QMCIは、量子振幅推定(QAE)を使う。「(多重)積分の近似値は、複素確率振幅の推定に書き直せる」からである。QAEは、一般的には、量子位相推定(QPE)と量子振幅増幅(QAA)を用いる。QPEは、量子フーリエ変換(QFT)・逆量子フーリエ変換を用いて実行されることが多かった。しかし、QFTはハードウェア効率が悪い(多数の量子ゲート、量子ビットを使用する)ため、QFTを使わないQPE(本論文では、QFTフリーQPEと呼んでいる)を用いることが主流となっている。
 (本論文で説明されている)QMCIエンジンは、3種類のQAEを用意しており、ユーザーは選択可能である。反復QAE(IQAE)、最尤QAE[*A-2](本論文では、MLQAEと表記されている)及びLCU-QAEである。LCU-QAEはQuantinuumのオリジナルであり、Linear Combination of Unitaries QAE(ユニタリ演算子の線形結合を用いたQAE)という意味である。IQAEは、QFTを使わないQPEを使用する。LCU-QAEとMLQAEは、OPE自体を使用しない[*A-3]。

(1) 状態準備
 グローバー・ルドルフ法は、QMCI の状態準備方法としては不十分であることが、本論文著者の一人による論文[*A-4]で示されている:推定器の精度が増加するにつれて、グローバー・ルドルフ法の回路の深さも増加する。これは、全体の収束がMCI と同等であり、2次加速が達成されないことを意味する。
 では、どうするかというと、古典的サンプリング回路を可逆回路として、単純に符号化するだけで十分らしい。

(2) フーリエ・モンテカルロ積分[*A-5]
 本論文のQMCIは、 フーリエ・モンテカルロ積分(以下、F-QMCI)で実行される。F-QMCIのポイントは、浅い量子回路で、2次加速を達成できるということである(つまりハードウェア効率が高い)。被積分関数が滑らか(0次及び1次導関数が連続、2次及び3次導関数が区分連続で有界)であれば、2次加速が保証される。
 F-QMCIは『モンテカルロ積分は、常にフーリエ級数として分解できる』という発見を基に、ケンブリッジ・クォンタム・コンピューティングによって考案された手法である。特許出願もされている。加えて、『量子コンピューターは、すべての問題に対して有用な計算速度向上を提供するわけではない。計算上の利点が得られる場合にのみ、量子コンピューターを使用すべきである。単一タスク内であっても、全体のパフォーマンスに悪影響を与えることなく古典コンピューターに引き渡すことができる計算は、そうすべき』という思想のもとに成立している。
 F-QMCIの利点を、改めて整理すると、以下のようになるだろう:
❶ F-QMCIは、モンテカルロ積分をフーリエ級数として展開し、QAEを用いて各成分を個別に推定することで、QMCIを実行する。つまり、量子操作を用いて量子算術計算を行うという、計算コストの高い量子回路(深度が深い回路)を省ける。F-QMCIによる積分計算は、制御された回転ゲート(のバンク)を確率変数に適用するだけで、量子回路内で、自然に計算される。
❷ 期待値を取得する前に、さまざまな関数を確率変数に適用できるという点で、非常に柔軟である。このため、例えば、一部のデータの共分散や相関関係を推定するときに、2次加速を実現できる。
❸ F-QMCIで用いるQAEは、QPEフリーQAEである。そのため(さらに)、ハードウェア効率が高い。

(3) 確率分布ローディング
 確率分布ローディングは、QMCIを実行する上で、極めて重要である。確率分布ローディング(問題)が解決しなければ、2次加速は保証されないと、多くの文献(例えば、[*26]や[*44])で指摘されている。この問題を真正面から取り上げているのは、流石である。(結論を先取りすると)、QMCIエンジンで、ローディングの対象となっている確率分布は、二項分布、正規分布と対数正規分布(のみ)である。従って、プレーンなデリバティブのプライシング及び、グリークス計算には適用可能である一方、少なくとも信用リスク管理に(QMCIを使うに)は、やや難しいだろう。
 本論文によれば、確率分布をローディングする(量子アルゴリズムで使用可能にする)方法には、 3 つのタイプがある。QMCIエンジンは、2⃣と3⃣を実装しているようである。
 1⃣ 特定の確率分布を準備する古典的な方法。
 2⃣実際の量子力学的現象を使用して、特定の確率分布を準備することを目的とした量子アプローチ。
 3⃣パラメータ付き量子回路(PQCあるいは、アンザッツ)を使って、確率分布を準備する方法。
 本論文では、次のように総括されている:
1⃣ すべての古典的サンプリング・アルゴリズムは、ほぼ同数の量子ゲートを持つ、適切な量子回路に変えることができる。他の方法では、量子回路に容易にマッピングできない複雑なランダムプロセスを準備する場合に、この方法が有効である。
2⃣ 2つのアプローチがある。⓵完全グラフ上の連続量子ウォークを使用して、二項分布を準備するアプローチ、及び、⓶偏微分方程式を解いて、正規分布を準備するアプローチ、である。
⓵ この方法は、古典的アプローチでは、計算コストが高すぎることが判明している、大規模な量子状態を作成する効果的な手段となる可能性がある。しかしこの方法は、ハミルトニアン・シミュレーションに依存しているため、当面のところ、ほとんどの自明な確率分布以外には、適用できない。
⓶ 線形および非線形偏微分方程式を解き、その解を波動関数の振幅で符号化できる、量子アルゴリズムが存在する。(本論文では、)フォッカー・プランク方程式(FP方程式)を解いて、正規分布を準備することを想定している。
 FP方程式(などの線形偏微分方程式)を解く一般的なアプローチは、ハミルトニアン・シミュレーションとHHLアルゴリズムである。どちらも、実行にあたっては一般に深度が深い量子回路が必要であり、多数の補助量子ビットが必要になる(ので、当面実行不可と目されている)。
3⃣ アンザッツを用いて、正規分布と対数正規分布を準備する。ただし、精度と、必要な量子リソース量は相反するため、①ハードウェア効率の良いアンザッツ(HWEアンザッツ)と、②より多くの量子リソースを許したアンザッツ(ブリックウォール・アンザッツ)を使って、ベンチマーク実験を行っている。精度とは、「準備された量子状態からのサンプルが、目的の確率分布からのサンプルとどの程度一致するか?」の意味であり、 カルバック・ライブラー(KL)情報量、イェンセン・シャノン(JS)情報量、全変動距離、不忠実度の4つの指標で判定している。
 結論として「単純な財務計算にはHWEアンザッツで十分」であることがわかった、としている。ただし、「単一の問題に対して特注の学習済み PQC が必要な場合、(学習を含む)全体のコストを考慮すると、量子の利点が打ち消される可能性がある」と注意喚起されている。

(4) Linear Combination of Unitaries QAE(ユニタリ演算子の線形結合を用いたQAE)
1⃣  QPEフリーQAEは、統計的堅牢性が低い? 
 金融分野では、稀な出来事(レアイベント)が、極めて重要になる可能性がある。そのため金融分野では、QAEによって返される推定量(例えば、尖度)の統計的性質を理解することが重要となる。尖度は、推定値が従う確率分布の「裾付き性」の尺度=外れ値を生成する傾向の尺度である。
 QAE の文脈では、すべての振幅に対して、推定値の精度が高い必要がある。これは、QAE がMCIに使用される場合、対象量が特定の(固定)振幅にマッピングされ、その後、推定されるためである。つまり、比較的貧弱な統計的特性を持つ振幅にマッピングしたとしても、推定値の精度は高い必要がある。その一方で、既存のQPEフリーQAEは統計的堅牢性(頑健性、ロバスト性)が低かった。このため、本論文では統計的に堅牢なQPEフリーQAEを提案し、他のQAEと ベンチマーク実験を行った。本論文によれば、QAEに対して、このような取り組みを行ったのは、初めてである。
2⃣ ベンチマーク実験 
 ベンチマーク実験は、IQAE、MLQAE、LCU-QAEを対象に、バイアス、平均自乗誤差、歪度、尖度、超過尖度を指標として、実施した。少し詳しく実験内容を説明すると、まず、[0.02, 0.98] の範囲で等間隔に配置された 49 個の振幅値を持つ状態が準備された。 次に、状態ベクトル・シミュレーターを使用して QAE が実行され、対応する振幅推定値が保存された。 このプロセスは、10,000 回繰り返された。
 ザックリ実験結果を述べると、LCU-QAEでは、漸近的に偏りがなく、正規分布に近い尖度、そして歪度が得られた。特出しして定量的に説明すると、同じ平均と分散を持つ正規分布確率変数よりも大幅に高い(または低い)確率で極端な現象が発生するかどうか?を評価する際に、最も重要な性能指数「超過尖度」について、LCU-QAEは優れていると主張している。本論文では、 0.3(正規分布の尖度(=3)の10%)を超過尖度の許容値としている。IQAEとMLQAEでは、この厳しい許容値を満たすことは決してなく、緩い許容値である2 さえ満たさないことがあった。
3⃣ LCU-QAEは、なぜ優れているのか?
   QAEにおいて堅牢性が低下する原因は、「初期回転角度θ が、正確でなければならない、という条件である」ことを、本論文では明示している。さらに、「θ が特定の値である場合、回転により常に不変部分空間の主軸に近い状態が生じ、特にパフォーマンスが低下する」ようである。このような問題を解決するために、初期開始角度を、0 から π/2 までの範囲のさまざまな値に設定できるようにした。
 具体的に、量子回路で実装するために、ユニタリ演算子の線形結合を使用して、初期状態を構築した。この初期状態を使用したQAEが、LCU-QAEである。

【4】リソース推定
 QCMIエンジンには、ある量子アルゴリズムを実装する量子回路(具体的に言うと、デリバティブ商品のペイオフをモデル化した量子回路)に必要な量子リソースを推定する「リソース・モード」が装備されている。リソース・モードには、NISQ リソース・モードと誤り耐性(フォールト・トレラント)リソース・モードという 2 つのサブモードがある。いずれも、QMCI量子 回路のすべてについて、量子リソースがカウントされる(QMCIエンジンの多くの部分は、古典的に実行できるため、これは多少の過剰カウントになる)。

(1) NISQモード
 リソースモードでゲート数を計数するためには、ゲートセットを固定する必要がある。ネイティブ・ゲートセットはマシンごとに異なるものの、適切な選択はユニバーサル ゲートセット {TK1, CNOT} である。ここで(tket用語だと思われる)TK1は、 すべての単一量子ビットのユニタリー演算を取り込んだ1量子ゲートで、Rx(x軸周りの回転ゲート)とRz(z軸周りの回転ゲート)の積で表されている。CNOTは言うまでもなく、制御されたNOTゲートである。
 計数する対象は、㊀量子ビットの数、㊁総ゲート数と深さ、㊂CNOT の数と深さ、である。

(2)誤り耐性リソース・モード
 選択するゲートセットは{CNOT, H, S, T}であり、「クリフォード+T」を実現する。言うまでもないが、Hはアダマール・ゲート、SはZ軸方向にΠ/2回転させる位相ゲート、TはTゲートである。QMCIエンジンでは、ボトルネックゲートである、Tゲートの数を最小限に抑えた、ゲートセットを構築することができる。
 計数する対象は、㈠量子ビットの数、㈡T の数と深さ、である。

(3) 推定結果
 経路に依存する3つのデリバティブ(バリア・オプション、ルックバック・オプション及びオートコーラブル)を対象に、量子リソースを推定した。ちなみに、バリア・オプションは、ノックアウト・コールオプション。オートコーラブルは、バイナリ・コール オプションとノックアウト・プットオプションで構成されている。ボラティリティは10%で、正規分布には4スライス:N (0, 1/400)と8スライス:N (0, 1/800)を使った。目標RMSE(二乗平均平方根誤差)は、0.01。
 量子ビット数は、目標RMSE(二乗平均平方根誤差)の逆数に応じて、対数的にのみ増加し、タイムステップ数に応じて準線形に増加する。
 8スライスでは、おそらく、誤り訂正された論理量子ビットが必要で、4スライスはNISQでも実行可能かもしれないと推測している。具体的に定量的な議論をすると、1.44×104のCNOT ゲートが含まれる 4スライスのバリア オプションでは、99.99% の2量子ゲート忠実度が必要になることが示唆されている。これは、確かに、達成可能かもしれないと言われている水準であるが、どの量子モダリティでも未達成である。東芝は22年9月に、ダブル・トランズモン・カプラで、2量子ゲートで、忠実度99.99%を達成できる!と発表した[*A-6]。フラクソニウムも達成できると喧伝されている。
  誤り耐性リソース・モードに関しては、Tゲートの数が多くて、現実的にはリソース推定の意味はないと結論している。

【5】QMCIが古典MCIを置き換えるアプリケーション
 本論文では、グリークスの計算とポートフォリオのリスク管理をあげている。金融デリバティブの感応度であるグリークス(の計算)は、デリバティブ単体を対象としたリスク管理という意味合いである。ポートフォリオのリスク管理は、金融機関(≃商業銀行)の資産全体を対象とした市場リスク(VaR)並びに信用リスク(CVaR)管理という意味合いである。
 MCIは、古典コンピュータの大規模並列化やクロック周波数の向上等で高速化する可能性がある。その一方で、QMCIの加速は、高々2次加速であるため、速度の優位性は怪しい。それに対して、サンプル複雑性はQMCIがMCIを上回ることが示されているから、精度で勝負する分野ではQMCIが勝てる、と本論文は主張する。
 ただし、VaRやCVaRのような金融リスク量を推定する量子リソースの必要量は、デリバティブのケースよりも、当然多い。従って、量子誤り訂正なしのNISQでは難しく、誤り耐性型のFTQCが要求されることになる。

【6】まとめ等 
(1) (明示されていないように思うが・・・)本論文で示された確率分布ローディングを実施すれば、2次加速が達成できる、という理解で良いのだろう。
(2) 従来のQMCI対比で言うと、ⅰ2次加速を保証する状態準備、ⅱ2次加速を保証する確率分布ローディング、ⅲハードウェア効率が高い、ⅳ統計的堅牢性・精度が高いQAE、という優位点があるという整理だろうか。金融QMCIは精度が要求されるアプリケーションでMCIを置き換えると予測しているから、ⅳをドライバーとして、QuantinuumのQMCIエンジンが席捲するという見立て。
(3) 精度が要求されるアプリケーションの本命は、信用リスク管理であるが、現状では必要な量子リソースを提供できないため、グリークス計算を当面のターゲットとしている。現状、確率分布ローディングを可能としてる分布は、二項分布・正規分布・対数正規分布であるが、今後、様々な確率分布に拡張されるのだろう。そうしなければ、信用リスク管理の精度は、出せない。
(4) なお、QMCI の潜在的な応用として、高エネルギー物理学における高次元積分が上げられている。

【尾註】
*1 2020年に設立された Q-NEXT(https://q-next.org/)は、米国エネルギー省(DOE)のアルゴンヌ国立研究所が主導しており、3つの国立研究所・10大学・14企業から約100名の専門家が集結している。Q-NEXTの使命は、量子情報の制御と配信のための科学技術を開発し、量子科学・工学における重要な発見と米国の競争力を実現すること、とされている。
*2 A Roadmap for Quantum Interconnects(2022年7月)、 https://publications.anl.gov/anlpubs/2022/12/179439.pdf
*3 UNLEASHING THE BUSINESS POTENTIAL OF QUANTUM COMPUTING、22年9月、https://www.adlittle.com/en/insights/report/unleashing-business-potential-quantum-computing
*4 ハイペリオン・リサーチの前身は、IDCの高性能コンピュータ(HPC)部門。
*5 https://hyperionresearch.com/hpc-market-update-webinar-pre-sc22/ 22年11月付け。⃣量子アルゴリズム別の収入として、❶機械学習(全回答における割合:25%)、❷モデリング・シミュレーション(同19%)、❷最適化(同19%)、❹サイバーセキュリティ(同14%)、という結果が示されている。
*6 米ハーバード大学初の量子ソフトウェア・スタートアップ。創業者は、変分量子固有値ソルバー(VQE)の発明者。伊藤忠商事が出資している。
*7 https://www.zapatacomputing.com/enterprise-quantum-adoption-2022/ 22年12月付け、公表は23年1月11日。
*8 22年11月14日号、p.58。22年9月13日に行われたセミナーの誌上再現における、野村総合研究所IT基盤技術戦略室エキスパート研究員藤吉栄二氏の発言。
*9 前身は、言わずと知れた、トムソン・ロイターのファイナンシャル&リスク部門。2021年1月から英ロンドン証券取引所グループの傘下。
*10 https://www.refinitiv.com/ja/media-center/press-releases/2019/machine-learning-becomes-new-norm-for-financial-community
*11 Marco Pistoia et al.、Quantum Machine Learning for Finance https://arxiv.org/pdf/2109.04298.pdf
*12 Quantum computing:An emerging ecosystem and industry use cases(December 2021) https://www.mckinsey.com/~/media/mckinsey/business%20functions/mckinsey%20digital/our%20insights/quantum%20computing%20use%20cases%20are%20getting%20real%20what%20you%20need%20to%20know/quantum-computing-an-emerging-ecosystem.pdf
*13 B. David Clader et al.、Quantum Resources Required to Block-Encode a Matrix of Classical Data https://arxiv.org/pdf/2206.03505.pdf
*14 https://www.finextra.com/blogposting/23842/reinvent-option-pricing-in-capital-markets-using-quantum-computing
*15 タンパク質設計に深層学習(グラフ畳み込みニューラルネットワーク)と量子機械学習を活用することで、ペプチド創薬をサポートする、カナダのスタートアップ。2018年創立。
*16 アルゴンヌ国立研究所は、量子コンピュータ及び量子アルゴリズムの評価を行っている。前身は、シカゴ大学冶金研究所(原子力を研究している事実を隠すために、冶金研究所と名乗った)であり、現在も、シカゴ大学が運営している。
*17 Dylan A. Herman et al.、A Survey of Quantum Computing for Finance https://arxiv.org/pdf/2201.02773.pdf
*18 https://ionq.com/links/Quantum_Computing_for_Risk_Aggregation_20220622.pdf ただし、23年3月時点でアクセスできない。GEリサーチのサイト(https://www.ge.com/research/newsroom/ionq-and-ge-research-demonstrate-high-potential-quantum-computing-risk-aggregation)からもアクセスできない。→https://arxiv.org/pdf/2109.06315.pdf
*19 Amine Mohamed Aboussalah et al.、Quantum computing reduces systemic risk in fnancial networks https://www.nature.com/articles/s41598-023-30710-z
*20 Matthew Elliott et al.、Financial Networks and Contagion. Am. Econ. Rev. 104, 3115–53 (2014) https://www.aeaweb.org/articles?id=10.1257/aer.104.10.3115
*21 以下資料のp.3を参照した https://www.yu-cho-f.jp/wp-content/uploads/America-1.pdf
*22 https://www.bbva.com/en/bbva-and-multiverse-showcase-how-quantum-computing-could-help-optimize-investment-portfolio-management/ 
*23 Samuel Palmer et al.、Financial Index Tracking via Quantum Computing with Cardinality Constraints、https://arxiv.org/abs/2208.11380
*24 https://pr.fujitsu.com/jp/news/2022/12/22.html
*25 https://iopscience.iop.org/article/10.1088/1367-2630/ac7f26
*26 A.K.Fedorov et al.、Quantum computing at the quantum advantage threshold:a down-to-business review https://arxiv.org/pdf/2203.17181.pdf
[補足] 経済的にインパクトがあるアプリケーションとして、3つがあげられている。暗号は、「暗号解読」というタイトルで、特殊なアプリケーション(3つのうちのひとつ)として、取り上げられている。
*27 上記*26の引用論文[406]Quantum algorithms and the finite element method https://journals.aps.org/pra/abstract/10.1103/PhysRevA.93.032324
*28 Bin Cheng et al.、Noisy intermediate-scale quantum computers https://link.springer.com/article/10.1007/s11467-022-1249-z
*29 以下の論文(23年3月29日公開)で、「量子回路ボルンマシン(QCBM)は、他の最先端の古典的な生成モデルよりも、データが限られた領域でより効率的であることが示唆された」と表明している。Mohamed Hibat-Allah et al.、A Framework for Demonstrating Practical Quantum Advantage: Racing Quantum against Classical Generative Models https://zapata.wpenginepowered.com/wp-content/uploads/2023/03/2303.15626.pdf
*30 https://medium.com/rigetti/recession-prediction-via-signature-kernels-enhanced-with-quantum-features-a608995d48f7
*31 Patrick Kidger and Terry Lyons、SIGNATORY: DIFFERENTIABLE COMPUTATIONS OF THE SIGNATURE AND LOGSIGNATURE TRANSFORMS, ON BOTH CPU AND GPU、https://openreview.net/pdf?id=lqU2cs3Zca
 ラフパス理論の創始者T.Lyons(英オックスフォード大)他が書いたこの論文によれば、Signatoryは「初の GPU 対応ライブラリで、並列処理のないCPUでも実質的なスピードアップが実現されて」おり、「C++のPythonラッパーとして動作し、PyTorchエコシステムと互換性がある」。
*32 Quantum Advantage: Hope and Hype、https://cloudblogs.microsoft.com/quantum/2023/05/01/quantum-advantage-hope-and-hype/
*33 オックスフォード大の研究者(Samuel N. Cohen)他による論文(以下、該論文)Nowcasting with signature methods(22年7月)(https://iariw.org/wp-content/uploads/2022/07/Nowcasting-IARIW-2022.pdf)では、米GDP成長率のナウキャスティングを取り上げている。ナウキャスティングとは(経済の)今の状態の「予測」を指す。重要指標が(1ヶ月以上も)大幅に遅れて公開されることが多いため、必要と主張している。該論文では2016年第4四半期のGDP成長率(年換算値)を、動的因子モデル(DFM)とシグネチャ法で予測し、比較している(つまり、極めて限定的な比較)。用いた説明変数(経済指標)は32個で、16年4Q予測に必要とされるデータは、16年10月~17年1月にかけて五月雨式に更新される。更新されたデータをもとに予測値も更新していく。シグネチャ法は説明変数の更新に対して予測値が大きく変動するが、最終的な結果は、DFMより優れている(と解釈できるアウトプットが示されているものの、そう結論付けるほどの成果の厚みはない)。もっとも該論文では、シグネチャ法のメリットとして「混合頻度データの取り扱いが大幅に簡素化されること」、「非線形性を(状態空間モデルに)簡単に組み込めること」を上げており、必ずしも「精度の高さ」を訴求点とはしていない(と思われる)。
*34 Moody's Analytics、Quantum Computing in Financial Services:A Business Leader's Guide
*35 インタビューを集計した結果は、以下の通り:リスク分析(67%)、ストレステスト(59%)、サイバーセキュリティ(54%)、 合成データ(49%)、詐欺やマネーロンダリングの検出(34%)。合成データは、少し間口を広げて、≒生成モデルと考えて良いかもしれない。ユースケースとは別に、関心を集めた"問題カテゴリ"は、機械学習と最適化であった。なお[*34]では、最適化に関して、「(最適化問題は、)本質的にヒューリスティック(な手法を適用するアプリケーション)でもある。つまり、最適化の問題で(量子アルゴリズムの)利点がどのようなものかを把握するのは、少し難しい」というIBMの研究スタッフによるコメントを見つけることができる。
*36 キャップ・ジェミニのCTIO兼量子研究所所長Julian van Velzen氏の発言。「おそらく、あらゆる種類の二次加速を実行するには、誤り耐性のある大規模な量子コンピューター(FTQC)が必要」であるから、(FTQCであれば実行可能な)指数関数的加速アルゴリズムに対する競争力がない、という意見と思われる。もちろん、金融分野において、NISQで可能な2次加速アルゴリズムも存在する。
*37 Shouvanik Chakrabarti et al.、A Threshold for Quantum Advantage in Derivative Pricing、https://quantum-journal.org/papers/q-2021-06-01-463/pdf/
*38 https://jpn.nec.com/press/202201/20220114_01.html
*39 https://www.hsbc.com/news-and-media/media-releases/2023/hsbc-becomes-first-bank-to-join-the-uks-pioneering-commercial-quantum-secure-metro-network
*40 https://www.global.toshiba/jp/news/corporate/2022/04/news-20220427-01.html
*41 https://terraquantum.swiss/news/terra-quantum-and-cirdan-capital
*42 https://www.nomuraconnects.com/focused-thinking-posts/what-will-be-the-role-of-quantum-computing-in-the-future-of-finance/
 5大インパクトは、「高頻度取引、不正行為検出、複雑な量子アルゴリズムの開発、ポートフォリオ最適化、セキュリティ及びリスク・アセスメント」である。
*43 Dylan Herman et al.、Quantum computing for finance、https://www.nature.com/articles/s42254-023-00603-1
 Nature Reviews Physicsの論文(23年7月11日)はオープンアクセスではないが、同じ論文がarXivに投稿されている(23年7月20日、https://arxiv.org/pdf/2307.11230.pdf)。
*44 Andrés Gómez et al.、A Survey on Quantum Computational Finance for Derivatives Pricing and VaR、https://link.springer.com/content/pdf/10.1007/s11831-022-09732-9.pdf?pdf=button
*45 Maria Nogueiras et al.、D5.1: Review of state-of-the-art for Pricing and Computation of VaR、https://www.neasqc.eu/wp-content/uploads/2021/06/NEASQC_D5.1_Review-of-state-of-the-art-for-Pricing-and-Computation-of-VaR_R2.0_Final.pdf
*46 Sascha Wilkens & Joe Moorhouse、Quantum computing for financial risk measurement、https://link.springer.com/article/10.1007/s11128-022-03777-2
*47 中性原子方式の量子コンピュータを開発している米国のスタートアップ。
*48 https://quantumcomputingreport.com/insights-from-the-quantum-computing-report-reader-survey-2023/
 レポートには、⓵機械学習(18.9%)、⓶最適化(18.4%)、⓷量子シミュレーション(24.3%)という結果が示されている。この順位及び括弧内の数字(%)は、以下の質問に対する答えを集計した結果である:現在取り組んでいる量子コンピューティング プロジェクト、今後数か月以内に取り組む予定の量子コンピューティング プロジェクト、またはここ数か月で取り組んだ量子コンピューティング プロジェクトの種類は何ですか? 実施時期は、2023年初期。また、⓷は正確には「量子シミュレーションが13.9%で、化学or材料設計が10.4%」。ちなみに、ファイナンスは7.5%。
*49 https://www.we-heart.com/2023/07/31/unlocking-potential-immediate-edge-banking-customer-experiences/
*50 Quantum Technology Monitor(April 2023)、https://www.mckinsey.com/~/media/mckinsey/business%20functions/mckinsey%20digital/our%20insights/quantum%20technology%20sees%20record%20investments%20progress%20on%20talent%20gap/quantum-technology-monitor-april-2023.pdf ただしマッキンゼーはNISQを前提に、この3つを挙げているのであって、FTQCを含めると暗号も含まれる。
*51 「分子を(古典コンピュータより)精度よくシミュレートすることが期待できる」としている。
*52 「古典アルゴリズムは、量子アルゴリズムがより速く計算できるように、大きな問題を消化しやすい小さな問題に分割するのに有利である」と、ハイブリッドで(のみ)高速化が実現できるという書き方をしている。
*53 Jonathan Wurtz et al.、Industry applications of neutral-atom quantum computing solving independent set problems、https://arxiv.org/pdf/2205.08500.pdf
*54 https://www.quantinuum.com/news/hsbc-and-quantinuum-explore-real-world-use-cases-of-quantum-computing-in-financial-services
*55 https://terraquantum.swiss/news/hsbc-and-terra-quantum-explore-real-world-applications-of-hybrid-quantum-technologies-in-financial-services
*56 HHLアルゴリズムはNISQでは実行できないとされているが、NISQで実装する研究も進められているようである。例えば、参考資料5のp.51。
*57 ISMAIL YUNUS AKHALWAYA et al.、A MODULAR ENGINE FOR QUANTUM MONTE CARLO INTEGRATION、https://arxiv.org/pdf/2308.06081.pdf
*58 https://www.finra.org/sites/default/files/2023-10/2023-quantum-computing-and-the-implications-for-the-securities-industry.pdf
 なお規制という面から、「量子コンピューティングに関連するサービスを提供するサードパーティと協力する場合、企業は、アウトソーシングに関する関連する FINRA ガイダンスに留意する必要があります」といった指摘がある。
*59 Daiwei Zhu et al.、Copula-based risk aggregation with trapped ion quantum computers、https://www.nature.com/articles/s41598-023-44151-1
*60 Quantum Computing Is Becoming Business Ready(MAY 04, 2023)、https://mkt-bcg-com-public-pdfs.s3.amazonaws.com/prod/enterprise-grade-quantum-computing-almost-ready.pdf
 このレポートには、「金融機関は『最適化、機械学習、プライシングとシミュレーション』に10を上回るユースケースを特定している」と記されている。
*61 https://investors.rigetti.com/node/8891/pdf
*62 Alexander M. Dalzell et al.、Quantum algorithms:A survey of applications and end-to-end complexities、https://arxiv.org/pdf/2310.03011.pdf
*63 カバーしている分野は以下の通り:凝縮系物理、量子化学、原子核物理、離散/連続最適化、暗号解析、微分方程式の解法、金融、機械学習、量子線形代数、ハミルトニアン・シミュレーション、量子フーリエ変換、量子位相推定、量子振幅増幅・推定、ギブス・サンプリング、量子断熱アルゴリズム、古典データのローディング(問題)、量子線形系ソルバー、量子勾配推定、変分量子アルゴリズム、量子トモグラフィ-、量子内点法、乗算重み更新法、近似的なテンソルネットワーク縮約法の量子版、誤り耐性量子計算(表面符号による量子誤り訂正)。
*64 Alexander M. Dalzell et al.、End-to-end resource analysis for quantum interior point methods and portfolio optimization、https://arxiv.org/pdf/2211.12489.pdf
*65 Quantum Advantage: Hope and Hype、https://cloudblogs.microsoft.com/quantum/2023/05/01/quantum-advantage-hope-and-hype/ あるいは、arXivへの投稿論文https://arxiv.org/pdf/2307.00523.pdf
*66 Adam Bouland et al.、A quantum spectral method for simulating stochastic processes,with applications to Monte Carlo、https://arxiv.org/pdf/2303.06719.pdf
 非整数ブラウン運動†1のT個のタイムステップを、ゲート複雑度polylog(T)の量子回路を使ってシミュレートできることが示されている。非整数ブラウン運動が関わるデリバティブの例として、バリアンス・スワップが取り上げられている。バリアンス・スワップは、原資産の価格変動の分散[→ボラティリティ]を、予め定めた固定値と交換するスワップ取引である。高頻度の金融データからボラティリティを推定すると、対数ボラティリティは、非整数ブラウン運動のように振る舞うらしい。
 ボラティリティを駆動する確率過程をブラウン運動から、非整数ブラウン運動に切り替えた「ラフ・ボラティリティモデル」は、実際の株価変動をよりよく表すことが知られている†2
†1 一部?では、非整数階ブラウン運動とも呼ばれている。出典は、https://www.jstage.jst.go.jp/article/jsaisigtwo/2022/FIN-029/2022_67/_pdf/-char/ja
†2 出典は、https://www.ms.u-tokyo.ac.jp/wings-fmsp/qe/2001ueda.pdf
*67 https://www.hsbc.com/news-and-views/news/media-releases/2023/hsbc-pioneers-quantum-protection-for-ai-powered-fx-trading
*68 https://medium.com/rigetti/quantum-enhanced-machine-learning-with-moodys-analytics-543d37df0549
*69 https://www.globenewswire.com/news-release/2024/01/11/2807928/0/en/Rigetti-Computing-Awarded-Innovate-UK-Grant-to-Develop-Quantum-Machine-Learning-Techniques-for-Financial-Data-Streams.html
*70 XIAO-YU CAO et al.、Experimental quantum e-commerce、https://www.science.org/doi/10.1126/sciadv.adk3258
*71 Travis L. Scholten et al.、Assessing the Benefits and Risks of Quantum Computers、https://arxiv.org/pdf/2401.16317.pdf
*72 Daniel J. Egger et al.、Credit Risk Analysis using Quantum Computers、https://arxiv.org/pdf/1907.03044.pdf
*73 https://aws.amazon.com/jp/blogs/quantum-computing/citi-and-classiq-advance-quantum-solutions-for-portfolio-optimization/
*74 Ruslan Shaydulin et al.、Evidence of scaling advantage for the quantum approximate optimization algorithm on a classically intractable problem、https://www.science.org/doi/epdf/10.1126/sciadv.adm6761

*A-1 https://quantinuum.co.jp/n20230914/
*A-2 最尤QAEについては、次の論文(学位論文)が一番分かり易いと思われる:田中智樹、ノイズがある量子振幅推定法の解析と実験、https://koara.lib.keio.ac.jp/xoonips/modules/xoonips/download.php/KO50002002-20215739-0003.pdf?file_id=163263
*A-3 ちなみに、MLQAEは、制御された(いわゆるcontrolled)振幅増幅演算子も使わない。単なる振幅増幅演算子を使う。故に、ハードウェア効率が高い(用いる量子リソースが少ない)。
*A-4 Steven Herbert、No quantum speedup with Grover-Rudolph state preparation for quantum Monte Carlo integration、https://journals.aps.org/pre/abstract/10.1103/PhysRevE.103.063302
*A-5 フーリエ・モンテカルロ積分については、以下のオリジナル論文を参照:Steven Herbert、Quantum Monte Carlo Integration: The Full Advantage in Minimal Circuit Depth、https://arxiv.org/pdf/2105.09100.pdf
*A-6 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/22/2209-01.html

【参考資料】
1 一般社団法人金融データ活用推進協会、金融AI成功パターン、日経BP、2023
2 篠崎裕司(日本銀行金融研究所経済ファイナンス研究課)、深層学習によるファイナンスの新展開 ディープ・ヘッジングの紹介、2022年11月11日(https://www.imes.boj.or.jp/jp/conference/finance/2022_slides/1111finws_slide3.pdf)
3 稲浜譲、ラフパス理論と確率解析、数学 67巻3号(2015年7月)、pp.291-313、https://www.jstage.jst.go.jp/article/sugaku/67/3/67_0673291/_pdf/-char/ja
4 杉浦望実、シグネチャ法入門、統計数理 第70巻第2号(2022)、pp.251–267、https://www.ism.ac.jp/editsec/toukei/pdf/70-2-251.pdf 
 為念:シグネチャ法の法とは、法律の法ではなく、方法の法。
5 石垣克明、|日本銀行金融研究所ディスカッション・ペーパー| 量子計算の概要:ファイナンスへの応用を例に、2023年8月、https://www.imes.boj.or.jp/research/papers/japanese/23-J-10.pdf


お問い合わせ
  

TOP