そこ曲がったら、量子坂?(上り) part3
量子コンピューターへの期待は、古典コンピューターによるシミュレーションが困難な問題に対して、代替え策を提供してくれることである。これを是とすれば、流体解析は、有望なアプリケーションと思える❚補足1❚。しかし残念なことに、流体解析における(主要な)支配方程式であるナヴィエ・ストークス方程式(NSE:Navier-Stokes Equation)が持つ非線形性並びに非ハミルトン性(non-Hamiltonian nature)🐾1により、量子コンピューターで流体解析を実行することは、本質的に困難である。
非ハミルトン性(あるいは非ユニタリー性ともいう。別の表現を使うと、散逸性)への対処は、ここでは割愛する❚補足2❚。非線形性への対処は、支配方程式を線形近似することで実行されるが、思い切って、支配方程式をNSEにしないという選択肢もある。NSEではなく別の方程式を選ぶ後ろ向き(?)の理由は、「線形近似の後でも、量子アルゴリズムが効率的であるかどうかは、非線形性の程度に依存する」からである。つまり、非線形性は弱いことが望ましい。そこで、非線形性がNSEよりも弱い方程式を選ぶ動機が生まれる。前向き(?)な理由は、NSEではない方程式で流体現象を記述することが、適するケースが存在する🐾2という理由である。そのような、NSEを置き換える方程式として、ボルツマン方程式がある。
線形近似は、代償として変数を増やす。古典コンピューターであれば、変数の増加がシミュレーション困難性の増加に直接つながり、意味を成さない。一方、誤り耐性量子コンピューターを前提とすれば、線形システムの求解に対して指数関数的な高速化が可能となるので、変数増加が(多項式程度なら)困らない。つまり、線形化を是とすれば、流体解析に(誤り耐性)量子コンピューターは適するという不思議な状況が発生する(正確には、散逸性にも対処が必要❚補足2❚)。言わずもがなであるが、指数関数的な高速化は、無条件には達成されない(☞【3】(1)1⃣参照)。
故に、遠回りしたが、古典コンピューターによるシミュレーションが困難である一方、量子コンピューターには適するユースケースとして、流体解析が注目を浴びている。企業で言えば、英ロールス・ロイスが取り組みに熱心である。量子ソフトウェア・スタートアップであれば、Quanscient(フィンランド)❚補足3❚、BosonQ Psi(インド)、Classiq🐾3(イスラエル)及びColibriTD(仏)が上げられる。
米パシフィック・ノースウェスト国立研究所(PNNL)🐾4他🐾5の研究者は、「流体解析において、指数加速が実現できる」と主張する論文[*159→*170]†(以下、本論文)を発表した(25年1月10日@Physical Review Research)。簡単に述べると、本論文でPNNL他は、カールマン🐾6線形化格子ボルツマン方程式に対して、いくつかの条件下で、指数加速が実現されることを確認した。
† 採番ミスにより修正。
🐾1 ハミルトン性は、対象の物理系が非散逸系であることを指している。粘性流体の力学は、流体摩擦により、流体の運動エネルギーが熱エネルギーに変換され散逸する、散逸系である。
🐾2 NSEに有効範囲があるという考え方の方が良い。例えば、粘性に、異方性や速度・温度依存性があるとNSEは使えない。ちなみに、ナヴィエ・ストークスは、仏の技術者クロード・ルイ・マリー・アンリ・ナヴィエと、英の数学者・物理学者ガブリエル・ストークス卿の名前から、このように名付けられた。
🐾3 もっとも、Classiqは量子アルゴリズム自体を開発しているのではなく、量子アルゴリズムを量子回路に効率的に物理実装するアルゴリズムを開発している。
🐾4 米エネルギー省傘下のPNNLは、再生可能エネルギー、地球環境、計算科学等、多岐にわたる研究開発を行っている。
🐾5 米コロラド鉱山大学、中国・東華理工大学(地質学と原子力分野に強みをもつとされる)、加トロント大学、カナダ先端研究機構、米ニューヨーク市立大学シティカレッジ、米ワシントン大学
🐾6 文言の意味等は【2】(4)を参照。なお、Carlemanのカタカナ表記「カールマン」は、[*160]による。
❚補足1❚
ちなみに、(リチャード・フィリップ・)ファインマンは、乱流を古典物理学の中心的な未解決問題と位置付けた。ピーター・ショアも、デジタル・コンピュータが、シミュレーションに苦労している物理システムについて言及する際に、乱流を挙げた。
なお、変数の数だけで言えば、200論理量子ビットでRe=108の乱流を扱うことができる(本論文では60量子ビットとなっているが、対数の底は10ではなく、2のはず)。
❚補足2❚
非線形性及び非ハミルトン性(散逸性)への対処として、流体力学シュレーディンガー方程式(HSE)基づくアプローチがある[*161]。HSEは、有限の渦度及び散逸を持つ流れに、マーデルング変換を適用することによって導出される。これは、非圧縮性流れのみならず、圧縮性流れに対しても可能。本論文における散逸性への対処は、別のアプローチをとっている。❚補足5❚の❷を参照。
❚補足3❚
Quanscient は 富士通が実施した「富士通10万ドル量子シミュレータ・チャレンジ」において『流体力学の量子アルゴリズム』で最優秀賞を獲得している[*162]。また、NQCC(英国立量子コンピューティング・センター)、STFC(英国・科学技術施設会議)とUKRI(英国・研究技術革新機構)が2024年7月に共同で立ち上げたSparQ Proof of Concept Callにおける「数値流体力学シミュレーションの量子アルゴリズムにおける中間回路測定の役割を理解し、空気力学における量子優位性を実証する」プロジェクトにも参加している。同プロジェクトには、エアバスが参加している。
【1】本論文の主張
本論文は、誤り耐性量子コンピューターの使用を前提として、流体解析にHarrow-Hassidim-Lloyd(HHL)アルゴリズムを適用することで、いくつかの条件等の下で、指数加速が可能と主張する。条件等とは、以下の通り:
(1) 対象とした方程式はNSEではなく、カールマン線形化格子ボルツマン方程式(CLBE:Carleman Lattice Boltzmann Equation)である🛡1。
※シミュレーションの結果、CLBEの相対誤差は、マシン誤差に近い水準であった。
(2) 流体解析は乱流解析であり、乱流として減衰乱流を仮定している。さらに、流体は均質であることが仮定されている❚補足4❚。有効範囲は、マッハ数 ≪1及びクヌーセン数 ≪1である(☞【2】(1)、【3】(3)を参照)。
(3) 指数加速は、エンドツーエンドで達成されるわけではない。(1)のセットアップで、疎性要件が満たされることのみを確認した。状態準備及び読み出しにかかるコスト要件(☞【3】(1)1⃣⓶を参照)は、考慮の範囲外である。つまり、未解決の問題として残っている。
(4) 初期値に敏感な問題(例えば、気象予測)は、適用範囲外である。つまり、指数加速は実現できない🛡2。
(5) ボルツマン輸送方程式によって記述される多くの非線形マルチスケール輸送現象🐾7は、考慮の範囲外である。量子優位性が存在するかは、未解決の問題として残っている。
🐾7 具体的にあげると、プラズマが対象となるだろう。ハードウェアとしては、核融合炉が対象となる。従って、このケースで量子優位性が認められれば、商業的インパクトは大きいだろう。
🛡1 非線形性が強いと、カールマン線形化した近似式の数値計算は、発散してしまうらしい。これは、カールマン線形化における打ち切り次数を無限大にしたとても、同じ(く発散する)らしい。カールマン線形化においては、そもそも、打ち切り次数を増やしたとしても、精度はそれほど向上しないことが知られている(3次とか5次で十分)。
🛡2 そもそも(計算加速とかいう問題ではなく)、カオス応答を示す系に対しては、カールマン線形化は、全く機能しないらしい。
❚補足4❚
元々の論文(本論文の引用論文[55]で引用されている論文M20a)では、∇𝐮=0となる条件として、空間平均の概念が登場している。∇𝐮=0となるように、空間には、均質なボックスが連続して存在する(周期的に存在している)という状況を仮定している。この仮定が、(1)のセットアップである大気中の希薄気体の弱圧縮性流れ、に無理なく当てはまるか?であるが、気象予測のような大スケールでなければ当てはまりそうである。そもそも(4)から、気象予測は対象外なので、結論として、「無理なく当てはまる」と良いと思われる。
【2】事前整理
(1) 無次元パラメータの定義
1⃣ マッハ数Ma
マッハ数(Mach number)Maの定義は、流速(媒質が移動する速度)と、音速(媒質における縦波=疎密波の伝播速度)の比である。物理的な意味は、流れの慣性力と弾性力の比である(数値としては、比の平方根)。本論文では、”大気”が前提とされているので、具体的に述べれば、媒質=大気(空気)である。なお、媒質中を移動する物体の速度(例えば、航空機の速度)に対して、マッハ数を計算することも行われる。
2⃣ クヌーセン数Kn
クヌーセン数(Knudsen number、クヌッセン数とも言う)Knの一般的な定義は、分子の平均自由行程と、流体解析における代表長さの比である。本論文における定義は、衝突時間と「流れの代表時間」の比である。 流れの代表時間=流れの代表長さ/流れの代表速度である。
(2) ボルツマン方程式
ボルツマン方程式は、非平衡希薄気体の運動方程式である。1872年、ルートヴィッヒ・ボルツマン
により導入された。ボルツマンの目的は、熱力学をニュートン力学により基礎付けることにあった、とされている。ボルツマン方程式では、個々の粒子の振る舞いではなく、粒子の統計量に着目する。具体的には、粒子の速度分布関数f(t,x,v)に着目する。ボルツマン方程式は、速度分布関数fの時間発展方程式であり、本質的には、
fの時間微分(偏微分)=輸送項+衝突項
と表される(ただし、外力項を無視した)。tは時刻、xは位置ベクトル,vは速度ベクトルである。このとき、輸送項は、-v∇xf(t,x,v)と表される。
ボルツマン方程式における時間大域的解の存在は、スウェーデンの数学者トルステン・カールマンによって最初に証明された(1932年)。ただし、f がxに依存しない場合の、剛球気体についての結果であった[*163]。
(3) 格子ボルツマン方程式
1⃣ 概略
数理的に厳密な解析が難しい場合あるいは実用的な解析コストで解析困難な場合であっても、適当なサンプリング手法を利用する╏参考╏ことで、厳密さとコストのバランスをとることが可能となる場合がある。
ボルツマン方程式は、解析が難しい。輸送項の難しさは、(やや弱い)非線形性であり、衝突項の難しさは、衝突項が複雑な積分で表現されることになる。ボルツマン方程式に対して、サンプリング手法を適用することを考えたとき、衝突項に対するサンプリング手法は、モンテカルロ法になる。輸送項に対するサンプリング手法が、格子ボルツマン法と考えて良いだろう。格子ボルツマン法では、連続関数である速度分布関数f(t,x,v)における速度vを離散化する。これはランダム・サンプリングではなく、固定サンプリングと言えるだろう。
速度vを、有限個の離散速度で置き換えたボルツマン方程式が、格子ボルツマン方程式(LBE:Lattice Boltzmann Equation)である。速度vを有限個の離散速度で置き換えたことは、速度空間に1次元格子を形成したと捉えることもできるので、 格子ボルツマン方程式と呼ばれる。速度空間が格子で離散化されたので、速度分布関数f(t,x,v)は、1次元格子の格子点を表象するインデックス(添え字)mを付けることで離散化される。mは本論文で使用されているので、そのまま使ったが、一般的にはiが使われることが多いだろう。
f(t,x,v)→f(t,x,vm)→fm(t,x)
離散分子速度の数𝑄は、(Ma≪1 の場合、)1次元,2次元,3次元の流れに対して、それぞれ 𝑄∈{3,9,27}が広く使用されている(が、それに限定されない)。これを、D1Q3などと表記する。
╏参 考╏
行列積表現を近似的に構築するテンソル・クロス補間や、拡散生成モデルにおけるデノイジング・スコア・マッチングは、サンプリング手法である。
2⃣ 衝突項
衝突項は、BGK(Bhatnagar-Gross-Krook)形式に従うことが多い。BGK形式では、
衝突項=-(fm(t,x)ーfmeq(t,x))/τ
と表される。fmeqは、局所マックスウェル平衡分布関数である。τは緩和時間である。fmeqは、LBEからNSEが回復できるように選ばれる。具体的には、
fmeq=定数×[𝑎+𝑏𝒆𝑚・𝐮+𝑐(𝒆𝑚・𝐮)2+𝑑|𝐮|2]
と表現される。ここで、𝑎=1、𝑏=3、𝑐=9/2、𝑑=−3/2である。𝒆𝑚は、単位離散速度である。
3⃣ NSEからLBE:小括
非線形性の性質は、NSEとLBEとで根本的に異なる。NSE の非線形性は項 𝒖·𝛁𝒖 に由来し、この非線形性は Re によって特徴付けられる。LBEの非線形性は |𝒖|2に由来し、この非線形性は Ma2によって特徴付けられる。この違いは、「高Re、低Ma」の流れ解析には有利に働く。ただし、NSEからLBEへの置き換えには、多数の離散格子速度を使用するという犠牲が伴う。LBM を使用して 3次元NSE をシミュレートする場合で、かつ離散分子速度の数として27を選択した場合(つまり、D3Q27)、自由度の数を 27 倍に増やす必要がある。
(4) カールマン線形化[*164]とカールマン線形化格子ボルツマン方程式
カールマン線形化の基本的な考え方は、「有限次元の非線形問題を、無限次元の線形問題に埋め込むこと」である。カールマン線形化のカールマンとは、ボルツマン方程式における時間大域的解の存在を初めて証明したは、トルステン・カールマンのことである。
無限次元の問題を数値的に解くことは出来ないので、有限次数での切り捨てが求められる。こんな大胆な手法で上手く行くのか?と思うが、”もし、上手く行けば”、正確な近似値が得られる、ということらしい。かなり、クセ強の手法である。
NSEに対しては案の定(?)、中程度のレイノルズ数であっても、上手く行かないことが示されている。例えば、4 未満の切り捨ての場合、わずか数ステップでも、10%をはるかに超える誤差が発生することが分かっている(らしい)。ところが不思議なことに、NSEの代わりにLBEを使うと、劇的に上手く行く。この上手く行く性質は、CLBEにも承継される。もちろん、上手く行くとは誤差が小さいという意味であり、定量的には【4】で示される。
CLBEについては【3】(2)を参照。
【3】本論文の論理構成
(1) 概略
0⃣ 俯瞰及びサマリー
流体解析(乱流解析)において、量子優位性が実現できることを示すには、以下の3ステップを踏む必要がある。第1ステップ:流体解析用量子アルゴリズムを提示する。第2ステップ:その量子アルゴリズムの計算複雑性が、対数スケーリングすることを示す。第3ステップ:実際の量子ハードウェア上で効率的に実行する。本論文の射程は、第1ステップと第2ステップである。第1ステップでは、流体解析用量子アルゴリズムの精度(誤差)が、許容範囲に収まっていることを示して、初めて”提示された”ことになる(☞(2)及び【4】参照)。
1⃣ 流体解析用の量子アルゴリズムを提示
第1ステップは、「カールマン線形化格子ボルツマン方程式に対して、Harrow-Hassidim-Lloyd(HHL)アルゴリズムを適用する」ことが該当する。カールマン線形化格子ボルツマン方程式は、NSE方程式の代わりにボルツマン方程式を選択し、ボルツマン方程式を離散化した格子ボルツマン方程式の衝突項を線形化したものであった。このプロセスは、NSEと量子コンピューティングの相性の悪さ「非線形性と非ハミルトン性(散逸性)」❚補足5❚を回避するプロセスである。
非線形性は、流体の支配方程式を線形化することによって回避している。ただし、支配方程式はNSEではなく、LBEである。カールマン線形化における打切り次数は、3である。精度(誤差)については【4】を参照。散逸性は、(明記されていないが)乱流を減衰乱流とすることで、回避している(と理解している)。減衰乱流では、運動エネルギー散逸率は、時間とともに減少する。❚補足5❚の❷を参照。
HHLアルゴリズムが指数加速を達成するには、以下2つの条件⓵と⓶とが満たされている必要がある🐾8:
⓵ 疎(スパース)性
HHLアルゴリズムは、”疎な”連立一次方程式を高速に解くアルゴリズムである。本論文で、流体解析(乱流解析)にHHLアルゴリズムを適用可能にするために、NSEではなくLBEを選択した理由は、NSEに比べて非線形が弱いからであった。この場合の非線形性は、いわゆる移流項における非線形性である。LBEにおける衝突項に対して、カールマン線形化を行い、衝突項の非線形性を排除している。
HHLアルゴリズムが適用できる連立一次方程式は、疎である必要がある。「疎」とは、連立一次方程式を行列×ベクトルで表現した場合の行列における、非ゼロ成分の数がO(poly(logN))である、という性質である。ここでNは、変数の数(従って、行列のサイズはN×N)。本論文では、非ゼロ成分の数が、O(1)であることを確認している。
⓶ 状態準備と読み出しにかかるコストが、指数関数的ではない
状態準備と読み出しにかかるコストが共に、O(N)とはならない必要がある。しかし【1】(2)で述べたように、本論文は、当該コストを考慮していない。ただし、これは特別なことではない(本論文が怠慢なわけではない)。
状態準備にかかるコストは一般的に、指数関数的とされるが、特殊な場合は線形とされる(☛こちらを参照)。読み出しコストにも一般的に、指数関数的とされる❚補足6❚。本論文では、「エンドツーエンドの量子優位性を保証する、効率的な測定方法の開発は、今後の研究で検討されるでしょう」と楽観的に述べられている。
🐾8 言わずもがなであるが、状態準備と読み出しにかかるコストが指数関数的であった場合に、量子優位性は実現しない、という結論は、HHLアルゴリズムに限定されない。全ての量子アルゴリズムに当てはまる。
❚補足5❚
❶ 非線形性[*165]
非線形性は、位相のズレを意味するので、直交性が失われる。なぜなら、ヒルベルト空間の回転が、初期状態ベクトルに依存するためである。つまり、同じハミルトニアンの作用を受ける 2 つの異なる状態ベクトルは、異なる角度で回転する。直交性の喪失は、情報の喪失を意味し、2 つの重なり合う状態を区別する時間は 1/Oに比例する。ここで、O は直交性(重なり)の度合いであり、平行の場合は O = 0、直交の場合は O = 1 である。高レイノルズ数流れ(乱流)では、直交性の喪失が非常に速く起こる。
❷ 散逸性[*164],[*165]
散逸は、決定論的ユニタリーでは正確には処理できない(それだけ難しい)。本論文では、以下のように処理しているようである。LBEでは、ストリーミングと緩和を別々に扱うことができる。これは、CLBEでも同じである。ストリーミング行列 S はユニタリー行列であるが、緩和行列 R はユニタリー行列ではない。CLBEはストリーミングと緩和を別々に扱えるので、1粒子速度分布関数が定常平衡状態に緩和した後に、ストリーミング=ユニタリーを適用することで、散逸性を回避している(と思われる)。
弱圧縮性減衰乱流を仮定することで、任意のシミュレーション時間に対して、速度分布関数が定常平衡状態に緩和することが、本論文で示されている。
⇒❷の追加補足|
散逸性(非ユニタリー性)に対処する方法は、3つあるらしい:㊀ユニタリー拡張(Unitary Dilation)、㊁warp phase変換、㊂LCU/LCHS。㊀は、非ユニタリー系をユニタリー系の部分系と考えて、非ユニタリー系をユニタリー系に埋め込むという手法(いわゆる、ブロック符号化)。㊁は、空間次元を一つ増やすことで、非ユニタリー系をユニタリー系として扱えるというトリックを活用する手法。㊂は、非ユニタリー演算子を、ユニタリ演算子の線形結合あるいは、ハミルトニアン・シミュレーションの線形結合で表現する、という手法である。
❚補足6❚
[*213]は、「量子ボルツマン法において、流れ場を表す状態ベクトルを効率的に読み出す方法を初めて提示した」と主張する。量子計算における計算複雑性の文脈で効率的とは、もうお馴染みの、多項式オーバーヘッドという意味である。具体的には、運動量交換法の量子版を提案している。格子ボルツマン法において、流体中の固体にかかる力を求める手法は、主に2つあり、運動量交換法は、その一つである†1。信頼性が高く、実装が容易、とされる。[*213]でも、流体中の固体に作用する力を求めている。
†1 もう一つは、圧力積分法。なお、運動量交換法は、格子ボルツマン法固有の方法である。
2⃣ 計算複雑性が、対数スケーリングすることを示す
本論文中では、効率的なオラクルを準備できると仮定し、計算複雑性としてクエリ複雑性に焦点を当てている。長い議論を展開して結果として、クエリ複雑性を、以下のように示した。
O(√k×(T/τ)×poly[logN,log(1/ε),log(T/τ)])~O(poly・logN)
つまり、「(発展時間Tに対しては線形に、)量子ビット数Nに対して対数」にスケーリングできることを示した。なお、τは緩和時間、kはカールマン線形化における打切り次数、εは許容誤差、である。
(2) 流体解析用量子アルゴリズム=HHL✖CLBE、の精度(誤差)
【2】(4)で既述の通り、カールマン線形化により「有限次元の非線形微分方程式は、無限次元の線形微分方程式に置き換えられる」。無限次元線形微分方程式系は、実用的な実装のために、有限次数で切り捨てられ(打ち切られ)、打ち切り誤差が発生する。CLBEの打ち切り誤差は、Ma のべき級数である。従って、CLBEの打ち切り誤差は、弱圧縮性流れに対しては大幅に抑制され、Re とは無関係となる。
LBEからNSEを回復できる、最小のカールマン線形化次数(打ち切り次数)は 3である。その場合、粒子速度分布関数の 3 次までの項が、切り捨てられた方程式に現れる。打ち切り次数2で、CLBEは 1次元モデルの正確なダイナミクスを表し、2次元モデルの相対誤差は、10−3のオーダーである。打ち切り次数3では、CLBEはLBEの誤差と同じ桁の相対誤差を示す(☞【4】を参照)。
NSEの変数の数を𝑛とすると、CLBEの変数の数は 𝑂(𝑛3𝑄3)であり、𝑛を大幅に上回っている。ただし、これは多項式の増加である。HHLアルゴリズムの計算複雑性は𝑂(poly(log𝑛))であるから、同アルゴリズムを前提とすれば、指数加速が可能となる。
(3) 本論文の有効範囲
本論文が対象としている流体は、地球上空大気の希薄気体である。
1⃣ Maによる制限
本論文において流れは弱圧縮性、つまりMa ≪ 1である必要がある。Ma≪1は、LBEがNSEを回復し、線形化されたLBE が非線形LBE を近似するための要件である。カールマン線形化による誤差は、𝑂(Ma2)で抑えられるため、Ma≪1であれば線形近似による誤差は問題とならない。また、量子アルゴリズムの(時間積分における離散化)誤差も、𝑂(Ma2)で抑えられるため、Ma≪1であれば問題とならない。
このMa ≪ 1という条件が、実用上の問題にどれだけ適合するか(ビジネスにおける金額的インパクト)は、よく分からない。商用航空機の速度で、Ma=0.7~0.8程度(超音速飛行は燃費効率を低下させるので、Ma=1を下回る水準に、巡航速度を抑えている)。Ma≪1とは、ひいき目に見ても、0.1以下であろう。
2⃣ Knによる制限
本論文における流れは、連続流でなければならない(連続体仮説╏参考╏が成立していなければならない)。定量的に言うと、Kn ≪ 1である必要がある。なお、大気中の典型的な値は、Kn < 10-8である。つまりクヌーセン数による制限は、実質的に、制限にはならない。
╏参 考╏
分子スケールに比べて、流体解析で扱う長さスケールは、十分に大きいという仮説(約束事)。ただし、一般に「連続体仮説」というと、数学における連続体仮説が想起されるであろう。数学における連続体仮説は、可算濃度(⋍加算無限個)と連続体濃度(⋍非加算無限個)の間には、他の濃度(⋍他の無限個)が存在しないとする”仮説”。”仮説”の意味合いは、「連続体仮説は、証明も反証もできない命題である」ことが数学的に証明されていることを指している。少し正確に言うと、連続体仮説を肯定しても否定しても、無矛盾な公理系(具体的にはZF公理系)が構築可能であることが証明されている。そのような不思議な命題が存在すること自体は、ゲーデルの不完全性定理を鑑みると、実は、不思議ではない。なお、「連続体仮説は、証明も反証もできない命題である」ことが、不完全性定理から導かれるわけではない。
【4】シミュレーション結果及び、そこから導かれる結論
(1) 概要
本論文は、カールマン打ち切り誤差が、打ち切り次数kの関数として収束するかどうかをテストするために、周期境界条件を使用して、D1Q3をシミュレートしている。従って、m=1,2,3である。カールマン線形化は、衝突項に適用されている。すべてのシミュレーションは、任意の初期速度で開始され、時間ステップ dt = τ/10(ステップ数100)が使用される。評価指標は、相対誤差εm = |fmCLBE −fm|/ fmである。
(2) 結果
打ち切り次数k=3の場合、m=1であるε1は、最大で5×10-15程度。同じく、k=3の場合かつε2及びε3は、 最大で2×10-14程度である。打ち切り次数k=4の場合、ε1及びε2は、最大で3×10-15程度。ε3は、最大で2×10-15程度である。
まとめると、k = 3 の場合は10-14のオーダー、k =4 の場合は10-15のオーダーとなる。
(3) 結論
(2)から本論文は、弱圧縮性流れ(Ma ≪ 1)に対して、「𝑘=3で現実的なシミュレーション精度を得るのに十分であるように思われる」と結論つけている。
【5】考察
(0) 【1】の条件等下あれば、FTQC(誤り耐性量子コンピューター)で、指数加速が実現出来るのは間違いないだろう。残りの問題は、当該条件等の下で、商業的に意味のあるアプリケーションが存在するか?である。
(1) 【0】で上げた企業(大企業とスタートアップ)に加えて、公的機関や国家等も、流体解析✖量子コンピューティングに関心を寄せているようである。2024年7月8日から12日まで、ベルギーのフォン・カルマン流体力学研究所は、NATO の支援を受けて「流体力学における量子コンピューティング入門」と題した講演シリーズを開催した。また、欧州投資会議(EIC)が2024年9月5日に公開したレポート(Dis)Entangling the Future[*166]では、格子ベースの数値流体力学(CFD)量子アルゴリズム(つまりは、格子ボルツマン方程式を解く量子アルゴリズム)を「さらに調査する価値のある」最も興味深いものの1 つとして採用している。
CFD人気は、航空・宇宙分野の流体解析が目当てであろう。航空・宇宙の中でも、宇宙領域の商業利用や極超音速飛翔体の開発といったところに目線が向いているのかもしれない。しかし、本論文の射程は Ma ≪ 1であり、宇宙領域や極超音領域は、適用範囲外である。
Ma ≪ 1の希薄気体での流体シミュレーションとして、実用的なインパクトがあるインスタンスには何があるのだろうか。例えば、対流圏や成層圏における気球(観測気球:軍事転用も可能?、及びロックーン)に程度しか、適用できないのであれば、インパクトは小さいであろう。
❚為参考❚
韓国企業Norma☯1は(韓国の大学と共同で)「航空宇宙分野における量子アルゴリズムを使用した流体解析の実現、及び量子優位性の実現」をテーマに研究プロジェクトに着手したと発表した(25年3月24日)[*172]。解析対象は、「極超音速機、次世代戦闘機、再使用型ロケット、無人戦闘機」などである。解析対象とする基礎方程式は、バーガース方程式である。
☯1 2011年設立。元々は、サイバー・セキュリティ企業。現在は、量子セキュリティと量子コンピューティングを専門とする企業(らしい)。フィンランドのIQM(H/W:超伝導)と量子アプリケーションの共同開発などを行っている(23年9月~)。超伝導量子コンピューターQrion(量子ビット数~10)を輸出する契約を、サウジアラビアと結んでいる(24年12月)[*173]。契約金額は、$18mil。
(2) ちなみに、自動車の典型的なレイノルズ数Reは、~107であり、乱流の計算複雑性はO(Re3)である。各格子点で時間に関して103回の演算を行うとすると、自動車周りの乱流解析には、107×3×103=1024の浮動小数点演算が必要になる。これは、エクサ級スパコン(1018Flops/秒)だと約2週間で完了する。2週間=120万9,600秒~106である。エクサ級スパコンは、既に存在している。富岳NEXT(など)が目指す「ゼタ級」だと、16~17分で完了してしまう。
量子コンピューターは、エンドツーエンド(状態準備~読み出し、まで)の処理で、これに対抗しなければならない。あるいは、ゼタ級スパコンのシミュレーション・データを学習データとする代理モデルと対抗しなければならない。ゼタ級スパコン(CPU+GPU+α?)を前提とすると、代理モデルは、秒のオーダーで推論する可能性さえある。直截的に言えば、そこに量子コンピューターのつけ入る隙は、(省電力性能を除いて)ないだろう。そのため流体解析であれば、航空・宇宙分野を目指すというのは、理に適っている。ただ、今のところ、インパクトのあるアプリケーションは見えていないと思われる。つまり、本論文のインパクトは、それほど大きくはないと思われる。
(3) (1)とは別に、非線形偏微分方程式を量子コンピューティングで解きたいというトレンドがあるように思える。25年に入って、カールマン線形化の論文がたくさん出ている🐾9。[*160]をはじめとして、大阪大学・藤井先生も、このトレンドにも注目(?)されているようである。[*167]はver5まで更新されていて、ver5は25年1月28日付け、である。なお[*167]は、非線形偏微分方程式の線形化について、カールマン線形化ではなく、クープマン・フォンノイマン線形化🛡3を使用する。(アカデミアの方なので、難しいかもしれないが、)「誇大宣伝」を払拭するためには、商業的(金額的)インパクトが示すことが重要となるだろう(そういう意図で、CAEの専門家とのコラボを希望されているとも見受けられる)。
🐾9 初出が1932年の論文であることを鑑みると、驚きである。しかも、2025年時点で、オンライン閲覧可能である。ただし、仏語で書かれてある。数学の論文が仏語で書かれていることは、(今でも?)珍しくない。
🛡3 驚くべきことに、偶数階の空間微分項を埋め込むことができない、らしい(カールマン線形化も同じであろう)。そうであれば、ナヴィエ・ストークス方程式において、粘性項(2階空間微分項)を考慮できないことになる。Re数大で、粘性項の影響は小さくなる(から粘性項を考慮できなくても影響小かもしれない)が、その分、非線形性が強くなるので計算は発散する(線形化が破綻する)。どちらにしても、厳しいと言わざるを得ない。
(4) 東京大学他の研究者は、「物性シミュレーションでは、暗号解読や量子化学よりも少ない物理量子ビット数で、量子優位性が実現する」と主張する論文[*168]を発表した(24年4月29日@npj quantum information)。物性シミュレーションでは、105オーダーの物理量子ビット数で、量子優位性が実現するという内容である。ちなみに、乱流解析では、105オーダーの物理量子ビットがあると、古典コンピューターでは全く手に負えないRe~1020が手に負えるようになる。
(5) 非線形動的システムに対するアルゴリズムが量子優位性を持つ場合、平衡点におけるヤコビアンの固有値実部が負であることが分かっている[*169]。しかし、これは、「固有値実部が負でなければ、量子優位性は実現できない」ことを意味していない。量子コンピューティング(環境)を含むハミルトン系は、固有値実部がゼロである。固有値実部がゼロでも、量子優位性を持つ部分クラスは存在しうる(が、そのような部分クラスは希少なのだろう=ハミルトン系で量子優位性が現れるケースは少ない)。
小難しい表現を使えば、本論文は、「固有値実部がゼロで、量子優位性を持つ部分クラスを特定した」と言えるのだろう。
(6) 流体解析(乱流解析)と量子コンピューティングの相性が悪いと言いながら、本論文は、上手くマッチングさせた。釈然としない感覚は残るかもしれない。ただ、そもそも論として、量子の世界と乱流は、それほど相性が悪くないのかもしれない。
量子の世界にも、流体や乱流が現れる。それぞれ、量子流体、量子乱流と呼ばれる。乱流構造に見られる代表的な構造は、渦のカスケード構造であるが、量子乱流においても渦(量子渦)を考えることができる。そして、不思議なことに、量子流体でもコルモゴロフ則が成立している。それを鑑みると、乱流解析で量子優位性が現れても、それほど不思議ではないかもしれない。
量子コンピューター実機上で実行された流体解析に関する記事が、AWSのブログで公開された(25年7月14日)🐾10[*212]。流体解析を行ったのは、米HaiquとフィンランドQuanscient🐾11の共同チームで、2024年のエアバス・BMW量子モビリティ・チャレンジにて行われた🐾12。以下、その内容について、整理する。
🐾10 なぜ、AWSのブログなのかというと、HaiquとQuanscientは、AWS経由で米IonQ(モダリティ:トラップイオン)の実機IonQ Aria 1にアクセスしたからである。
🐾11 量子×流体解析において、Quanscientは、至るところで顔を出す。
🐾12 ちなみに、ファイナリストであるが、優勝者ではない。流体解析(量子ソルバー・カテゴリー)では、独ハンブルク大学のチームが優勝している。量子古典ハイブリッド・アルゴリズムを使って、航空機の騒音を最小限に抑える方法を示した。出所:https://www.airbus.com/en/newsroom/press-releases/2024-12-quantum-leaps-winners-of-airbus-and-bmw-groups-quantum-computing
(1) 概要
1⃣ ポイント
量子コンピューター実機×エンジニアリング的にリアル設定で、エンド・ツー・エンドの流体解析を行った🐾13。
🐾13 この時点では、初事例かもしれない。仏ColibriTDは、「量子ハードウェア実機で、非線形偏微分方程式を解くことに初めて成功した」と主張している(☛こちらを参照)。
2⃣ 解析対象となる流れ・エンジニアリング的にリアル設定
無機質に言えば、温度変化を伴う2次元非圧縮性流れ。具体的なイメージを伴って記述するならば、例えば、熱源を伴うタービン翼型周りの流れ。
3⃣ 支配方程式
渦度-流れ関数法で、非等温非圧縮性流体を解析する。従って、支配方程式は、「渦度輸送方程式+流れ関数の式+エネルギー方程式」となる。ここで言うエネルギー方程式(AWSブログ・ママ)とは、温度分布の時間発展を記述する方程式を指している。
4⃣ アルゴリズム
BGK形式の格子ボルツマン方程式を量子回路にマッピングして、量子コンピューターで速度分布関数と温度分布関数を求める。(ボルツマン方程式から見て)マクロな物理量である渦度は、速度分布関数を使って、温度は温度分布関数を使って、算出される🐾14。
🐾14 それらの計算は、四則演算に過ぎないので、古典コンピューターで行われるのであろう。
(2) 追補
1⃣ エンド・ツー・エンド
エンド・ツー・エンドとは、状態準備から読み出しまでを意味する。「効率的な状態準備、データ・ローディング、適当な量子誤り緩和の実施、量子回路の最適化(浅層化)」は、Haiquが担った。少なくとも、効率的な状態準備に関しては、Haiquは独自のノウハウを持ってそうである。読み出しは、よく分からない(記述がない)。
2⃣ 渦度-流れ関数法
渦度-流れ関数法は、ナヴィエ・ストークス方程式(NS方程式)を、「渦度輸送方程式+流れ関数の式」の2つに”複数化”して、流体を解析する手法である。なぜ、わざわざ”複数化=複雑化”するか、というと、「なんちゃって線形化」ができるからである🐾15。
いわゆる(渦度-流れ関数法の文脈における)摂動法という手法では、渦度輸送方程式は、一旦、線形の移流拡散方程式とみなされる。つまり、速度は、一旦固定される。速度を固定した上で、移流拡散方程式(実際は、渦度輸送方程式)を解いて🐾16得られた渦度を、流れ関数の式にあてはめることで、流れ関数が求められる。流れ関数に∇を作用させる(掛ける)ことで、速度が得られる。この新しく求められた速度を、渦度輸送方程式の速度としてアップデートすることで、次の計算ループに移ることになる。
🐾15 変数を減らすため、と書いているサイトもあるが、その説明では片手落ちと思われる。
🐾16 AWSのブログでは、2次元移流拡散方程式を解いた、という書き方をしている。それは正であるが、やや言葉足らずでもある。その意味するところは、本文で書いた通りである。
3⃣ 線形化について
BGK形式の格子ボルツマン方程式では、局所マックスウェル平衡分布関数の形を変えることで、様々なマクロな流体方程式を回復することができる。言葉を変えると、例えば、マクロな極限でNS方程式が導出できるような局所平衡分布関数を設定した場合、BGK形式格子ボルツマン方程式を解くことで、NS方程式を解いた場合と同じ結果が得られる。
今の場合、支配方程式が、渦度輸送方程式+流れ関数の式+エネルギー方程式であるから、それらを再現できるように、3つの分布関数を設定する必要がある。これは、かなり面倒な印象を与えるが、分布関数自体は比較的シンプルである。NS方程式の場合、分布関数は複雑であり、線形近似が必要となる🐾17。つまり、複雑×単数と単純×複数🐾18にはトレードオフがあり、HaiquとQuantscientは「単純×複数」というアプローチを採用した、ということである。
🐾17 いわゆるカールマン線形化やクープマン・フォンノイマン線形化が行われる。
🐾18 今の場合、非等温流れに由来するエネルギー方程式が含まれるので、分布関数3つとなる。プレーンなNS方程式⇌渦度流れ関数法、ということであれば、分布関数は2つである。
4⃣ 量子誤りへの対応
中間回路測定により、量子誤りが含まれる結果には、フラグを付けておく。最終的に、古典的な事後選択で、量子誤りが含まれる結果は捨てる。このプロセスは、ゲート実行速度が速いトラップイオン方式の量子コンピューターのウリである。IonQのH/Wを使用したのは、そういう理由である。
5⃣ その他
❑ サイズ感は以下の通り:最大64×64の格子上で、最大16量子ビットを使って、2次元移流拡散方程式(渦度輸送方程式←NS方程式)を解いた。
❑ レイノルズ数、マッハ数、クヌーセン数等の情報は無し。
❑ D2Q5(2次元5離散速度)が使用された、と書かれているが、実際はD2Q9と思われる。
(3) 考察
① 格子ボルツマン方程式は、3ステップしか実行されていない。3(タイム)ステップしか、の意味は、ノイズ無し量子シミュレータの結果と実機の結果は、3ステップまでしか一致しないという意味である。つまり、現在の実機の物理誤り率では、3ステップまでしか実行可能ではない。なんとも、もどかしい状況である。
② 言わずもがな、HaiquとQuantscientが実行した内容は、量子優位性を謳うものではない。やや厳しい言い方になるが、エンジニアリング的にリアルな設定における流体解析が、量子コンピューター実機でも、「エンドツーエンドで実行出来そう、という期待を抱かせた」に過ぎない。
③ なんちゃって線形化の代償は、計算ステップが増えることであった。量子演算の場合、この「複雑×単数」ではなく「単純×複数」という選択は、計算複雑性の意味合いで、厳しい選択になるかもしれない。データ・ローディングも複数化される(はず)なので、データ・ローディングが余程効率的(高速)に行えなければ、量子加速は、とても期待できないだろう。
④ 非ハミルトン性(散逸性)に対して、どのように対処しているかは、不明。
仏の量子ソフトウェア・スタートアップColibriTD🐾1は、「量子ハードウェア実機×変分量子アルゴリズムという枠組みで、非線形偏微分方程式を解くことに初めて成功した❚補足1❚」と主張するホワイトペーパー[*175]を発表した(25年3月25日)。この主張は、「古典と比べて、量子は優れております」というお決まりのシュプレヒコールではなく、極めて控え目である。NISQでも役に立つキャンペーンの一環ではあるものの、NISQでも非線形偏微分方程式を解けるということを実証することは重要であろう。
[*175]で使われた量子アルゴリズムは、論文[*176](以下、本論文。発表は、24年10月1日@arXiv)において公開されている(Quantum🐾2で査読を受けている最中らしい)。ColibriTDでは、その変分量子アルゴリズムを「ハイブリッド微分方程式ソルバー(H-DES)」と呼んでいる。
以下では、量子コンピューターで非線形偏微分方程式を解くというタスクの困難さをまとめた上で、H-DES が、なぜ「非線形偏微分方程式を解くことに初めて成功した」のかを、本論文を基に書き下す。
🐾1 2019年設立。23年9月には、シードラウンドで€1milを調達している。共同創業者の一人のバックグラウンドは、「物理学博士号取得→グーグル、AWS→起業」。
🐾2 Quantumは、量子科学および関連分野における、非営利のオープン・アクセス査読付き科学雑誌。従来の利益主導型でインパクト ファクター重視の科学出版モデルに対するコミュニティの不満の高まり、欧州評議会による即時オープン アクセス出版の最近の要請等に対処している(らしい)。出所:https://quantum-journal.org/about/
❚補足1❚ フィンランドの量子ソフトウェア・スタートアップQuanscient(つまりは、ColibriTDのビジネス上のライバル)は、IQM(フィンランドのH/Wスタートアップ:超伝導)のデバイス×量子格子ボルツマン法で、2次元移流拡散方程式を正常に解いたと報告している。この成果に対してColibriTDは、「格子ボルツマン法に限定されており、汎用性が欠けている」と評価。また、2次元移流拡散方程式は非線形ではない。
【1】ホワイトペーパーの主張
ホワイトペーパー[*175]は、以下を主張する:
「H-DESを使って、実機上で、非線形偏微分方程式を解くことに初めて成功した」。
ここで実機とは、IBM製 ibm fezである。量子ビット数は156で、量子プロセッサはHeron R2である。解いた偏微分方程式は、1次元非粘性バーガース方程式である❚補足2❚。「解くことに成功した」とは、適当な誤差範囲内かつ現実的な時間内に、数値解が収束したことを意味している。🐾3
🐾3 量子誤り緩和に関する詳細な記述はなく、「複数のノイズ抑制戦略や量子誤り緩和技術を必要とせず」という記述があるのみ。
❚補足2❚ 動粘性係数を0と置いた=2階偏微分項である粘性散逸項(あるいは、拡散項)がない、バーガース方程式である。ナヴィエ・ストークス方程式から見ると、圧力項と拡散項が無視された方程式ということになる。ここまで単純化しても、非粘性バーガース方程式には、様々な応用先がある。なお粘性バーガース方程式は、コール・ホップ変換によって、線形な拡散方程式に変換できるが、非粘性バーガース方程式は(コール・ホップ変換のような厳密な意味での)線形化はできない。
【2】事前整理
(1) 課題の整理
[*177]を参考に、線形マシンである量子コンピューターで非線形偏微分方程式を解く、というタスクにおける「4つの課題」について整理する。ただし、下記1⃣~3⃣は、あらゆる量子計算に共通する課題である。4⃣のみが、非線形(偏微分)方程式を解くというタスクに対する課題である。
1⃣ 状態準備
量子コンピューターでの数値シミュレーションの開始時には、量子状態ベクトルを初期化して、初期条件を符号化する必要がある。入力データの構造によっては、オーバーヘッドが大きくなる可能性がある。
2⃣ データ・ローディング
計算プロセス中に、動的システムを定義する古典的なデータ、たとえば基礎となる微分方程式の係数を量子コンピューターに転送する必要がある。通常、これにはQRAM(量子ランダム・アクセス・メモリ)ーつまり、量子状態の形式で提供されるメモリ・アドレスに基づいて、データにアクセスするメカニズムが必要である。最近、「既存の提案では、QRAMは実現しそうにない」と主張されている。
3⃣ 読み出し
数値シミュレーションの(最終)出力は、量子状態で符号化されている。一般に、データを読み取る(すべての量子振幅を決定する等)には、指数関数的なオーバーヘッドが必要である。つまり、計算速度が指数的に速かったとしても、その優位性は、読み出しに要する指数的オーバーヘッドで相殺されて、量子コンピューティングは、古典コンピューターに対する競争力を失う。
したがって、最終的な量子状態から効率的にサンプリングできる「巨視的な」量(例えば、動的変数の集合の平均や高次モーメント)を特定する必要がある。最近開発された古典的シャドウの概念は、量子計算の出力から重要な情報を抽出するという課題に対する新しいアプローチを提供している。
4⃣ 基本的な課題:線形vs非線形
非線形ダイナミクスの解析には、動的変数が符号化されている量子自由度の非線形時間発展が必要である。量子系の時間発展はユニタリーであり、線形シュレーディンガー方程式によって支配される。このため、量子自由度を非線形に時間発展させることは、基本的な課題である。
線形vs非線形の問題における側面の 1 つは、量子状態がL2ノルムに関して正規化されることである。動的に時間発展する”古典データ・セット”のほとんどは、この条件を満たしていない。したがって、非ユニタリー時間発展ステップが必要であり、これは射影測定と開放系ダイナミクスによって実現できる。
(2) 量子コンピューターで非線形偏微分方程式を解くアプローチの整理[*177]
過去 5 年間で、概念的に異なるアプローチが数多く発表された。それらは、大まかに次の 3 つのカテゴリのいずれかに分類できる(らしい)🐾4。
❶ ハイブリッド古典量子アルゴリズム
❷ 平均場量子ソルバー
❸ 線形化ベースのソルバー
🐾4 ちなみに[*177]には、量子モダリティとアルゴリズム❶~❸との”相性”も、ザックりと書かれている。それによると、❶=超伝導、❷=トラップイオン、❸=中性原子、である。
❶ ハイブリッド古典量子アルゴリズム
ColibriTDのH-DESは、当該カテゴリーに属する。[*177]によれば、さらに3つに分別できる。
㈠ 振幅符号化される量子状態の複数のコピーに、テンソルネットワークを使用することで、損失関数が構成される。これらのコピーと補助量子ビットとの非局所的な相互作用の後、損失関数は射影測定によって評価される。最適化プロセスの収束に関する解析的境界は、確立されていない。また、このアルゴリズムは、ゲート・ベースの量子コンピューティング・フレームワーク用に定式化されており、非局所的な操作を実装するには、高い接続性が必要である(従って、超伝導モダリティには向かない)。
㈡ より正確にいうと、H-DESは、このサブ・カテゴリーに属すると言って良いだろう。角度符号化した量子状態から作成した量子特徴量マップに基づいて、チェビシェフ多項式を使用して解関数を近似する。損失関数は、ゲートベースの量子回路に変換される。最適化プロセスの収束に関する解析的境界は、確立されていない。この回路は、計算コストの高い多数の量子ビットゲートを含まないため、接続性が制限されたハードウェア・アーキテクチャに適している(超伝導モダリティにも適用可能)。
㈢ 簡単に言うと、量子リザーバ・コンピューティング・モデルである。量子リザーバー・コンピューティングは、低次元の非線形システムの重要な特徴を捉えることが実証されているヒューリスティックな方法である。実データまたは合成データを使用して、アンザッツで表されるネットワークを学習し、その後、新しい時系列データを予測するために使用される。
量子ハードウェアの接続要件は限られている(ので、超伝導モダリティにも適用可能である)が、学習には回路出力の頻繁なサンプリングが必要であり、この方式の計算コストが高くなる。今後、それらの解析的境界を確立する必要がある。
❷ 平均場量子ソルバー
量子状態の n ≫ 1個の同一コピー間の対称相互作用を利用して、個々のコピーの近似非線形時間発展を生成する。動的変数は、振幅符号化される。任意の非線形システムの場合、平均場量子ソルバーの実装はいずれも、一般に、順列対称ハミルトニアンのハミルトニアン・シミュレーションを必要とする。結果として、量子H/Wは、コピーのペアを交換するために必要な計算オーバーヘッドを削減するために、個々のコピー間の大きな接続性を提供する必要がある(ので、超伝導モダリティには向かない)。
平均場非線形量子ソルバーのパフォーマンスに関する解析的境界は、確立されている。コピーの数は、積分時間とともに線形に増加する。
❸ 線形化ベースのソルバー
[*177]によれば、2つの異なるアルゴリズムが提案されている。
㈠ カールマン線形化を使用するアルゴリズムである。任意の有限次元非線形微分方程式システムの場合、カールマン線形化により、切り捨てられ、その後、量子線形システム・アルゴリズム(QLSA)によって解かれる、線形微分方程式の無限セットが生成される。
このアルゴリズムは、十分に研究されており、そのパフォーマンスの解析的境界が確立されている。それによると、スケーラブルな将来の量子コンピュータで、量子優位性を提供することが示されている。ただし、QLSAを実行するための量子ハードウェア要件(量子ビット数と回路深度の両方)が、かなり大きい。このため、NISQハードウェアではサポートできない可能性がある。
カールマン線形化格子ボルツマン方程式に対して、いくつかの条件下で、指数加速が実現されることを確認した論文は、☛こちら。
㈡ フォッカー・プランク方程式に基づいたアルゴリズムである。フォッカー・プランク方程式は、空間的に半離散化してから積分できる線形偏微分方程式である。離散化された分布関数の値に振幅符号化を使用すると、メッシュ サイズの小さい大きなグリッドを量子レジスタに効率的に保存できる。離散化された時間ステップにわたる積分は、ハミルトン・シミュレーションと測定および事後選択のステップを繰り返すことによって実行される。
平均場ソルバーと同様に、前進オイラー・ステップは、ユニタリ・ブロック符号化またはユニタリの線形加算によって実装できる。任意の非線形システムの場合、フォッカー・プランク方程式の構造のため、この手順に必要なハミルトニアンは疎であり、量子シミュレーションに有益なネイティブのテンソル積構造を示す。
非線形ダイナミクスを解くための他の量子アルゴリズムとは異なり、このスキームの出力は分布関数であり、動的変数のセットではない。したがって、アンサンブル予測と初期値の不確実性の伝播の概念を必要とするモデリングに適している。
【3】H-DESとは
(1) 基本的な枠組み
1⃣ 概要
H-DESは、(偏)微分方程式を解くというタスクを、最適化問題に変換している。そしてH-DESは、アルゴリズム的には、ハイブリッド古典量子アルゴリズムであり、変分量子アルゴリズムである。(偏)微分方程式を解くというタスクを、最適化問題に変換するというアプローチは、PINNs(Physics-Informedニューラルネットワーク)の発想である。実際、H-DESの損失関数Lは(PINNsの言葉を使うと)、L=PDE損失+グローバル重み×境界損失、と定義されている。なお、ローカル重みは、PDE損失はコロケーション点の数、境界損失は境界条件を与える点の数である(いたってノーマルな設定)。また、損失は、平均二乗誤差(MSE)を使用して計算する。
【2】(2)❶㈡にあげた、「量子特徴量マップに基づいて、チェビシェフ多項式を使用して解関数を近似する。損失関数は、ゲートベースの量子回路に変換される」というアルゴリズム(以下、㈡アルゴリズム)に似ているが、以下2⃣に示す違いがある。
2⃣ 類似アルゴリズムとの大きな違い
㈡アルゴリズムは、(解関数の)導関数の次数と共に指数的に増加する数の、複数の回路を評価することによって、導関数を再構築する(解関数の評価に使用される回路の量子特徴量マップを変更する)。つまり、(偏)微分方程式を表現するために必要な導関数を量子回路で実装するためには、回路を深くせざるを得ない。
また、㈡アルゴリズムはスペクトル法ではない。
(2) H-DESの補足
1⃣ より正確には・・・
H-DESは、PINNs的なアプローチであるが、正確には、PIKANである。KANは、コルモゴロフ・アーノルド・ネットワークを意味している。より正確には、オリジナルのBスプライン関数を使ったKANではなく、チェビシェフ多項式を使ったチェビシェフKANである。さらに厳密に言えば、チェビシェフ多項式は、第1種チェビシェフ多項式である。
なお、PINNsとPIKANのどちらが精度が高いかという問題は、未解決であろう。一般には、PIKANの方が精度が高い一方、学習に要する時間が長いという認識であろうが、一概には言えない。また、オリジナルのKAN(PIKAN)とチェビシェフKAN(PIチェビシェフKAN)のどちらが優れているか、という問題も未解決であろう。
2⃣ 量子化するメリット
H-DESは、このPIチェビシェフKANを量子化している。量子化PIチェビシェフKANは、量子回路の指数関数的表現力の高さを、チェビシェフ多項式における表現力の高さに結び付けている。つまり、古典PIチェビシェフKANよりも、効率的に精度を高く(近似誤差を小さく)できることが期待できる。
3⃣ アンザッツと回転ゲート
H-DESで採用するアンザッツは、ハードウェア効率の高いアンザッツ(HEA)構造に基づいている。HEAでは、パラメータ化された1量子ビット回転ゲートの各セットの後に、CNOT ゲートのエンタングルメント層が続く。この回転と CNOT のブロックは d 回繰り返される。ここで、d は VQC の深さと呼ばれる。
通常、回転ゲートはRx、Ryおよび Rzゲートで構成されるが、H-DESの場合、Ryゲートのみから構成される。この選択は、関連する確率のみが解関数の符号化に使用されるため、複雑な振幅を持つ状態を生成する必要がないという事実に基づいている。また、さまざまな損失関数の結果が、1つの回転ゲートで十分な精度に達することを経験的に確認したためでもある。
4⃣ 非線形性対応問題及びその他
H-DESは、最適化問題に変換しているので、線形vs非線形は陽的には現れない。代わりに、収束性(+精度)の問題に置き換わっている(と思われる)。非ハミルトン性(あるいは非ユニタリー性ともいう。別の表現を使うと、散逸性)への対処は、明確に示されていないように思われる。
さらに、不毛な台地への対応については、記述がないように思われる。
(3) H-DESは、スペクトル法である
スペクトル法では、解(関数)は、完全系をなす直交関数基底の線形結合として表現される。したがって、(偏)微分方程式の最適解を見つける作業は、直交関数基底における係数の最適な近似値を決定することに相当する。H-DESでは、スペクトル法の基底関数として広く使用されている、第1種チェビシェフ多項式で解関数を表現することを選択する。チェビシェフ多項式(単にチェビシェフ多項式と書かれていた場合、通常、第1種チェビシェフ多項式を指す)は、有限領域で部分的に滑らかで連続的な関数を表すことができる。それらの導関数の表現は単純で、再帰的に定義することもできるため、実装が簡単かつ効率的である。
(4) 導関数を簡単かつ近似なしで計算できる
1⃣ 単変量関数
H-DESでは、関数fの任意の導関数を簡単に計算することができる。これは、2つの特性のおかげである。1つ目は、任意の次数のfの導関数を、同じ量子回路を再利用して、オブザーバブルの期待値として計算できるという特性である。2つ目は、チェビシェフ多項式の導関数は、チェビシェフ多項式を利用して計算できるという特性である。つまり、チェビシェフ多項式の導関数は、近似なしで厳密に求めることができる。
まとめると、H-DESは、㈡アルゴリズムと異なり、「導関数の実装に、深い回路は必要ない」ということになる。
2⃣ 多変量関数
多変量の場合に移ると、解(関数)の偏導関数の計算は、より複雑になる可能性がある。幸いにも、多変量チェビシェフ多項式は、独立した単変量チェビシェフ多項式の積として表現されるため、導関数の表現が容易になる。つまり、単変量チェビシェフ多項式の 1 次導関数をすべて計算することで、多変量チェビシェフ多項式の任意の 1 次導関数を計算できる。これを一般化して、任意次数の導関数を計算する最大数を計算すると、次のようになる:
2n−1×nv×nd×ns
ここで、nは、チェビシェフ多項式の引数の数。nvは偏微分方程式に含まれる関数における変数の数。ndは、偏微分方程式に含まれる最高の微分階数。nsは、コロケーション点の数である。
まとめると、多変量関数の場合(は最悪のケースでは、多くの計算をする必要があるけれど)も、導関数を計算するために、深い回路は必要ない、という結論になる(はず)。
【4】評価結果
(1) ホワイトペーパーの結果
1次元の非粘性バーガース方程式を対象とした。境界条件(初期条件)は、u(x, t=0) = ax+bとした。
オプティマイザーはCMA-ES❚補足3❚を使用した。量子シミュレータを使った本論文とは異なり、ホワイトペーパーにおける量子ハードウェアは、実機である。具体的には、記述の通りIBM製のNISQマシン ibm fezである。量子ビット数は156で、量子プロセッサ(QPU)はHeron R2。CMA-ESのハイパーパラメータは、 ibm fezに合わせて、ゴリゴリにチューンされた(らしい)。
VQA(変分量子アルゴリズム)ループ内では、QPUの呼び出しごとに 10,000 ショットを使用し、期待値の計算にはそれぞれ 14 ~ 25 秒を要した。損失の平均誤差が10−1未満になること及び、検証スコア🐾5で収束判断を行った。これは、反復回数160 回、最終損失が 5 × 10−2になったときに達成された。
🐾5 本論文で導入された独自指標。詳細は、割愛する。
❚補足3❚ CMA-ES[*178]:Covariance Matrix Adaptation-Evolution Strategy(共分散行列適応進化戦略)。CMA-ESは、進化戦略に、分散共分散行列を導入したアルゴリズムである。多変量正規分布に基づいた個体の生成を行い、多変量正規分布の変数とステップサイズの最適化を通して、解の探索を行う。ステップサイズとは、探索地点と最適解との距離に応じて増減するスカラー値で、分散共分散行列の補正を行い探索速度を高める役割を持つパラメタである。一般に、悪条件性、多峰性、変数間依存性を持つ目的関数に対して有効であるとされている。
目的関数の次元数dに対し、CMA-ESの時間計算量はO(d3)、空間計算量がO(d2)である。このことから、高次元最適化問題への適用は困難とされるが、計算量を削減できるバリアントが存在する。
(2) 為参考:本論文の結果
本論文の結果は、ノイズなし量子シミュレータの結果で、オプティマイザはBFGSである。本論文で対象としている方程式は3つある。1つ目は、1階常微分連立方程式で、手計算できるレベル。4 量子ビット、深さ3 のアンザッツ、150 回の反復で十分であると推定された。最終損失は 5.12×10−5であった。2つ目は、減衰調和振動子で、線形2次常微分方程式である。5 量子ビット、深さ5のアンザッツ、525 回の反復が必要と推定された。最終損失 2.69×10−3が得られた。
3つ目は、非線形1階常微分連立方程式である。物理的には、亜弾性領域における材料の1次元変形を記述した方程式である。亜弾性とは、非線形でありながら可逆な、応力-歪関係を指す。4 量子ビット、深さ 3 のアンザッツ、400回の反復で実行した。最終損失は 1.05×10−3であった。
【5】考察
(1) 状態準備や読み出し、データ・ローディング問題などは、量子計算全般の課題なので、本論文やホワイトペーパーで取り扱う問題ではないという立場(であろう)。非線形偏微分方程式を実機で実際に解けた、という1点で意味はあるのだろう。
H-DESが(初めて)偏微分方程式を解けた(収束した)理由の一つは、浅い量子回路で導関数(偏微分方程式)を表現できるからであり、チェビシェフ多項式を使ったスペクトル法を採用したためであろう。別の言い方をすると、【2】(2)❶㈡で示したアルゴリズムを起点として、浅い回路で導関数を表現できるように工夫した結果がH-DESと言えるだろう。
残る疑問点としては、「㊀非ハミルトン性の問題は解決したことになるのか、㊁不毛な台地は、どう考えているのか」である。
(2) H-DESが偏微分方程式を解けたもう一つの理由は、オプティマイザーであろう。変分アルゴリズム全般においてオプティマイザーは重要であり、H-DESでも、オプティマイザーは重要な役割を果たした。量子シミュレータで十分だったBFGSが、実機では機能しなかったのであろう。CMA-ESに変更している。そして、実機の特性に合わせて、ハイパーパラメータをゴリゴリにチューンしたようである。このチューンは、どれくらい問題dependなのか、気になるところではあるだろう。CMA-ESでは十分でないケースもあるだろう。CMA-ES自身、計算量が多く高次元向きではないという性質もある。
ただ、量子優位性は、特定ケースにのみ発生することを受け入れれば、そのケースを特定して、特定ケースにチューンするノウハウを蓄積すれば良い、という現実的・合理的考え方はありだろう。
(3) チェビシェフ多項式の表現力を高める(近似誤差を減らす)という量子化メリットに加えて、「KANは時間がかかる」という欠点を量子加速でカバーできれば、H-DESの魅力が増すだろうか。実際、どの程度の時間を要したのかを示して欲しかった。
(4) ホワイトペーパーでは、(非粘性)バーカース方程式止まりである。今後、H-DESを拡張して、確率方程式(→金融?)と積分微分方程式をサポートする予定らしいが、エンジニアリング分野では、ナヴィエ・ストークス(NS)方程式を解きたいところだろう。ただし、NS方程式は鬼門である(故に、格子ボルツマン法にpivotしているという見方ができる)。偏見かもしれないが、NS方程式かつRe>2,000(つまり乱流領域)で、結果が出て初めて称賛されるべき、と思われる。
もっとも、「残差ベースの注意(RBA)に基づく重み更新スキーム」や人工粘性率を導入することで、良い結果が出ている(☛こちらを参照)から、工夫次第では、期待できるかもしれない。
量子化学計算(分子の電子状態計算)は、量子コンピューターが量子優位性を「確実に」示すことができる唯一のアプリケーションと目されている。ただし、量子優位性を示せる量子コンピューターとは、誤り耐性量子コンピューター(Fault Tolerant Quantum Computer:FTQC)であり、「現時点(25年春)で使用可能な」、NISQマシンではない。故に、米Psi Quantum(光方式のFTQC開発スタートアップ)のようにFTQCが完成するまで、ひたすらハードウェア開発に邁進するという企業も存在する。とはいえ、ほとんどの量子界隈企業は、NISQマシンでも使えることをアピールする道を選んでいる。
NISQマシンで使用される量子化学計算向け(ハイブリッド)量子アルゴリズムは、4つに大別されると思われる:一つ目は、変分量子アルゴリズム❚補足1❚。2つ目は、量子位相推定法の亜種❚補足2❚。3つ目は、虚時間発展法❚補足3❚。4つ目が、QSCI法である🐾1。韓国量子コンピューティング・スタートアップQunova Computingは、「化学的精度🐾2を達成する、計算効率が高いハイブリッド量子古典アルゴリズムを開発した」と主張する論文[*179](以下、本論文)を発表した(25年3月16日(ver2)@arXiv)。なお、本論文のアルゴリズムHI-VQEは、VQE=変分量子アルゴリズムではなく、QSCI法である。
🐾1 QSCI法(☞【2】(3))は、日本のQunasysが開発した。
🐾2 化学反応を定量的に議論できる計算精度という意味で、1.6×10-3Ha(ハートリー)以下の誤差を、化学的精度と呼ぶ。誤差とは、厳密解と計算結果との差異である。
❚補足1❚ 変分アルゴリズム(Variational Quantum Algorithm:VQA)の割合を極力減らし、古典アルゴリズムを極力活用するというスタイルが流行りである。代表例として、マイクロソフト(Azure Quantum)による”化学系のエンドツーエンド量子シミュレーション(24年9月9日@arXiv)[*180]があげられる。「DFT╏古典コンピューター」+「VQE╏NISQマシン」+「古典的シャドウ╏古典コンピューター」という枠組みで実行する。量子薄め・古典濃いめという思想は、HI-VQEも共有している。
❚補足2❚ 量子位相推定(Quantum Phase Estimation:QPE)法は、量子逆フーリエ変換において多数のゲート操作が必要となるため、FTQCでなければ実行不可能とされる。しかし、QPEの亜種である 反復量子位相推定(IQPE)法は、「多くのサンプルを犠牲にして”浅い回路を使用する”ため」NISQマシンでも実行可能である。IQPE法にもベイジアン量子位相推定法などの亜種が存在する。米クオンティニュアム(H/Wスタートアップ:トラップイオン)が、しばしば用いている。
日本でいうと、慶應大学・富士フィルム・blueqatが、IQPE法を使って「ベンゼン、クロロベンゼン、ニトロベンゼン」の量子化学計算を実行している(24年12月3日)[*181]。
❚補足3❚ 日本のQuemix・旭化成・東京大学・量子科学技術研究開発機構は、「ウルツ鉱型窒化アルミニウムにおけるスピン欠陥のスピン1重項状態」の計算に確率的虚時間発展法(PITE)を使用した(論文[*182]発表は25年3月10日)。本研究も、量子アルゴリズムを適用する範囲を、上手く制限することで、全体の計算を成立させている。PITE法は2次加速を保証するが、多数のゲート操作が必要であり、本来FTQCが必要である。本研究は、量子誤り検出符号をつかうことで、その問題をクリアしている。
【1】本論文の主張
本論文は、以下を主張する:
「化学的精度を達成するハイブリッド量子古典アルゴリズムの効率を高めた」。
これを、本論文では以下のように表現している(。表現内容に嘘はない)が、(不正競争防止法的な意味合いで、)文言の選択に問題があるように思われる(☞【3】(1))。
(1) HI-VQEは、化学的精度を達成する(☞【4】(2)及び(3))。
(2) HI-VQEは、電子配置を効率的に選択できる(☞【4】(1))。
【2】事前整理
以下、量子化学計算に用いられる計算法について、簡単に整理する。
(0) 分子軌道法と密度汎関数理論
量子化学計算は、 分子軌道(Molecular Orbital:MO)法と密度汎関数理論(Density Functional Theory)に基づく計算に大別される。ハートリー・フォック法は、MO法に属する。DFTによる計算は、第一原理計算の一つであるが、しばしば同一視される(ほど代表的な存在)。
(1) ハートリー・フォック(HF)法とポストHF[*183]
HF法は、「全波動関数🐾3を、占有軌道のみからなるスレーター行列式で近似(ハートリー・フォック近似)し」、「1つの電子が受ける相互作用の大きさの表現に、平均場近似を用いる」非相対論的近似解法である🐾4。HF法における誤差の主因🐾5は、電子相関効果が考慮されていないことである。HF法では、電子相関効果が考慮されていないため、化学的精度(化学反応の再現に必要な精度)が得られない、と認識されている。
HF 法に電子相関効果を考慮した修正法を、ポストHF法と呼ぶ。ポストHF法は、ハートリー・フォック近似を堅持する。その上で、スレーター行列を「いい感じに、いじる」というアプローチを採用する。ポストHF法は、変分法、摂動法❚補足4❚、またはその組み合わせがベースとなる。変分法を用いたポストHF法の代表例は、配置間相互作用(Configuration Interaction method:CI)法である。
🐾3 多電子系ハミルトニアンの固有関数。
🐾4 そもそも量子化学計算という箇所で、ボルン・オッペンハイマー近似は適用される。
🐾5 近似解法なので、近似誤差は当然存在する。故に、主因には含めていない。また相対論的効果を考慮する必要がない場合を考えれば、HF法が非相対論的であることに起因する誤差は生じない。故に、主因に含めていない。
❚補足4❚ 摂動法を用いたポストHF法の例として、結合クラスター(CC)法、Møller-Plesset(メラー・プレセット)摂動(MP)法があげられる。CC法は、摂動を1電子励起+2電子励起で打ち切った場合、CCSD法と呼ばれる。3電子励起まで考慮した場合は、CCSD(T)法と呼ばれる。MP法は、摂動を打ち切る次数に従って、MP2法、MP3法・・・と呼ばれる。
(2) CI法、FCI(Full-CI:完全配置間相互作用)法及びCASCI(CAS:完全活性空間配置間相互作用)法
HF法は占有軌道のみを考慮して、スレーター行列を構成した。非占有軌道まで考慮すると、理屈上、全てを考慮したことになるから、電子相関を(少なくとも一部は)取り込むことができるだろう🐾6。占有軌道のみから成るスレーター行列式は基底配置、占有軌道と非占有軌道から成るスレーター行列式は励起配置とも呼ばれる。基底配置、第1電子励起配置、第2電子励起配置・・・を線形結合することで、スレーター行列式を拡張する。このときの線形結合係数を、エネルギーが最低になる(=量子状態が最も安定する)ように決め(て電子相関を考慮す)る方法を、配置間相互作用(CI)法と呼ぶ。全ての励起配置を考慮する場合が、FCI法である。言わずもがな、FCI法は、簡単な分子を除いて(組み合わせ爆発のため)実行不可能である。1電子励起配置まで考慮する方法をCIS法、2電子励起配置まで考慮する方法をCISD法と呼ぶ。
CASCI法は、完全活性空間近似を施したFCI法である。活性空間とは、”重要な”分子軌道を要素とする空間である。ここで言う”重要”は、恣意的かつ曖昧であることに注意。完全活性空間とは、活性空間において、活性軌道は全て含める、という意味である。活性軌道とは、2個とは限らないが、電子を含む軌道という意味である。電子を2個含む軌道はコア軌道、電子を全く含まない軌道は仮想軌道と呼ばれる。
FCI法は実行不能なので、CASCI法による結果を量子化学計算のグランドトルゥースとすることは妥当と言えるのだろう。
🐾6 寸法がややおかしいなことになっているが、「電子相関とは、厳密解とHF解との差」と定義されている。厳密解と近似解(今の場合、HF解)との差は、電子相関以外の要因にも起因しているから、全ての非占有軌道を考慮しても、厳密解との差は0にはならない(はず)。
(3) SCI(Selected CI:選択的CI)法とQSCI(Quantum SCI:量子SCI)法
SCI 法は、量子化学計算の分野において、FCI法の計算規模を削減する手段として考案された。多くの分子系における基底状態は、系で取り得る電子配置の中で、一部の重要な電子配置の重ね合わせのみを考慮することで、十分に近似できるという事実を利用している。ただし、この「重要な電子配置を効率的に選択する」ことは、未解決の問題である。先走ってザックり言うと、本論文は、この「重要な電子配置を効率的に選択する」部分にアイデアを提示した論文である。
SCI法を量子版であるQSCI法には、2つの側面がある。一つは、「量子技術を使って、 重要な電子配置の選択問題を解決する手法」という側面である。QSCI法は、日本のQunasysが2023年に提案した[*184](論文@arXivは[*185])方法であり、サンプリング・ベースで効率的な選択を行う🐾7。具体的に言うと、量子コンピューター(以下、NISQマシン🐾8)上に準備した、近似基底状態への測定を繰り返す(サンプリングする)ことで、重要な電子配置の選択を行う。もう一つは、NISQマシンで使用できる、VQA(変分量子アルゴリズム)以外のアルゴリズム(を作りたいという意識の下、考案された)という側面である。QSCI法は、VQEよりもさらに古典計算の割合を増やすことで、VQEの課題を克服しようとする。VQEの課題とは、不毛な台地に代表される学習可能性の問題を指す。
NISQマシン上で準備された状態が、基底状態の良好な近似を形成する場合、このサンプリング・プロセスは、基底状態を近似するための重要な電子配置を生成することができる。次に、アルゴリズムは、ハミルトニアンを”重要な”電子配置によって形成された部分空間に射影し、結果として得られる部分空間ハミルトニアンを古典的に対角化して、部分空間内の正確な基底状態を取得するという、典型的な SCI の方法で続行する。近似基底状態(VQE 計算の結果など)は、重要な電子配置をサンプリングする可能性を高めるために、QSCIで量子状態として使用される。
本論文は、「QSCI法はサンプリング効率が低く🐾9、膨大な数の量子測定が必要になるという懸念が高まっている」と指摘する。本論文で提案されているHI-VQEは、測定数を大幅に減らすことで、結果として、重要な電子配置を効率的に選択できる、とされる。
🐾7 一般に、古典デバイスで、量子状態を効率的にサンプリング生成することは難しい。
🐾8 NISQ=Noisy Intermediate-Scale Quantum。言わずもがな、量子誤り訂正が施されていない(ので、論理量子ビットではなく物理量子ビットを使って計算を行う)量子コンピューターである。
🐾9 サンプリング効率が低いという問題は、系の基底状態に非常に近い状態から、サンプリングが実行される場合に発生する、ことが指摘されている。
(4) HCI法とSHCI法
本論文では、HI-VQEに対するベンチマーク・モデルの一つとして、SHCI法が選択されている。本論文で引用されている論文[*186]では、SHCI法は、Semistochastic Heat-bath Configuration Interaction(半確率的HCI)法である。ところが、本論文ではSHCI法は、Stochastic HCI(確率的HCI)法となっている。本論文は、誤植が多いから、単純な間違いであろう。つまり、SHCI法は、半確率的熱浴サンプリング配置間相互作用:HCI)法ということになる。
先走って言うと、HCI法はSCIの改良版で、SHCIはHCIの改良版である。故にSHCIは、SCIの改良版2.0と表現できるだろう。一方で、HI-VQEは、SCIの量子版であるQSCIの一種である(VQAではない☞【3】(2)0⃣)から、SCIの改良版2.0と言って良いだろう。つまり、HI-VQEとSHCIの比較は、ある意味、妥当と考えられる。
閑話休題。前述の通り、HCI法は、処理速度と精度を高めた、SCIの改良アルゴリズムである。具体的には、サンプリング・アルゴリズムが改良され(熱浴サンプリング)、変分エネルギーに摂動補正が導入されている(らしい)。(1)で既述した「ポストHF法は、変分法、摂動法、またはその組み合わせがベースとなる」のセオリーで言うと、変分法と摂動法の組み合わせに相当する。SHCI法[*187]は、サンプリングを改良(エイリアス法を使用して、連続するサンプル間の相関を回避)、HCI法における摂動補正を実行する際のメモリボトルネックを排除したアルゴリズム(らしい)。HCI法より、処理速度(ウォール・クロック時間=経過実時間で測定)及び精度をさらに高めたとする。
【3】HI-VQEの詳細
(1) 概要
HI-VQEは、QSCI法にインスパイアされた、量子古典ハイブリッド・アルゴリズムである。量子薄め・古典濃いめのQSCI法であり、部分的に脱量子化されたQSCI法と言っても良いかもしれない。マーケティング的観点からブランドが確立されているVQEという文言を使ったのであろう。
(2) 概要の追補と古典的拡張
0⃣ HI-VQEは VQAではないという認識が重要である
HI-VQEは、変分量子アルゴリズム(variational Quantum Algorithm:VQA)ではない。変分法であるVQA(VQEでも同じ)は、レイリー・リッツ商を最小化することで、対象としているハミルトニアンの基底状態(最小固有状態)を求めるアルゴリズムである。なぜ、その枠組みが機能するかというと、「エルミート行列と非零ベクトルから構成されるレイリー・リッツ商の最小値は、当該エルミート行列の最小の固有値に等しいことが数学的に証明されている」からである。故に、レイリー・リッツ商の最小化することが、基底状態の探索に結びつく。
VQEの文脈におけるレイリー・リッツ商を構成するエルミート行列は、対象としているハミルトニアン(行列)である。非零ベクトルは(真の)波動関数であるが、試行関数で近似する。試行関数とは、有限なヒルベルト空間で表現した(真の)波動関数の近似関数である。VQEは、量子コンピューター(NISQマシン)上でレイリー・リッツ商を計算し、その(測定)値を古典コンピューターに送る。HI-VQEは、レイリー・リッツ商の計算を古典コンピューターで行う。HI-VQEは、サンプリングにのみ、NISQマシンを使う。従って、HI-VQEは、VQEではないと考えられる。
1⃣ 補遺
HI-VQEは、簡単に言ってしまえば、(1)でも述べたように、”遅い”量子デバイスの作業割合を極力減らし(=薄めにし)、”速い”古典デバイスの作業割合を可能な限り増やして(=濃いめにして)、全体の高速化・効率化をあげる手法である。もう少し丁寧に説明すると、HI-VQEでは、NISQマシン上に準備された量子状態の測定(サンプリング)を、"わずか数回”実行して、基底状態セットを取得する。このとき、サンプリングの結果が基底状態に近いことは意識しない。そのようなサンプリングを行った場合、最終的に、正確な基底状態波動関数が生成できることは保証されないが、それは古典的な手段(古典的拡張🐾10)でカバーする。
さらにHI-VQEでは、サンプリングにのみNISQマシンを使うので、不毛な台地などの VQEにおける学習障害は緩和される。
🐾10 classical expansionを訳した。正式な訳語ではない。
2⃣ 追加の数理的な説明
以下、重要な電子配置のみで構成される部分空間をCとする。HI-VQEで、Cを探索する途中の試行部分空間をC’とする。HI-VQEでは、NISQマシンを使用して C′ を構成する量子状態を生成し、古典コンピューターを使用して多体系ハミルトニアンℌを C′に射影して得られる、部分空間ハミルトニアン行列の対角化を実行する。これにより、古典コンピューターを使って、試行部分空間C′内の近似基底状態と、近似基底状態のエネルギーが得られる。
エネルギーは、最適化が収束したかどうかを判断するために使用される。収束していれば、そこで計算は、終了である。収束しなかった場合は、C’内の近似基底状態の「振幅」を使用して追加のスクリーニング・プロセス『古典的拡張』を実行して、C′内の電子配置を補完する。ここで言う「振幅」とは、真の波動関数を試行波動関数で展開したときの展開係数である。展開係数はソートされ、設定されたしきい値(たとえば 1×10-6)を下回る展開係数を持つ電子配置(=重要度が低い電子配置)は、部分空間から除外される。これにより、部分空間をコンパクトに保つことができ、古典的な対角化ステップのコストが削減される。
3⃣ 古典的拡張
古典的拡張の目的は、サンプリング・ステップで見逃された可能性のある、簡単に取得できる配置を含めることである。まず、サンプリング・ステップで見逃された電子配置の中で、振幅が最大である電子配置|ϕref⟩を取得する🐾11。そして、全ての可能な1励起配置及び2励起配置{|ϕi⟩}が、|ϕref⟩から生成される。
次に、⟨ϕref|ℌ|ϕi⟩を『古典的に』計算する。{|ϕi⟩}内のm番目に大きい⟨ϕref|ℌ|ϕi⟩を持つ電子配置のみが部分空間C’に追加される。この”パラメータm” の値は、HI-VQEの開始前に指定される。ちなみに、mは大きい。サイズ感として、少なくとも、千とか万である。
最後に、古典的オプティマイザーが回路パラメーター θ を更新して計算された部分空間のエネルギーを下げ、収束が達成されるか、その他の定義済みの終了基準が満たされるまで、このプロセスが繰り返される。
🐾11 HF計算の結果を使う。
【4】比較結果
HI-VQE計算は、IBM Quantumで利用可能なNISQマシン実機を使用して実行する。
(1) ここでは、HI-VQEが「効率的に電子配置を選択できる」こと他を示す
1⃣ まとめ
ここでは、以下のことが示される:
⓪ ざっくり、HI-VQEは、機能する。
① スケーリング則が成立する(☞3⃣㈠参照)。
② 効率的に電子配置を選択できる(☞3⃣㈡、及び㈢参照)。
2⃣ セットアップ
気相の単一アンモニア分子(10e,15o)を対象として、電子相関エネルギーを計算した。(10e,15o)とは、電子数が10、原子軌道の数が15であることを意味する。ここで言う電子相関エネルギーとは、ポストHF法で計算した基底状態のエネルギーと、HF法で計算した基底状態のエネルギーとの差である。軌道数が15なので、NISQマシンは、15×2=30量子ビットを使用した(1つの原子軌道には、スピン量子数が異なる2つの電子が入ることができるから)。
ポストHF法として、制限ハートリー・フォック(RHF)法🐾12、SHCI法、HI-VQE、CASCIを選択した。ただし、CASCIはグランドトルゥースである。RHF法は、6-31G 基底🐾13を用いている。HI-VQEは、パラメーターm(☞【3】(2)2⃣参照)を3パターン用意して実行した。具体的には、m=2×103、2×104、2×105を設定した。
🐾12 本論文の文脈では、RHF法とHF法を殊更区別する必要はないだろうが、閉殻であることを明示する場合は、RHF法と呼ばれる。閉殻とは、原子軌道に上向きスピンと下向きスピンの電子がペアとなって入っている場合を指す。出所:https://pc-chem-basics.blog.jp/archives/296303.html
🐾13 原子殻2倍基底関数系と呼ばれる基底関数の一つ。6-31Gは、内殻軌道を6個のガウス関数として、原子価軌道を、内側と外側とで、それぞれ3個と1個のガウス関数として分けて表現していることを示す。出所:http://molecules.a.la9.jp/modeling/basis%20set.html
3⃣ 結果
ざっくり言うと、HI-VQEは化学的精度を達成できる。RHF法より精度が高い。これらの結果から、HI-VQEは機能すると結論して良いだろう。※そのような評価が、本論文で行われているわけではない(が、そう言えるだろう)。
㈠ ①で述べたスケーリング則が成立するとは、HI-VQEは、mを大きくする(2×103→2×105)と、正解(CASCIの結果)に収束していくことを指している。※本論文に、「スケーリング則が成立する」という文言が登場しているわけではない(が、そう言えるだろう)。なお、m=2×104で、ギリギリ化学的精度(1.6×10-3ハートリー)に足りない。
SHCI法との比較という意味では、SHCI法の方が精度が高い(正解=CASCIの結果に近い)。
㈡ HI-VQEが効率的に電子配置が選択できたことを定量的に示すために、スレーター行列式の数を評価指標として採用している。化学的精度は、m=2×105で越えるが、その場合の行列式の数は、およそ20万(正確には199,809)である。同程度の精度であるSHCI法の行列式の数は、176万(正確には、1,759,358)である。つまり、およそ1/9である。
なお、CASCI行列式の数は、およそ900万(正確には、9,018,009)であるから、HI-VQEは、およそ1/45ということになる。
㈢ 効率的に電子配置が選択できたことを定量的に示すために、別の指標を取り上げた。その指標は、化学的精度に達するために、HI-VQEが完全活性空間(CAS)を探索した割合である。HI-VQE は、CASの2.22%で化学的精度に到達した。
(2) 化学エネルギーの計算を高精度で実行できる
1⃣ まとめ
ここでは、以下のことが示される:
① HI-VQEは、結合距離が長い場合においても、化学的精度を達成する(☞3⃣)。
② HI-VQEは、CASCIによるPES(グランドトルゥース)を再現できる。
2⃣ セットアップ
Li-S結合切断プロセスにおける化学反応エネルギーを計算した。Li-S 結合切断プロセスは、バッテリー技術の開発で重要な役割を果たす。具体的には、硫化リチウム(Li2S)(12e,12o)の結合解離ポテンシャルエネルギー面(PES)を計算した。PESは、化学反応を理解する上で、重要な情報を提供する。
HF法とHI-VQEとを比較している。CASCIがグランドトルゥース。軌道数が12なので、NISQマシンは、12×2=24量子ビットを使用した。
3⃣ 結果
結合距離が5Åでも、化学的精度を十分に達成している。HF法は、結合距離が短くても、化学的精度を達成できない。
(3) 新しい発見を示唆
1⃣ まとめ
ここでは、以下のことが示される:
① HI-VQEは、結合距離が長い場合においても、化学的精度を達成する。
② HI-VQEは、CASCI-DMRG❚補足5❚によるPES(グランドトルゥース)を再現できる。
③ HI-VQEは、0.25Ha(ハートリー)だけで解離が可能であることを示唆する(☞3⃣)。
2⃣ セットアップ
窒素分子N2解離における化学反応エネルギーを計算した。具体的には、N2(14e,20o)の結合解離ポテンシャルエネルギー面(PES)を計算した。
HF法とHI-VQEとを比較している。CASCI-DMRGがグランドトルゥース。軌道数が20なので、NISQマシンは、20×2=40量子ビットを使用した。
3⃣ 新しい発見?
結合距離1.1Åと2.5Å のエネルギー差比較において、HF法では、結合解離はほぼ1Haで発生する(1.1Åと2.5Åにおけるエネルギー差が1Ha)。一方、HI-VQE は 0.25 Ha だけで解離が可能であることを示唆している(1.1Åと2.5Åにおけるエネルギー差が0.25Ha)。
❚補足5❚ 窒素分子のPES計算をCASCIで行うには、およそ60億(正確には6,009,350,400)の行列式が必要になる。この膨大な行列式を持つ完全な行列を保存して、対角化するには膨大なメモリが必要になる。結論として、CASCIを実行できなかった。そこで、代わりに CASCI-DMRGを使用してエネルギーを計算した。簡単に言うと、テンソルネットワークを使って、活性空間を上手く制限して上で、CI計算を行った。なお、DMRG=Density Matrix Renormalization Group:密度行列繰り込み群法である。
【5】考察
(1) 本論文は、HI-VQEを量子優位性という文脈では捉えていない(と思われる)。QSCIが機能不全を起こす可能性があるので、回避策を提案したという位置付けであろうか。[*185]にもある通り、VQEが化学的精度を達成しえないわけではないが、達成が難しいことは確かだろう。HI-VQEをVQEの亜種であるように印象操作をして、”化学的精度を達成した”と喧伝すると、不正競争防止法的な意味で、適切ではないと思われる。
(2) [*185](2023年2月22日公開)には、「QSCIの古典的な対応物は、モンテカルロ配置間相互作用法(MCCI)と呼ばれる。MCCIは1995年の提案以来、広く研究されていないようであり、MCCIのより洗練された(古典的な)確率分布の使用は、まだ検討されていない。古典的に扱いやすい確率分布をMCCIに使用し、QSCIと比較/結合することは興味深い将来の研究であろう」と書かれている。
つまり、HI-VQEと同程度のことが、MCCIで(古典的に)達成される可能性は残されているということであろう。
キラー量子アプリケーション四天王🐾1において、量子優位性を実現するという意味を含めて視界良好なのはシミュレーション❚補足1❚だけで、機械学習は、最も視界不良と言えるだろう。量子特徴量×量子カーネル法×特定領域で、何らかの違いが出せるかもしれないというのが現状であろう。計算複雑性・サンプル複雑性での量子優位性実現は難しく❚補足2❚、「予測誤差が小さい」という意味での量子優位性の実現は、可能性が残されていると思われる🐾2。
米国の量子スタートアップQognitiveは、そのような状況を鑑みて『量子機械学習には、重要な何かが欠けているのではないか?』という問題意識をもっており、新しいフレームワークを提案している(ポジション・ペーパーとして[*188])。Qognitive他🐾3の研究者が英 scientific report誌に投稿した論文[*189](以下、本論文、25年2月26日付け)は、この新しいフレームワークを使って、「量子機械学習は、ノイズに対する堅牢性という優位性がある」と主張する論文である🐾4。
この新しいフレームワークは、量子幾何学(☞【2】(3))及び量子認知機械学習(☞【2】(4))で使用されるアイデアを取り込んだもので、本論文では、QCMLと呼ばれている。ただ、QCMLはQuantum Cognition Machine Learning(量子認知機械学習)を略した単語と思われる。つまり、汎用的な名称の略語と一致しており、ややこしい。本稿では、QCMLは「本論文で提案されている手法」とする。
🐾1 シミュレーション、機械学習、最適化、暗号解読。
🐾2 自律型AIやフィジカルAIといった、次世代型人工知能に対して、量子技術が何らかの違いを生み出す、というアプローチもありうるだろう。
🐾3 米ウェイン州立大学、米ニューヨーク州立大学ストーニーブルック校、米コーネル大学、英キングス・カレッジ・ロンドン、米マサチューセッツ工科大学
🐾4 他には、量子認知機械学習を使って、財務予測を行った論文[*190]を発表している。古典的NNを使った予測よりも、予測誤差が小さいとする。
❚補足1❚
量子優位性はFTQC(誤り耐性量子コンピューター)を前提とする。量子優位性を実現するという意味で視界良好な、産業応用上の実例として、「古典系の偏微分方程式を特定のケースで、指数加速で解ける」ことが示されている(☛こちらを参照)。
NISQでも「違いを生み出せる」という意味で視界良好な例としては、以下があげられるだろう:物性シミュレーションや量子化学計算では、”遅い”量子計算を最小限に抑えたハイブリッド・アルゴリズムを使えば、NISQでも「違いが生み出せる」ことが示されている(例えば、☛こちらを参照)。解くべき問題を量子回路にネイティブに実装できる場合、いわゆるデジタル・アナログ量子コンピューティングというアプローチも、「NISQで違いが生み出せる」と考えられている(☛こちらを参照)。また、古典系の一般的な非線形偏微分方程式を、NISQで解くことにも成功している(☛こちらを参照)。
❚補足2❚
量子機械学習における量子優位性実現の現状については、☛こちらを参照。★「観察された量子優位性が、慎重なハイパーパラメータの選択、ベンチマーク、および比較のみに起因するのか(つまり、見かけ上か)、それとも根本的な構造上の利点があるのかどうかは不明である」という指摘が、重要である。なお、実例2件を【6】にて追加している。内1件(テラ・クォンタムの肝生検画像の二値分類タスク)は”著名な例”らしい。
量子強化学習については、☛こちらを参照。学習速度と精度を低下させず、パラメータを削減できるケース(アプリケーション)は、極めて限定的と考えられる。
「気候変動における量子機械学習の成果」は、☛こちらを参照 ⇒ 量子>古典という結果が意外に多いものの、上記指摘★に十分留意する必要があるだろう。量子<古典という結果もある。
【1】本論文の主張
本論文は、以下を主張する:
本論文で提案する手法QCMLは、「ノイズに対して堅牢な、固有次元🐾5の推定」が可能である。
🐾5 【2】(2)を参照。
【2】事前整理
(1) 多様体学習[*191],[*192],[*193]
1⃣ 多様体仮説
極めて粗っぽく、多様体学習を説明すると、「多様体学習とは、非線形主成分分析である」となるだろう。少しだけ汎用的な言い方に変えると、非線形次元削減方法だろう。大前提として、データは、高次元空間に埋め込まれた低次元データという体裁にする。そういうテイが成立する根拠は、「重要なデータは、何時いかなる時も、多様体の表面に存在する」という、「多様体仮説」である。多様体学習は、多様体仮説信仰の上に成り立っている。
2⃣ 特徴の継承
非線形とは、高次元空間における本質的な情報(特徴)を保持したまま、低次元空間にも承継させる、という意味である。最もポピュラーな本質的な情報には、高次元空間における「データ点間の距離関係」が上げられる(☞4⃣㈠)🐾6。ただし、この場合の距離は、ユークリッド距離ではなく、測地線距離である。つまり、曲がった空間上の距離を考える。なぜ、曲がった空間を考えなければいけないなのかというと、低次元空間に埋め込まれた状況を考えているからである。その意味で言えば、「折り畳まれている」でも良いのだが、折り畳まれている状況を数学的に考慮するためには、高級な道具が必要となるだろう🐾7。
残念ながら、低次元空間に埋め込まれた状況は多くの場合、低次元空間に「折り畳まれている」ことが一般的らしい。それ故に、次元削減は、数学的に難しいということらしい。
🐾6 他の本質的な情報として、重み(☞4⃣㈡)やラプラシアン(☞4⃣㈢)がある。
🐾7 例えば、カオス理論を使うというアプローチが考えられるだろう(☞🐾11)。
3⃣ 多様体学習において多様体が登場する動機
多様体は、言うまでもなく、数学的概念である。数学的には、微分構造が導入された位相空間が欲しい(微分可能な舞台が欲しい)という動機で、多様体(可微分多様体)が登場する。この建て付けでは、しばしば、「多様体は、局所的にはユークリッド空間である」という補助線が提示される。
多様体学習における多様体に、数学的に便利な構造が備わっていて欲しいという動機は本来、存在しない🐾8。あくまで、動機は次元削減である。機械学習寄りの文言を使うと、特徴量抽出を行うことが動機となる。そのために、「N次元の多様体は、N次元のユークリッド空間に埋め込むことができる」ことを利用しているに過ぎない🐾9。多様体学習における多様体は、データ多様体と呼ばれる始末である🐾10。正方形内部に円を描ける(埋め込める)し、立方体内部に球を描ける(埋め込める)。円は2次元多様体であり、球は3次元多様体である。
🐾8 数学的に便利な構造が備わっていて欲しいという動機がないにしても、数学的に便利な構造が備わっている多様体を使うと、様々なことが自由にできる。距離だけなら位相空間で十分であるが、代数(線形結合☞4⃣㈡)や微分(ラプラシアンの計算☞4⃣㈢)を行いたい場合、数学的には多様体である必要がある。
🐾9 N次元の多様体をN次元のユークリッド空間に埋め込むことができるのであるから、Nより小さいn次元多様体をN次元のユークリッド空間に埋め込むことは容易である。
🐾10 データ多様体は、高次元ユークリッド空間に埋め込まれた、より低次元の多様体であるが、実際に扱いたい幾何学的対象は、データ多様体の『表面』である。つまり、さらに次元数が1つ下がった幾何学的対象である。
4⃣ 代表的な多様体学習の手法
㈠ Isomap(等長特徴量写像)は、以下のステップを経る:
㊀ 各データ点のk近傍を選び、連結グラフを生成する。
㊁ エッジの距離(測地線距離)を使って、距離行列を作成する。
㊂ 距離行列に多次元尺度構成法を適用し、低次元空間を構成する。
㈡ Locally Linear Embedding(局所的線形埋め込み)は、以下のステップを経る:
㊀ 各データ点のk近傍を選び、各データ点をk近傍点の線形結合で近似する。
㊁ 最小となる線形結合係数(重み)を決定する。つまり、最適化問題を解く。
㊂ 最小重みが保持されるように、低次元のデータ点を探索する。
㈢ Laplacian Eigenmap(ラプラス固有マップ)は、以下のステップを経る:
㊀ 各データ点のk近傍を選び、連結グラフを生成する。
㊁ 隣接行列を重み行列とする。
㊂ 連結グラフと重み行列から、ラプラス行列を生成する。
㊃ ラプラス行列を用いた一般化固有方程式を用いて、低次元空間を構成する。
(2) 固有次元推定法[*194],[*195]
固有次元(intrinsic dimension)とは、重要な情報を失うことなく、データセットを正確に表現するために必要な最小限の変数の数を指す。固有次元の推定は、多様体学習の一部だと見做しても良いだろ。次元削減を実行するにあたっては、固有次元の推定が有用らしい。
固有次元の推定法には、CorrInt🐾11、お馴染みの最尤推定法を始め、DANCo(Dimensionality from Angle and Norm Concentration)🐾12、TwoNN🐾13などがある。これらの手法は、「データ点xから一定の半径r以内にある近傍点の密度に関する統計量を測定し、これらの統計量を固有次元の関数として表現する」。これらの手法はデータについて線形性を仮定しないが、任意の点の周囲に小さなパッチ状にデータが密集していることを前提とする。
本論文は、「この要件は、次元の呪いと根本的に矛盾する」と批判する。次元の呪いは通常、多様体の次元数dが、サンプルサイズの対数よりも大きい場合に発生する。実際、上記の手法は、dがサンプルサイズに対して大きい場合に、固有次元を過小評価する傾向がある。ノイズによって引き起こされる過大評価効果と、次元の呪いによって引き起こされる過小評価効果が組み合わさると、信頼性の低い固有次元推定値が得られることが多い。
本論文で提案する手法は、「データの近傍サンプリングに基づくのではなく、データセット全体からの大域的な情報を含む局所的な固有次元推定値を生成する」というアプローチを採用することで、信頼性の高い固有次元推定値が得られる、とする(☞【3】(2)3⃣)。
🐾11 CorrIntは、Correlation Integral(相関積分)の略(原論文[*196]では明示はされていないが自明)。相関次元(フラクタル次元)を求めるというアプローチである。原論文[*194]は元々、(カオスが発生する力学系の)ストレンジ・アトラクタを対象としているものの、「高次元空間に埋め込まれた低次元の複雑に分布する」一般的なデータ列に対して、同じアプローチが適用可能である。
🐾12 近傍点の距離に加えて角度も使うことで、堅牢な固定次元推定を行う、とする[*197]。
🐾13 (第1)最近傍点と第2最近傍点のみを選択し、距離を用いて固定次元を推定する[*198]。
(3) 量子幾何学
1⃣ オリジナルの量子幾何学
ザックリ言うと、シンプレクティック多様体MをD次元ユークリッド空間へ埋め込む”関数”を量子化するというアプローチである。量子幾何学では、多様体上の滑らかな関数の可換代数C∞(M)は、N次元ヒルベルト空間上のエルミート作用素の非可換代数に置き換えられる。難しいことはさて置き、ヒルベルト空間を一旦経由して、多様体→ヒルベルト空間→ユークリッド空間という流れになる(はず)。
量子幾何学では、関数の可換代数がヒルベルト空間上のエルミート作用素の非可換代数に置き換えられる。従って、シンプレクティック多様体MをD次元ユークリッド空間へ埋め込む”関数”は、エルミート作用素(行列)に置き換えられる。N次元ヒルベルト空間上のD個のエルミート行列からなる任意の集合A = {A1,・・・,AD} は、本論文では、行列構成と呼ばれる🐾14。つまり、A={Ak}(k=1~D)が、シンプレクティック多様体MからD次元ユークリッド空間への埋め込みを表すようにできれば良い。それには、「シンプレクティック多様体上で成立しているポアソン括弧式が、同じように、ヒルベルト空間上では交換子括弧式として成立していること」を始めとして、いくつかの条件を満たす必要がある。つまり、オリジナルの量子幾何学では、量子力学による要請から、行列構成が与えられる。
🐾14 本稿では便宜上、matrix configurationの訳語として「行列構成」をあてた。もちろん、正式な訳語ではない(そもそも、存在しない)。
2⃣ データ解析の文脈における量子幾何学
データ解析の文脈では、多様体M はデータ多様体である。何らかの要請によってAは与えられるわけではなく、M の形状を可能な限り反映するように学習される、とする。なお、量子幾何学と量子認知機械学習は独立して開発されてきたが、本論文により、両者の関連性が指摘された(らしい)。
(4) 量子認知機械学習
量子状態の符号化としてハミルトニアン符号化を採用し、エルミート行列(の集合)を学習する機械学習モデルを、 量子認知機械学習と呼ぶ(らしい)。エルミート行列の集合は、本論文で、行列構成と呼ばれている。そのようなセットアップを採用する理由は、そうすることで、「表現の複雑さが対数的に削減されるから」らしい。
【3】QCMLによる固有次元推定器
(1) 概要
本論文では、データ多様体の固有次元推定は、スペクトル・ギャップの検出に基づいて行う。これは、データ多様体に接する方向と、データ多様体から離れて行く方向で、固有値が”デジタル的に”異なることから可能になる。ここで言う固有値とは、ヘッセ行列の固有値であり、ヘッセ行列はエネルギー関数から導出される。エネルギー関数は、ハミルトニアンの基底エネルギーである。(本論文でエラー・ハミルトニアンと呼ばれている、この)ハミルトニアンは、データ多様体上のデータ点xを引数として持つ。エラー・ハミルトニアンは、エルミート行列の集合{Ak}を使って生成される。
{Ak}は、ヒルベルト空間上の点(量子状態)をユークリッド空間に埋め込む(写像する)。ヒルベルト空間上の量子状態 は、データ多様体上のデータ点xをハミルトニアン符号化したデータ点である。エルミート行列{Ak}は、ユークリッド空間に埋め込まれた点が、データ多様体上の点であるように最適化学習される。従って、QCMLは、量子認知機械学習モデルということになる。
(2) 詳細
1⃣ 定量的な説明
QCMLの枠組みでは、以下のように固有次元を推定する。行列構成A={Ak}(k=1~D)から適当にハミルトニアンを構築すると、その基底状態エネルギー(エネルギー関数)期待値E0(x)が「データ点xが多様体Mから離れる方向では増加する」ようにできる。この増加は、(期待値を採ることから自然に)xとMとの間の距離の2乗に比例した増加である。一方、Mに接する方向では、xとMとの距離は一定のはずだから、E0(x)も、ほぼ一定のはずである。数学的にまとめると、xにおけるエネルギー関数のヘッセ行列は、以下①と②との間に、明確な🐾15ギャップ(スペクトル・ギャップ)を示すはずである。
① Mに接する方向に対応し、値が0に近く、個数が少ないd個の固有値
② Mから離れた方向に対応し、値が1に近く、個数が多いD-d個の固有値
したがって、スペクトル・ギャップの正確な位置を検出することは、Mの固有次元を推定することに相当する。
アルゴリズム上は、ヘッセ行列の行列要素の固有値を計算して、固有値が0に近い固有ベクトルの個数を数え上げることで固有次元が推定できる。ただし扱いやすさから、本論文では、ヘッセ行列の行列要素をそのまま使うのではなく、その一部を使う。それは、「量子計量」と呼ばれる。この量子計量は、データ多様体上のリーマン計量と見做すことができる。
量子計量の固有値を使ったスペクトル・ギャップを扱うことで、固有次元の推定は、「値が1に近い、個数が少ないd個の固有値」を数え上げる、という作業に変わる(と理解)。
🐾15 増加は、距離の自乗に比例するから(線形比例に比べて)、差は明らかになるはずである。
2⃣ 補遺1
データ多様体M上のデータ点xは、ヒルベルト空間上では量子状態|ψ0(x)⟩と表される。|ψ0⟩は、エラー・ハミルトニアンの基底状態である。|ψ0(x)⟩は、ユークリッド空間ℝDでは、(⟨ψ0(x)|A1|ψ0(x)⟩,・・・,⟨ψ0(x)|AD|ψ0(x)⟩)=A(ψ0(x))と表される。
3⃣ 補遺2
量子認知機械学習のオリジナルの定式化では、行列構成Aは、全データにわたる総エネルギー損失関数を最小化するように学習される。エネルギー最小化は、量子ゆらぎがゼロになるようにAを学習させることがあるが、その場合は、古典的な手法と同じ結果しかもたらさない(ので、量子化する意味がない)。
代わりに、本論文(QCML)では、平均二乗距離を最小化することにより、行列構成Aを学習する。この学習は、機械学習モデルで用いられるのと同様の勾配降下法を用いて効率的に行うことができる。
4⃣⃣ 補遺3
QCMLは、「データの近傍サンプリングに基づくのではなく、データセット全体からの”大域的な情報”を含む局所的な固有次元推定値を生成する」というのがウリである。本論文では、QCMLが行列構成A=エルミート行列の集合{Ak}を学習するというフレームワークであるために、「大域的な情報は、固有次元推定に自然に取り込まれる」と説明されている。
【4】評価結果
(0) 比較モデル及びQCMLの固有次元推定値
比較モデルは、CorrInt、最尤法、DANCo、Two-NNである。(1),(2)及び(4)で使用される。
改めて、QCMLの固有次元推定値について整理すると、以下のようになる:QCMLの枠組みでは、量子計量の固有値に大きなギャップが発現する。具体的には、0に近い固有値がD-d個存在し、1に近いd 個の固有値と明確に分かれる。ここでDは、元のデータセットの次元であり、幾何学的に述べると、多様体が埋め込まれるユークリッド空間の次元である。dは固有次元である。従って、1に近い固有値の個数を数え上げると、固有次元が推定できる。
(1) ファジー球面❚補足3❚
0⃣ セットアップ
データXが球の表面(つまり2次元球面)S2上に、均一に分布する2,500個の点である場合を考える。この場合、データ多様体Mは、 2次元球面S2である、3次元ユークリッド空間に埋め込まれている。データには、ノイズが含まれることを許容する。つまり、任意のデータ点x ∈ Xは必ずしもM上にあるとは限らず、平均がM上にあり、標準偏差がノイズ・パラメータとなる正規分布から抽出される可能性がある。
1⃣ QCMLの結果及び、ノイズ耐性
QCMLによる固有次元の推定値は、すべての点で2(次元)である。ノイズ・レベル(ノイズの標準偏差)が0.2 まで増加すると、ノイズ・アーティファクトを拾い始め、計量スペクトルの分散が増加する。しかし、ノイズ・レベル0.2の場合でも、2,500 点すべてに対して固有次元の推定値は2 である。つまり、ノイズに対して堅牢である。
2⃣ 比較モデルの結果及び、ノイズ耐性
データ数を250、2,500、25,000の3ケースとした。比較モデルは、ノイズ・レベルが0を越えると、固有次元の推定値が急速に2から離れていき、3に収束していく。
❚補足3❚
ファジー球面は、高エネルギー物理学において導入されている概念で、「時空の創発」とか「超弦理論」といったトピックスで現れる。高エネルギー物理学において重要なプランク・スケールでは、(当然、量子力学が支配するので)幾何学も量子化すると考えられる。非可換な幾何学をN次元の正方行列をもちいて表現したものがファジィ空間である[*199]。非可換球面とも呼ばれるファジー球面は、4次元のコンパクトな非可換空間の代表例とされる。
もちろん本論文で扱われている「ファジー球面」は、高エネルギー物理学におけるそれとは、異なる。データ解析の文脈で扱われているに過ぎない(ので、ファジー球面という文言を使う必要があるのか疑問)。
(2) 高次元合成多様体
0⃣ セットアップ
3つの高次元多様体❶~❸を考える:❶18次元に埋め込まれた17次元標準超立方体(ハイパーキューブ)、❷40次元に埋め込まれた10次元多様体、❸72次元に埋め込まれた18次元多様体である。 なお、データ数は、全て2,500である。
1⃣ QCMLの結果及び、ノイズ耐性
QCMLは、全てのケースで正しい固有次元(17、10、18)を推定している。ノイズ・レベルは0~0.1がテストされている。QCMLは、ノイズ・レベル0.1まで固有次元を正しく推定している。つまり、ノイズに対して堅牢である。
2⃣ 比較モデルの結果及び、ノイズ耐性
全ての比較モデルは、正しい固有次元の推定に失敗している。共通点として、以下があげられる:
㊀ 比較モデルは全て、「❷及び❸で、ノイズ・レベルがゼロまたは低い場合」には、固有次元を過小評価する。これは「次元の呪い」によるよく知られた効果であり、高次元では隣接する点が非常に離れる傾向がある。❶の場合は、ノイズ・レベルが変わっても固有次元の推定値は大きくは変わらない(。言い換えると、一貫して正解とは異なる)。
㊁ 比較モデルは全て、「❷及び❸で、ノイズ・レベルが増加した場合」には、固有次元を過大評価し始める。
(3) 画像認識データセット
0⃣ セットアップ
ISOMAP顔データベースとMNIST手書き数字データベースを用いる。
ISOMAP顔データベースは、彫刻の顔を表す64×64サイズのグレースケール画像698枚で構成されている。各画像はD = 642 = 4096次元のベクトルとして表現され、2つの軸に対する異なる回転と異なる照明方向に対応するため、この場合のデータ多様体の固有次元はd = 3と予想される。
MNIST データベースは、手書きの数字「1,2,3,4,5,6,7,8,9,0」の画像 70,000 枚で構成されており、それぞれが 28 × 28 のグレースケール画像として保存されている。このデータセットは通常、60,000 枚の学習画像と 10,000 枚のテスト画像に分割される。全体の固有次元は不明であるが、各数字には独自の固有次元があると予想される。参考文献[*200]では、各数字の次元の推定値は d ∈ [8, 14] の範囲にある。
1⃣ QCMLの結果
ISOMAP顔データベースに対する固有次元推定値は3である。これは、”正解”と考えて良いのであろう。
MNIST データベースに関しては、1に近い固有値が9つあり、0.25くらいの固有値が1つ存在する。本論文では、9+1=10個が0でない固有値であるとして、固有次元推定値は10としている。MNIST データベースに関しては、”正解”が不明であるし、0~9の数字は、唯一の固有次元を持つわけではないかもしれない。したがって、テストとして適切か否かという議論はあるだろう。
ただ、面白いことに、QCMLの推定値は、いい意味で曖昧である。これは、QCMLの推定が正しいことを示唆しているのかもしれない。ちなみに、画像認識データセットに対しては、ノイズによる摂動はない。また、他モデルとの比較もない。
(4) ウィスコンシン乳がんデータセット
0⃣ セットアップ
Diagnostic Wisconsin Breast Cancer Database(便宜上、DWBCDとする)から取得した、乳がんデータセットを用いた。DWBCDは、乳がん(乳腺腫瘤)の穿刺吸引細胞診(FNA)によって得られたデジタル化した569画像における、細胞核の特徴を解析することによって得られたデータから構成されている。569画像の各画像は「良性」と「悪性」に分類(診断)されている。
各画像について、画像内に存在する細胞核の特徴を表す30個の特徴量が抽出される。したがって、この場合、30次元ユークリッド空間内に位置する多様体から、569個の点が得られる。このデータセットの固有次元dは、d ∈ [3.5, 6]の範囲と推定されている。30個のデータ特徴はすべて有意に異なるスケールを持ち、標準偏差は2.65 × 10-3から5.69 × 10-2の範囲である。このため、全ての特徴量の平均が0、標準偏差が1になるように、データは正規化されている。
1⃣ QCMLの結果及び、ノイズ耐性
QCMLは、固有次元を2と推定した。ノイズ・レベルは0 から0.5 まで、0.05ずつ増分した 21(本論文ママ)🐾16の等間隔のノイズ・レベルでテストした。QCMLは、全てのノイズ・レベルにおいて、2という固有次元を推定する。2という固有次元は、正解か否かは、わからない。0⃣で示されている推定値3.5~6とは、”大きく”異なる。ただし、ノイズに対して堅牢であることは、確かである。
🐾16 11の誤りと思われる。
2⃣ 比較モデルの結果及び、ノイズ耐性
比較モデルは、ノイズ・レベル0であっても固有次元推定値が、およそ4~10の範囲に含まれる🐾17。そして、ノイズ・レベルが(0→0.5に)増加するにつれて、固有次元推定値も(基本トレンドは)右肩上がりに増加していく。つまり、ノイズに対して堅牢でないことは、確かである。
🐾17 ちなみに(ノイズ・レベル0だとしても)、0⃣で示されている推定値3.5~6に含まれるのは、TwoNNのみである。
【5】考察
(1) QCMLは、大域的な情報を取り込むことで「違いを生み出す」アプローチと思われる。機械学習・深層学習の文脈で言えば、(自己)注意機構やメッセージ・パッシングといった技術が想起される。
QCMLでは、「ハミルトニアン符号化とエルミート行列の学習」により、大域的な情報を取り込んでいる。ハミルトニアン符号化は、ハミルトニアンの固有値を使った符号化である。ハミルトニアンの大域的な情報を集約したと見做せる「固有値」を符号化に使っているのだから、文字通り、大域的な情報は符号化を通して、取り込まれているのであろう。その分、ハミルトニアン符号化は手間がかかる。
エルミート行列A={Ak}の学習は、QCMLが「量子」機械学習モデルであることから自然であるが、機械学習・深層学習の文脈で考えれば、ニューラル演算子の学習という見方ができるであろうか。
(2) QCMLではデータ点xが、x on データ多様体→|ψ0(x)⟩ on ヒルベルト空間へと持ち上がる。そして、|ψ0(x)⟩がA={Ak}を使って、A(ψ0(x))∊ ℝDと写像される。xではなく|ψ0(x)⟩を使うことは、量子特徴量のアナロジーとして解釈できるだろうか。
米クオンティニュアムと理化学研究所の研究者は、「部分的誤り耐性量子計算が、”量子化学計算”において機能することを実証した」とする論文[*202](以下、本論文)を発表した(25年5月14日@arXiv)。部分的誤り耐性量子計算は、量子誤り訂正を実装したQPE(量子位相推定法)回路で、水素分子の基底エネルギーを求める計算である。「機能する」の意味は、部分的誤り耐性量子計算(☞【2】(1))で、”そこそこ”の結果が得られたことを指している。
また本論文は、(本論文が提示した)部分的誤り耐性量子計算が、「スケーラブルである」と主張している。スケーラブルの意味合いは、(クオンティニュアムのブログ[*203]を含めて)必ずしも明示されていないが、量子誤り訂正を施した論理量子回路で、量子化学計算が実行されたことを指していると思われる。この主張は、やや誇大宣伝と思われる(☞【5】(2))。
【1】本論文の主張
本論文は、以下を主張する:
(1) 量子化学計算で「部分的誤り耐性量子計算」を実行し、機能することを実証した(☞【4】(1))。
(2) 「部分的誤り耐性量子計算」が、(量子化学計算で)スケーラブルであることを示した(☞【5】(1))。
【2】事前整理
(0) 為念の復習
1⃣ 誤り耐性
誤り耐性🐾1とは、量子計算実行中に発生する計算上の誤り(量子誤り)が蓄積されることなく、正しく計算が行えるという意味である。量子誤り訂正プロトコルとゲート実装には、元々、誤り耐性であるものもある。具体的には、トランスバーサル・ゲート、スティーンQECガジェットなどが上げられる。スティーン符号は、カラー符号の一種(最小例)である。
🐾1 英語では、形容詞だとfault tolerant(名詞だとfault tolerance)である。
2⃣ トランスバーサル
トランスバーサル🐾2とは、「物理量子誤りが、論理量子誤りに至らない」という意味である。これでは分かり難いから言葉を換えると、「量子誤りが、量子回路全体に、制御不能に拡散しない」という意味である。
🐾2 日本語では、「横断」という文言があてられる。
3⃣ カラー符号
カラー符号は、3 色に着色可能なタイルを備えた三角格子上に構築される。つまり、3 つのタイルが格子の各頂点で交わり、タイルを着色(例えば赤、緑、青)できるため、隣接する 2 つのタイルが同じ色を共有することはない。カラー符号には、以下の長所がある:
㊀ より効率的な論理演算を可能にし、固定符号距離で論理量子ビットを符号化するために必要な量子ビット数は、表面符号よりも少ない。
㊁ すべてのクリフォード・ゲートを 1 回の量子誤り訂正サイクル内で実行でき、リソース効率の高い魔法状態注入プロトコルをサポートする。
㊂ 誤り耐性なマルチ量子ビット・パウリ測定を同時に実行できるため、マルチ量子ビットのエンタングルメント操作を最大 3 倍少ない空間時間オーバーヘッドで実行できる。
㊃ 全てのクリフォード・ゲートを、トランスバーサルに実装できる。
対して、以下の短所がある:
① (表面符号よりも)誤りしきい値が低い。つまり、要件が厳しい。
② シンドローム抽出回路は、4近傍よりも高い接続性を必要とする。超伝導量子ビット(やシリコン・スピン量子ビット)などの平面アーキテクチャで、このスタビライザーを測定することは困難であった。
③ 復号が遅く、精度も低い。さらに、復号に必要な量子ビット数は、表面符号の2 倍である。
ただし、上記欠点は、「物理量子ビットの品質向上、シンドローム抽出回路の工夫及び、復号アルゴリズムの工夫」等、によって大きく改善されたと理解されている。
(1) 部分的誤り耐性量子計算
全てのゲート操作をトランスバーサルに実行できる量子誤り訂正符号は、存在しない(Eastin-Knillの定理)。つまり、全ての論理ゲートを(同時に)トランスバーサルに実行できる量子回路を構築することは不可能である。その事実を踏まえた上で、”完全な”誤り耐性量子計算を実現することを考えよう。といっても、実現する方法自体はシンプルで、「大量の量子リソースを追加投入することで、”完全な”誤り耐性量子計算を実現する」ことができる。大量の量子リソース(フラグ量子ビット、検出ガジェット等)は、量子誤りが広がる前にそれを捕捉して、量子誤りの伝播に対処するために消費される。別の言葉を使うと、完全な誤り耐性の実現は、物理的な回路の深さと物理量子ビット数という点で、回路のオーバーヘッドを増加させる。
ここでの重要なポイントは、「誤り耐性の厳密さ(完全な誤り耐性か否か)」と「オーバーヘッド」との間に、トレードオフの関係が成立するということである。つまりアイデアとしては、「部分的な誤り耐性」というアプローチが存在しうる。つまり、オーバーヘッドが大きい”完全な”誤り耐性を(少なくとも、とりあえず一旦は)諦めて、誤り耐性の厳密さと、オーバーヘッドとの間に、程よい塩梅を求めるというアプローチが存在しうる。本論文は、この「部分的誤り耐性」というアプローチを採用している。本論文は、部分的誤り耐性量子計算を量子化学計算に適用し、実際に機能することを実証した、という箇所が訴求点となっている(と思われる)。
部分的誤り耐性量子計算では、全ての量子誤りを訂正することは諦める。訂正はしないが、中間回路測定の結果、量子誤りが検出された場合、計算は破棄される。こうすることで、量子誤りが伝播することを防いでいる。
(2) 情報理論(information theory)QPE
情報理論(information theory)QPEの概要を、[*204]を基に整理する。ちなみに、[*204]の著者の一人は、マイケル・フリードマン(マイクロソフトで、トポロジカル量子計算を研究している、あの数学者)である。
1⃣ ざっくり言うと・・・
端的に表現すると、情報理論QPE🐾3は、ランダム測定と古典的事後処理に基づく、QPEである。
🐾3 情報理論QPEという訳語が、あるわけではない。information theoryを情報理論と訳したに過ぎない。
2⃣ 量子位相推定アルゴリズム
量子位相推定アルゴリズムの目的は、以下の通りである:位相ϕk で表現された、ユニタリ演算子の固有値 λk = exp(2πi·ϕk )を決定する。量子位相推定には主に 2 つのアプローチがある。㊀逆量子フーリエ変換(逆QFT)を使って、位相に関する情報を抽出する方法、㊁逆QFTを使用する代わりに、測定結果に古典的事後処理を適用する方法である。㊁の利点は、量子操作の代わりに古典(的事後)処理を使用することで、高価な量子リソースを、安価な古典計算とトレードオフできることである。
3⃣ 情報理論QPE概要
情報理論QPEは、上記2⃣で示したアプローチ㊁に属する。情報理論QPEでは、一連のランダム測定を実行し、位相φk を古典的に再構成する。数学っぽく表現すると、φk は1を法とする(数学の記号で表現すると、mod 1)実数で、単位長さの円で表すことができる。φk =k/t mod 1、0 ≤ k < tである。kは実数で、tは整数。O(log2 t)回の測定🐾4で、ϕk = k/t mod 1 を決定できる。具体的には、測定結果を古典的に事後処理することで、位相の条件付き確率分布を取得する。この確率分布の最大尤度推定値を求めることで、位相 φk の近似値=固有値の近似値を得る。
🐾4 [*204]では、t=104に対して、「10~20回の測定では、非常にノイズが多い。40回以上の測定後では正しい角度に関する情報がいくらか推論され、50回の測定後は非常に正確である」と書かれている。log2 104≒13.3である。
4⃣ 制限
[*204]は、情報理論QPEの制限について、以下のように記述している:情報理論QPEをショアのアルゴリズムに適用する場合、推論対象ビット数に対して指数関数的に増大する計算量を伴う、非現実的な古典的事後処理が必要となる(ため、事実上、使用不可)。しかし、推論対象ビット数が少ない、ある種の古典的なノイズを含む信号処理・推論アプリケーションでは実用的となる可能性がある。非常にノイズが多く、スパースな信号の推論に有用と思われる。
【3】本論文を構成する技術要素
(0) ざっくり概要
本論文は、部分的誤り耐性実装の枠組みを、「クリフォード→トランスバーサル:完全誤り耐性+1量子ビット回転ゲート:部分的誤り耐性実装」とした。その上で、 部分的誤り耐性実装を細かく使い分けた。その枠組みで、量子化学計算を行い、そこそこの結果を得た。
(1) 論理QPE量子回路を構成する量子ビット・ゲートセット
1⃣ 論理QPE回路のステップ
本論文で使用する、情報理論QPEを実装した、論理QPE回路は、以下4つのステップを持つ。
① 入力状態|Φ⟩ と 補助量子ビット|+⟩ の準備。
② 補助量子ビットを条件とするシステム・レジスタへのユニタリー・ゲートの適用(ctrl-Uと表記)。
③ Z軸周りの回転ゲートRZの適用。
④ X 基底による補助量子ビットの測定。
2⃣ トランスバーサル実装と部分的誤り耐性実装
本論文では、論理QPE量子回路を、「論理クリフォード・ゲート+論理RZゲート」という組み合わせで実現している。(論理)クリフォード・ゲートは、{S,H,CX}である。つまり、位相ゲート、アダマール・ゲート、制御NOTゲートである。Z軸周りの回転ゲートRZ(θ)=exp(−iθ/2・Z)は、任意角度θの1量子ビット回転ゲートとして設定されており、Tゲートを含む。θ=π/4のときがTゲートに相当する。
論理クリフォード・ゲートは、トランスバーサル・ゲートとして実装することで、誤り耐性になっている。一方、論理RZゲートは、トランスバーサル・ゲートとしては実装されず、部分的に誤り耐性となるように実装される。本論文における部分的誤り耐性実装は、4パターン存在する。パターンは、「オーバーヘッドと誤り耐性のバランス」に応じて、4つに分けられている。詳細は、下記(2)を参照。
(2) 1量子ビット任意角度回転ゲートRZの部分的誤り耐性実装
前述通り、部分的誤り耐性実装は4パターン存在する。4パターンの中で、オーバーヘッドが最も小さいパターンは、誤り耐性ではない。このRZゲートは、RDZ(θ)と表記される。RDZ(θ)は、2つのCNOTゲートとZZ回転ゲートで構成される。
2番目にオーバーヘッドが小さいパターンは、RDZ(θ)に、低オーバーヘッドの特殊な量子誤り検出(QED)コンポーネントを追加することで、RDZ(θ)内の問題となる「量子誤りの一部」を「検出する」。量子誤りが検出されたら、それまでの計算は全て破棄される。RD,QEDZ(θ)と表記される。
残り2つのパターンは、どちらも、ゲート・テレポーテーションを使う。魔法状態に相当する特別な入力状態を作るが、大量のリソースを消費する蒸留は行わない。ゲート・テレポーテーションは、RZ(θ)が正しく作用したことが測定で示されるまで、繰り返される。繰り返しは、ゲート・テレポーテーションを使ってために可能であり、「再帰的(recursive)ゲートテレポーテーション:RGT」と呼ばれている。さらに、RGTの場合、測定は「誤り耐性」で行われるので、測定誤りが蓄積することはない。
RGTを使う2つのパターンにおけるオーバーヘッドの違いは、入力状態の違いによる。オーバーヘッドが大きい方の入力状態は、量子誤り検出を行い、量子誤りが検出されたら破棄される。オーバーヘッドが小さい方は、RRGTZ(θ)、オーバーヘッドが大きい方は、RRGT,QEDZ(θ)と表記される。
(3) 量子誤り訂正(QEC)のセットアップ
量子誤り訂正符号にはカラー符号、正確には、[[7,1,3]]カラー符号が使われている。つまり、7物理量子ビットで、1論理量子ビットを作成する。符号距離は3である。符号距離dとは、量子誤り訂正符号が検出または訂正できる量子誤りの数である。別の表現を使うと、dは、有効な符号語(論理状態)間の最小ハミング距離、つまり最小の論理演算子の重みである。符号距離dと量子誤り訂正可能な物理ビット数nの間には、n=(d-1)/2の関係がある。つまり、d=3は最小符号距離であり、この場合、1量子ビットのみが、誤り訂正可能である。
本論文では、QECの影響を調査するため、「PFT、EXP、NoQEC」という 3パターンのQECセットアップが導入されている。PFTは、ctrl-U(☞(1)1⃣参照)全体にQECが適用される。NoQECは、QECが適用されない。
EXPは、ctrl-Uの補助量子ビットにのみQECが適用される。すなわち、訂正不可能な量子誤りが増えるという代償を払って、量子回路のオーバーヘッドを削減している。ただし、EXPでは、主にメモリ・ノイズ🐾5に対して、特別な保護を提供する。 これは、メモリ・ノイズが主なノイズ源であることを反映している(☞【4】(2)2⃣参照)と思われる。
🐾5 長時間のアイドル状態において発生する量子誤り及び、イオンを移動させている間に発生する量子誤りを、メモリ・ノイズと呼ぶらしい。
(4) 量子回路構成に関する補足
1⃣ QECセットアップと量子ゲート・セット
(1)1⃣で示したように、(情報理論)QPEを実装した量子回路には4つのステップがある。そのうち②はctrl-Uの適用で、③はRZの適用であった。若干ややこしいが、ctrl-Uでも1量子ビット回転ゲートは使われる。そして、ctrl-Uの構成は、上記(3)で示したQECのセットアップ「PFT、EXP、NoQEC」によって異なる。水素分子の基底状態エネルギーを求めるために使うセットアップは、EXPなので、EXPのみ示す。EXPのctrl-Uに使われるRZは、RRGTZである。これは、Tゲートと考えて良い。従って、この場合のゲートセットは、{アダマール、CNOT、T}である。なお、EXPセットアップにおける③のRZには、RDZが使用されている。
2⃣ 改めて、回路構成と誤り耐性(FT)の関係
既述通り、ctrl-Uは{アダマール、CNOT、RRGTZ}であるが、これは{FT、FT、ほぼFT🐾6}である。同様にRZはRDZであるが、これは量子誤りを検出して、誤りが検出されたら計算を破棄するという態様で、FT的な計算を模している。
🐾6 ショット・ノイズに起因する量子誤りを除いて、完全FTか?
(5) 量子誤り緩和策
本論文では、コヒーレント・メモリ・ノイズの蓄積を防ぐために、量子誤り緩和策の一つである、動的デカップリング(の亜種)が適用されている。コヒーレント・メモリ・ノイズは、アイドル状態にある量子ビットに作用する。動的デカップリングは、XゲートとYゲートのシーケンスを挿入することで、論理演算はそのままで、コヒーレント・メモリ・ノイズに起因する量子誤りの位相方向だけを変更する(つまり、符号が変わる。例えば、マイナス→プラス)。符号だけを変えることで、量子誤りを相殺し、コヒーレント・メモリ・ノイズが累積することを防ぐ。
【4】評価結果
(1) 基底状態エネルギーの推定
QECのセットアップとしてEXP(☞【3】(3))を採用した場合に、QPE(情報理論QPE)を使って、水素分子の基底状態エネルギーEを量子計算した。Eと、FCI(完全配置間相互作用法)で求められた値(すなわち、量子化学計算におけるグランドトルゥース)との誤差は、0.018ハートリーであった。この誤差は、化学的精度(〜0.0016ハートリー)よりも、かなり大きい🐾7。しかし本論文は、「この結果は、完全に誤り耐性のある量子計算化学シミュレーションに向けた重要な成果である」と自己評価している。
🐾7 【0】で”そこそこ”と書いたのは、「化学的精度以下に(全然)達していない」ためである。桁が1つ違う。
(2) ハードウェアノイズの影響調査
クオンティニュアムのH2エミュレータを使った数値シミュレーションを介して、調査が実行された。
1⃣ ノイズモデル
本論文は、ハードウェア・ノイズの3つの支配的なソース:2量子ビットゲート、測定(読み出し)、およびメモリ・ノイズに焦点を当てている。1量子ビット・ゲートなどの他のすべてのノイズ・ソースは、シミュレーションで無視されている。誤り率は、以下の通り:
1量子ビットゲートの誤り率は、2.90×10ー5。2量子ビットゲートの誤り率は、1.28×10-3。初期化の誤り率は、4.00×10ー5。「1」から「0」に量子ビットを反転させる場合の読み出し誤り率は、2.50×10-3。「0」から「1」にビット反転させる読み出し誤り率は、0.50×10-3(つまり、1/5)。メモリ・ノイズは、コヒーレントの場合、4.30×10-2ラジアン/秒。インコヒーレントの場合、2.80×10-3/秒。
2⃣ 結果
一般的には、2量子ビットゲートの非忠実度が、主要な(影響の大きな)量子誤りと考えられている。本論文(トラップイオンをモダリティとする量子コンピューター)の結果では、メモリ・ノイズが、大幅な追加回路を備えた符号化回路において、より影響が大きい可能性があることを示唆している。
【5】考察
(1) 本論文は、部分的誤り耐性量子計算がスケーラブルであると主張している。これは、量子誤り訂正(QEC)を実施した量子化学計算で、それなりの結果が出たことを指していると思われる。つまり、量子ビット数が増えても(サイズが大きくなっても)、QECで量子誤りを訂正できるから、大丈夫=スケーラブル、という意味合いであろう。本論文では、QEC符号として、つい先日まで絶対王者と目されていた表面符号ではなく、カラー符号を採用している。その点は、印象的であり、象徴的と思われる。
(2) 本論文の成果は、対象が水素分子の基底状態エネルギーであるが、化学的精度が達成されていない。計算結果が2σの範囲に収まっているから良いという解釈(主張)は、実務家の立場からは、あまり意味がないと推量する。従って、それだけを見れば大した結果ではないのだろうが、「スケーラブル」ということになれば、一転して立派な結果になる。ただ、スケーラブルの主張は、やや誇大宣伝ではないかと思われる。
確かに、カラー符号で、符号距離スケーリングは達成されている(➡24年12月9日@nature[*] byグーグル☛こちらを参照)。しかし、「エンドツーエンドで、量子化学計算を実行」と謳う以上、「符号距離を伸ばした場合に、誤差が低減した(化学的精度に近づく)」という結果が出てはじめて、スケーラブルを主張できるのではないか、と思う。
(3) 基底状態エネルギー推定タスクの結果は、EXPセットアップのみを使用した結果のみが示されている。これは、モダリティ:トラップイオン(+情報理論QPE?)では、メモリ・ノイズが支配的であり、メモリ・ノイズに特化したEXPであれば、バランスが採れるという理由からであろう。ただ、参考としてPFTを使った結果を示しても良かったと思われる。どの程度の精度が出るのだろうか。
なお【2】(2)4⃣で示したように、情報理論QPEは、全てのアプリケーションに適用できる(あるいは有効な)わけではない。
(4) 本論文では、リアルタイム復号を行っている(らしい)。一般的な見解として、カラー符号は、復号に難があると目されている。教科書的に言えば、カラー符号は復号が遅い。本論文では符号距離が最小の3であるから、復号の困難さはないものの、符号距離が(5,7,・・・と)長くなると、復号に要する時間が長くなる・復号の精度が低下する、という課題が顕著になる可能性はあるかもしれない。
クオンティニュアムは、カラー符号に拘っていないかもしれないが、「クリフォード→トランスバーサル:完全誤り耐性+1量子ビット回転ゲート:部分的誤り耐性実装」という枠組みを維持するなら、カラー符号が第一選択肢になると思われる(ロックイン?)。
(5) 本論文の部分的誤り耐性量子計算におけるリソース削減は、主に、(魔法状態)蒸留を行わないことによるリソース削減と考えて良いのだろう。
量子シミュレーションは、量子優位性が最も期待される(あるいは、量子優位性が期待できる唯一の)ユースケースである。「物性シミュレーションは、(暗号解読や)量子化学よりも少ない物理量子ビット数で、量子優位性が発現する」と主張する研究(☛こちらを参照)が存在するものの、量子加速に関する研究は主に、暗号解読と量子化学の2つの分野に集中している。量子冬の時代が、予想より厳しいことを反映しているのであろうか。NISQマシンでも、意味のある量子化学計算ができる、という研究が、近時たくさん発表されている(ように思われる)。
嚆矢は、マイクロソフト(Azure Quantum)による「初めての、化学系におけるエンド・ツー・エンド量子シミュレーション」の発表(24年9月)であろう(☛こちらの1⃣を参照)。日本のホンダ(技術研究所)及びQuemixは、25年5月に、「量子コンピューターの実機を使用した、論理量子ビット上での材料開発に向けた実用計算に、世界で初めて成功した」という発表を行っている[*205]。米クオンティニュアムと理化学研究所は、「部分的誤り耐性量子計算が、”量子化学計算”において機能することを、初めて実証した」と主張している(☛こちらを参照)。
以下に示す研究も、『量子化学計算・初めて物語』の一つである。米IBMと米ロッキード・マーティン🐾1の研究者は、「量子コンピューター実機上で、SQD(と呼ばれる量子化学計算用の量子アルゴリズム)を、開殻系分子に最初に適用」した論文[*206](以下、本論文)を発表した(25年5月13日@Journal of Chemical Theory and Computation。arXiv版[*207]は、24年11月7日)。NISQを使っているため当然ながら、SQD(Sample-based Quantum Diagonalization:サンプルベースの量子対角化法☞【2】(1))は、量子古典ハイブリッド・アプローチ(変分アプローチ)である。なおIBMは、 量子古典ハイブリッド・アプローチを、Quantum-Centric (super-)Computingと呼んでいる。
本論文は、量子>古典という内容ではなく、「量子が古典と同程度の結果を出せました」という”現在の身の丈に合わせた”、控えめな内容である。
🐾1 米国の航空機・宇宙船の開発製造会社。1995年にロッキードとマーティン・マリエッタの合併により誕生した。旧ロッキードは、(ロッキード事件でも知られるように)旅客機も開発・製造していたが、現在は、航空機≒軍用機。
【1】本論文の主張
本論文は、以下を主張する。なお、古典的手法=SCI(☞【2】(1)2⃣)である:
(1) 1重項状態解離エネルギーの推定において、古典的手法とSQDの結果が良く一致する。差は、1~4ミリ・ハートリー🐾2の範囲内である(結合長に応じて、精度は、ほとんど変わらない)。
🐾2 ちなみに、「化学的精度」と呼ばれる相対的エネルギー誤差は、1.6ミリ・ハートリーである。化学的精度は、化学反応の精密な解析をするため必要な精度(しきい値)とされる。
(2) 3重項状態解離エネルギーの推定における古典的手法とSQDの結果は、それほど良い一致を示さない。差は、1~28ミリ・ハートリーの範囲内である(結合長に応じて、精度が変わる)。
(3) 1重項-3重項エネルギーギャップの推定において、SQDは実験及び古典的手法の両方と良く一致する。
(4) SQDは、大きな結合長極限で1重項-3重項ギャップの消失を正確に捉えている。
【2】事前整理
(0) 為参考:メチレンCH2分子の重要性
メチレンには3つの原子しかないため、扱いが容易な分子と思われがちであるが、その高い反応性のために、燃焼排出や大気化学等に、重要な役割を果たす。そして、その基底状態は、3重項の電子構造を採用するジ・ラジカルである。炭素原子の外側殻には平行スピンを持つ2つの不対電子が含まれている。不対電子は、より安定した閉殻分子と比較して、分子磁気特性を与える。また、メチレンの高い反応性に寄与し、燃焼反応において重要な中間体になる。そこでは、炎やエンジンで分子が消費されるにつれて結合が壊れて、迅速に形成される。中間体は不安定な分子であり、一時的に生成され、その後マルチステップ化学反応ですぐに消費される。
最初の励起状態は、炭素原子の2つの電子が対になり、1つの軌道が空である。1重項状態では、2つの電子が反対側のスピンと対になっているため、合計スピンがゼロになる。これは通常、エネルギーの低い、より安定した構成である。ただし、メチレンの場合はそうではない。メチレンは、3重項状態が1重項状態よりもエネルギーが低い分子の比較的稀な例である。3重項状態では、2つの電子が同じ方向を指すスピンで対応していない。これらの状態間のエネルギーの違いは、1重項-3重項エネルギーギャップとして知られており、このギャップを正確に予測することは、メチレンが複雑な化学プロセスでどのように相互作用するかを理解するために不可欠である。
古典的な計算化学方法が開殻分子の正確な結果を提供するのに苦労しているため、本論文では、メチレンの電子構造(特に、その1重項および3重項状態)の量子シミュレーションを取り上げた。
ビジネスにおけるメチレンの重要性は、以下のように表現できる:ラジカル分子は、航空宇宙、燃焼化学、センサーの設計の重要なプレーヤーである。動作を正確にモデル化すると、より良い予測モデル、より効率的な化学エンジン、および反応性種の微小な痕跡を検出できる新しいセンシング技術につながる可能性がある。
(1) サンプル・ベースの量子対角化法[*208],[*209]
1⃣ 概要
サンプル・ベースの量子対角化法(Sample-based Quantum Diagonalization:SQD)は、選択的配置間相互作用法(SCI)の量子版の一つであり、多体電子系の固有状態を探索するための変分アプローチである。
2⃣ SCIとQSCI
SCIは、完全配置間相互作用法(FCI)の簡略版である。配置とは、分子系における電子配置のことである。FCIは、量子化学計算において正解(グランドトルゥース)を生成するが、計算コストが法外であり、小規模分子にしか適用できない。そこで、FCI法の計算コストを削減する手段として、SCIが考案/提案された。SCIは、「多くの分子系における基底状態は、系で取り得る電子配置の中で、一部の重要な電子配置の重ね合わせのみを考慮することで、十分に近似できる」という事実を利用している。ただし、「重要な電子配置を、”効率的に”選択する」ことは、自明な問題ではない。
Quantum SCI(QSCI)は、量子技術を使って、「重要な電子配置を選択する」というアプローチである。具体的には、量子回路上に分子系の基底状態の良好な近似を成す基底関数を準備し、この近似基底関数を測定することで、 重要な電子配置を選択する。重要な電子配置が得られた後は、典型的な SCI の方法を踏襲する。つまり、㊀分子系のハミルトニアンを、重要な電子配置によって形成された部分空間に射影し、㊁(結果として得られる)部分空間ハミルトニアンを、古典的に対角化して、㊂部分空間内の正確な基底状態を取得する。
なお、SCIの(サンプリング)効率をあげた手法として、HCI(Heat-bath Configuration Interaction)法がある。また、QSCIにインスパイアされた、量子古典ハイブリッド・アルゴリズムとしてHI-VQEという手法がある(☛こちらを参照)。
3⃣ 局所ユニタリークラスター・ジャストロー(LUCJ)アンザッツ
基底状態を近似するために用いる分子波動関数|Ψ⟩の推定値は、局所ユニタリークラスター・ジャストロー(LUCJ)アンザッツを、計算基底で測定(サンプリング)することにより得る。LUCJアンザッツ❚補足1❚は、古典的なCCSD🐾3計算から得られたパラメータを用いて実装された🐾4。
計算基底において|Ψ⟩を測定することを繰り返すことで、ある分布p(x)従って分布するビット列𝐱 ∈ {0,1}Mの形で測定結果の集合が生成される。ここで、Mは分子スピン軌道の数であり、|Ψ⟩を表現する量子ビットの数である。このビット列は、電子配置(スレーター行列式)を表す。SQDでは、このp(x)=|⟨x|Ψ⟩|2 を使って、電子配置をサンプリングする。
🐾3 摂動法を用いたポスト・ハートリー-フォック法である結合クラスター(CC)法は、摂動を1電子励起+2電子励起で打ち切った場合、CCSDと呼ばれる。3電子励起まで考慮した場合は、CCSD(T)と呼ばれる。
🐾4 古典計算は、オープンソースのPython量子化学パッケージPySCFを用いて実施された。
❚補足1❚
LUCJアンザッツは、十分に大きな層数に対して、一般化ユニタリ結合クラスター・アンザッツを再現できる、効率的な変分量子固有値ソルバー・アンザッツであると考えられている。ジョーダン・ウィグナー変換🐾5を利用することで、このアンザッツはトロッター近似なしに量子回路上で実現できる。
🐾5 電子(フェルミオン系)のハミルトニアンを、量子ビットにマッピングする手法として知られている。同手法の中で、最もシンプルな方法である。
4⃣ 自己無撞着(self-consistent)・配置回復(configuration recovery)
さらに、SQDでは、配置回復という手段を講じることで、電子配置を”効率的に”サンプリングする。量子回路には量子ノイズが存在する。量子ノイズは、(上記3⃣で示した)分布p(x)を歪ませ、結果として、物理保存則を破ってしまう可能性がある。ただ、保存則の破れに対する補正を事後的に行なえば、サンプリングの効率が上がることが期待できる。この古典的な事後補正を、配置回復(configuration recovery)🐾6と呼ぶ。
強制的に保存させる物理量としては、多電子系における代表的な保存量である「粒子数に加えて、全スピンの値🐾7」が採用されている。1体縮約密度行列 ⟨ψ|a†a|ψ⟩ の対角成分の情報を用いて、2つの保存量を回復させる。具体的には、保存量が回復するまで、ビット列x∈{0,1}Mをランダムに反転させる(ビット列xは、電子配置を表すのであった)。ここで、a†は(p番目の基底関数系要素とスピンσに関連付けられた)生成演算子、aは(同)消滅演算子である。なお、1体縮約密度行列の値は事前に既知であるとは仮定されておらず、自己無撞着計算中に改良・更新される。つまり反復計算が行われる。本論文では、配置回復において10回の反復計算が行われる(この回数は、S-COREと呼ばれている)。
[*208]では、配置回復を適用することで(配置回復を適用しない場合に比べて)、1/10のデータで同じ誤差(10mハートリー未満)に達する例が示されてる。つまり、サンプリング効率が10倍になっている。
なお、自己無撞着・配置回復は、量子誤り緩和策の一つである。
🐾6 正確な訳語ではない。➡正確な訳語と考えて良い(https://www.riken.jp/press/2025/20250619_1/index.html)。
🐾7 スピン演算子をSとすると、⟨ψ|S2|ψ⟩
5⃣ 為参考:軌道最適化
軌道最適化は、結果の精度を向上させるために、SQD後のステップとして使用される。軌道は、Adamオプティマイザーを用いた勾配降下法を用いて最適化される。以前に収束した状態を使用するウォームスタートアプローチを採用している。なお、SQD法と軌道最適化はqiskit-addon-sqd Pythonパッケージを使用して実装された。
6⃣ 回復配置以降のSQDワークフロー及び、全体フロー
回復された配置の集合から、各電子配置の経験的頻度に比例する分布に従って、K個のバッチ(言うまでもなく、物理的には、電子配置)が選択される。このK個の電子配置が、SQDにおける「重要な電子配置」となる。本論文では、3重項に対して K = 20、1重項に対して K = 10 と設定されている。
SQDは、以下のようにまとめられる:①分子系のハミルトニアンを、「SQDにおける重要な電子配置」が張る部分空間に射影し、②(結果として得られる)部分空間ハミルトニアンを、古典的に対角化して、③部分空間内の正確な基底状態を取得する。
【3】本論文の技術的特徴
(1) 計算環境セットアップ等
計算は、実験ごとに最大3,000個の2量子ビットゲートを実行するIBM量子プロセッサ(IBM Nazca)の52量子ビットを使用して実行された。52量子ビット=46+6である。46量子ビットは、αスピン軌道に23量子ビット、βスピン軌道に23量子ビットが割り当てられた。6つの追加量子ビットは、スピンアップ軌道とスピンダウン軌道間の、密度-密度相互作用を媒介する補助量子ビットとして機能した。
なお、量子回路の深度は1,663、2量子ビット・ゲート数は合計3,324であった。
(2) 基底関数及び、計算内容
電子相関と整合した(correlation consistent)基底関数であるcc-pVDZ❚補足2❚を用いて、23個の軌道にわたる6個の電子を含むCH2の1重項および3重項状態のSQD計算を行った。
3重項状態と1重項状態の両方について、解離プロファイルに沿った異なる結合距離に対応する様々な構成のジョブを40個投入した。ジョブは、各回路につき10万回の測定(ショット)で構成された。
❚補足2❚[*210]
cc-pVDZは、電子相関と整合した(あるいは一貫した)基底系ファミリーの一つであり、一般形としてはcc-pVXZと表記される。cc-pVXZは、電子相関効果を効率的に取り込める基底関数とされる。cc-pVDZは、cc-pVXZの(cardinal number:基数と呼ばれる)XをDとした場合に相当する。言わずもがなccはcorrelation consistentを表している。pは分極(polarized)を表している。その意味するところは、「基底関数に分極関数を加えることで、電子分布に変形する自由度を与えている」である。Vは、原子価軌道のみに基底関数を割り当てることを示す。Dはダブル(2倍分極基底)であること示す。Tだと3倍、Qが4倍。それ以降は、5,6というように数字が使われる。Zはゼータ(ζ)の意味である。なぜζなのか?は知らないが、ダブル・ゼータは(ジュドー・アーシタが乗るモビル・スーツの名ではなく)、「1つの原子軌道に2つの基底関数を割り当てる」ことを意味している。
通常の中性分子の定性的な計算にはcc-pVDZで良く、定量性を追求するなら cc-pVTZ からとされている。
(3) 量子誤り緩和手法
量子ゲートに起因するノイズを低減するため、動的デカップリングとゲート・トワーリングが用いられた。動的デカップリングは、量子ゲートに適当なパルスを適用して量子ゲートと外部環境との相互作用を相殺することで、量子ゲート誤り(デコヒーレンス)を抑制する手法である。従って、正確には、量子誤り緩和手法ではなく、量子誤り抑制手法ということになる。
ゲート・トワーリングは、非等方的ノイズを脱分極ノイズに置き換えることで、ゲート構成に依存して蓄積する量子誤りを減らす量子誤り緩和手法を指す(と理解)。
(4) 為念:評価の構図
SQDが行っているp(x)を使ったサンプリング・ベースの「重要な電子配置」探索性能と、古典的手法(SCI)による探索性能が比較される。本論文は、1重項–3重項エネルギーギャップの正確な結果を提供する能力を評価指標として、SQDをSCIの性能を比較している(☞【4】(1))。もっとも、実際の評価は量子・古典の優劣ではなく、SCIがグランドトルゥースになっていて、SCIに近いか?という評価である。
【4】評価及び調査結果
(1) 1重項-3重項エネルギーギャップ
SQDの精度を、SCIおよびCCSDと比較・評価した。SCI及びCCSDは、PySCFを使って実行された。
0⃣ 3重項状態解離エネルギーと1重項状態解離エネルギーの推定値
SQDによる3重項エネルギーの推定値は、SCIで得られた値と良く一致している。解離曲線に沿ったエネルギー差は1~28ミリ・ハートリー、平衡領域では平均約7ミリ・ハートリーであった。遠方解離領域、特に2.00Åと2.50Åの間で不連続性と精度の低下が観察された。これは、この領域における解離曲線の3重項の強い相関特性に起因すると考えられる。
SQDによる1重項エネルギーの推定値は、SCIの値と1~4ミリ・ハートリーの範囲内にとどまり、すべての結合長にわたって良い一致を示した。
1⃣ 1重項-3重項エネルギーギャップ
C–H結合解離経路に沿った1重項-3重項エネルギーギャップを、SCI、CCSD、およびSQDを用いて計算した。平衡領域付近では、3つの方法すべてのギャップ値が密接に一致している。SQDは19 ミリ・ハートリーの1重項-3重項エネルギーギャップを算出し、cc-pVDZ基底関数系を使用してSCIで計算されたギャップ18ミリ・ハートリーとほぼ一致している。このわずかな食い違いは、SQDで好ましい誤差キャンセルが行われることで解消する。CCSDでは、24ミリ・ハートリーのギャップが得られる。
実験値のギャップは14ミリ・ハートリーである。SQDが、実験値のギャップとのより近い一致を得るには、より大きな基底関数系が必要になる。
2⃣ 総評
上記結果は、1重項-3重項エネルギーギャップの推定において、SQDが、実験とSCIの両方と良く一致することを示している。結合が解離するにつれて、1重項-3重項エネルギーギャップは、ゼロに近づき、基底状態における一次相転移を示す。この現象は、臨界結合長は異なるものの、3つの方法すべてで捉えられている。SQDで得られた臨界結合長は、CCSDと比較して、SCIで得られた臨界結合長とより良く一致する。
重要なのは、SQDが大きな結合長極限で1重項-3重項ギャップの消失を正確に捉えていることである。この挙動は、拡張されたC-H結合距離では、解離した水素原子上の電子が実質的に束縛されておらず、量子化軸と自由に整列または反整列できるという事実に起因する。
(2) 波動関数の振幅
「遠方解離領域、特に2.00Åと2.50Åの間で不連続性と精度の低下が観察された(☞(1)0⃣)」という問題を解析するため、SCIを比較基準として、SQDで得られた個々の波動関数振幅の精度が調査されている。SQDとSCIの一致は、波動関数振幅が大きいほど強くなり、波動関数の裾の部分の記述においては、徐々に悪化する。特に、静的相関がより顕著になる長い結合長では、平衡領域に近い結合長と比較して、小さな波動関数振幅における一致が悪化する。
(本論文において)この観察結果は、2つの主要な要因に起因すると説明されている。まず、結合長が長い場合、波動関数の振幅は平衡領域付近のものと比べて集中度が低くなる。2つ目の理由は、平衡領域付近の結合長では波動関数が強い”平均場特性”を示し、この特性が結合長が長くなると弱まることである。これらは、配置回復に直接影響を及ぼし、波動関数振幅の精度を低下させる。
【5】考察
(0) 俯瞰的に言うと、SCIとSQDの比較軸は、精度と効率の2軸になるはずである。精度は、解離エネルギーやエネルギーギャップについて、SCIによる推定値とSQDによる推定値の差として評価されている。効率は、計算コストで評価すべきであろうが、比較は難しいのであろうか。ただ、効率に全く関心を払わないというのも、おかしな話だと思われる(ので、SCIとSQDの比較はモヤっとする➡モワっとしているが、SQDがより効率的ということらしい)。
(1) 精度に限定しても、例えば政策意思決定者や企業幹部に対象を絞った場合、素朴な感想は、「量子アルゴリズムの成果が、古典アルゴリズムと同レベルで、何が嬉しいの?」ではないだろうか。物理系の研究者も同じかもしれない。やっぱり、SCIとSQDの比較はモヤっとする。化学系の研究者にとっては、異なるのかもしれない([*206]は化学系の雑誌)。これが、FCI(あるいはCASCI)との比較(をして、FCIとコンパラという結果)であれば、納得性はある。その場合、「サイズが大きくなると古典計算機上でFCIを実行することは無理だが、量子計算機上でFCIとコンパラな量子アルゴリズムを実行可能」というストーリーになる。すなわち、スパコンが、将来に渡ってスケールしていくというストーリーが見えてくるので、意味が見出される(ように思える)。
本論文では、「SQDが、より大きなラジカル種や過渡(化学)種、そして燃焼化学に関連する複雑な反応に対する正確な電子計算を可能にする可能性を示唆している」という自己評価がなされている。
(2) 本論文は、「量子を主役とするスーパーコンピューティング(Quantum-Centric Supercomputing)」及び「SQD」に対するIBMの推し活と言えるかもしれない。本論文の結果からは、「NISQでも有用な量子化学計算が実行可能」という結論には、至らないように思われる。
【6】ちょい足し
米クリーブランドクリニック(計算生命科学研究所及びラーナー研究所)、米ミシガン州立大学及びIBMの研究者は、DMET❚補足3❚の部分系計算にSQDを適用したところ上手くいった、という内容の論文(25年7月8日付け@J Chem Theory Compt.)を発表した(arXiv[*214]は24年12月23日付け、ただし第2版)。上手くいったとは、次の2つの意味である:㈠18個の水素原子からなる環に対するポテンシャル・エネルギー曲線の計算で、DMET+SQD🐾8は、DMET+CCSD🐾9よりも精度が高かった。㈡シクロヘキサンの各配座🐾10における相対エネルギーの計算で、DMET+FCI🐾11と同程度の結果を示した。
🐾8 DMET+SQDとは、部分系の計算にSQDを適用するという意味である。☞❚補足3❚を参照。
🐾9 摂動法を用いたポストHF法に、結合クラスター法(CC)法がある。CC法は、摂動を1電子励起+2電子励起で打ち切った場合、CCSD法と呼ばれる。
🐾10 4つの配座を対象とした:chair、half-chair、twist-boat、boat
🐾11 FCI(Full-CI:完全配置間相互作用)法。基底配置、第1電子励起配置、第2電子励起配置・・・を線形結合し、線形結合係数をエネルギーが最低になるように決めて電子相関を考慮する方法を、配置間相互作用(CI)法と呼ぶ。全ての励起配置を考慮する場合が、FCI法である。
㈠ 精度が高いとは、DMET+FCIの結果に近いことを指している。DMET+SQDとDMET+FCIとの差は、化学的精度を下回っている。バッチ配置数は、3×103。
㈡ 全ての配座に対して、バッチ配置数が1.0×104で、DMET-FCIとの差は化学的精度を下回る。
❚補足3❚
密度行列埋め込み理論(Density Matrix Embedding Theory:DMET)。元々、動的平均場理論(Dynamical Mean Fielding Theory:DMFT)の軽量版という位置付けで登場した(2012年)。両者とも、量子埋め込み理論というカテゴリーに属する。出自がDMFTの軽量版とは言え、DMETは強相関電子系だけに適用されれるわけではない(DMFTは、一般に、強相関電子系に対して適用される)。DMETは広く、多体電子系に対して適用される。多体電子系に対する近似手法という文脈では、DMETは、領域分割法というカテゴリーに属する。代表的な領域分割法には、フラグメント分子軌道法(FMO)、分割統治法(DC)及びDMETが上げられる。
DMFTと同様にDMETは、全体系を部分系と周囲の環境(バス)に分別して計算することで、全体の計算コストを削減する。部分系の計算方法には、自由度がある(ので、SQDやCCSDあるいはFCIが選択され、適用される)。DFMTはグリーン関数で部分系とバスとを繋いでいるのに対して、DMETでは電子密度(密度行列)で、部分系とバスとを繋いでいる。
米クリーブランドクリニック🐾1(計算生命科学研究所及びラーナー研究所🐾2)の研究者は、SQDを溶媒モデルに適用した結果をまとめた論文(以下、本論文
SQDに限らず、分子軌道法(MO)や密度汎関数法(DFT)を含む量子化学計算は、気相を前提としており、溶媒効果(=周囲の影響)を考慮しない。量子化学計算の文脈で、溶媒効果を考慮するとは、溶媒-溶質間相互作用を表す溶媒和化学ポテンシャル(あるいは溶媒和自由エネルギー)をシュレーディンガー方程式に導入することを意味する。溶媒モデルは、生物学に関連する化学反応や創薬の量子シミュレーションにおいて、重要なモデルと考えられる。
なお本論文は、量子>古典という研究ではない(☞【3】(0))が、28|とは異なり、化学的精度を達成している。
🐾1 量子コンピューター(IBM Quantum System One)をオンプレミスで導入した、米国初の民間組織として有名(23年3月に導入)。1921年、米オハイオ州クリーブランドに4人の医師による共同診療所として、設立。特に、循環器領域の治療で有名。
🐾2 教育と研究に特化した研究所らしい。
🐾3 分極連続体モデルは、溶媒を分子ではなく分極する(=誘電率を持つ)連続体として扱う。溶質-溶媒間あるいは(2溶媒系の場合は、)溶媒分子間の静電相互作用に対する、平均場近似と考えて良いだろう。
🐾4 正確には、積分方程式形式(Integral Equation Form:IEF)で表現したPCM(IEF-PCM)であるが、ここでは(本質を損なうことなく、煩わしさを避けるために)無視して、PCMと表現した。本論文でIEFを採用した理由は、静電ポテンシャルの微分を計算する必要がないためである。静電ポテンシャルの微分は、「離散化誤差(数値誤差)に対する感度が高くなる可能性があり、望ましくない」と判断されている。
【1】本論文の主張
本論文は、以下を主張する:
(1) 溶媒モデルに適用したSQDは、化学的精度を達成する(☞【2】(1),(2))。
(2) サンプルサイズが増加するにつれて、SQDの結果はCASCIの結果に、系統的に収束する(☞【3】(2))。
【2】結果
(0) セットアップ
1⃣ 化学的セットアップ
2溶媒系={メタノール、メチルアミン、エタノール}+水(aq)及び水分子を計算対象として、全エネルギーと溶媒和化学ポテンシャル、を計算する。
2⃣ 計算的セットアップ
諸々、28|におけるセットアップと同じである。本論文のSQDは、QiskitアドオンであるSQDおよびPySCFコードを修正したコードで実行された。
㈠ 局所ユニタリークラスター・ジャストロー(LUCJ)アンザッツを使って、基底状態を近似するために用いる分子波動関数|Ψ⟩の推定値を得る。LUCJアンザッツは、古典的なCCSD計算から得られたパラメータを用いて実装される。基底関数系は、cc-pVDZを使用する。バッチ数K🐾5=10回、S-CORE🐾6=3回である。
🐾5 回復された配置の集合から、選択される電子配置の数。
🐾6 配置回復における反復計算の回数。
㈡ メタノール、メチルアミン、エタノールの活性空間は、原子価活性空間(AVAS)法を用いて構築した。
㈢ 量子誤り緩和には、(2量子ビット・クリフォード・ゲート上の)ゲート・トワーリングと動的デカップリングを採用した。
3⃣ ベンチマーク:"正解"を出力する古典手法
量子化学計算における正解は、完全配置間相互作用法(FCI)で与えられる、とされる。FCIに活性空間近似を施した完全活性空間配置間相互作用法(CASCI)も、"正解"を与えると見なされる(ようである)。CASCIでも基底関数系は、cc-pVDZを使用する。
本論文では、CASCIが正解を出力する古典手法である。化学的精度は、1kcal/mol(=1.6×10-3)とした。
(1) 全エネルギー
{メタノール、メチルアミン、エタノール、水}における誤差は、{0.06、0.05、0.35、0.13(単位:kcal/mol)}であり、全て、化学的精度を達成している。
(2) 溶媒和化学ポテンシャル
{メタノール、メチルアミン、エタノール、水}における誤差は、0.04 kcal/mol以内。また、MNSolデータベース🐾7の値と比べて、1kcal/mol未満である。つまり、全て、化学的精度を達成している。
🐾7 MNSol(Minnesota Solvation)データベースは、水を含む92溶媒中の790種の溶質に対する、3037の実験的溶媒和化学ポテンシャル等のデータで構成されている。出典:https://license.umn.edu/product/minnesota-solvation-mnsol-database
【3】まとめ
(0) 本論文では、以下を改めて主張している:実際の量子ハードウェアでの電子構造シミュレーションにおける量子優位性の実証は、「VQEでもSQDでも、その他の量子技術でも」、「どの研究グループでも」、まだ達成されておらず、量子コンピューティングで最も困難なタスクの1つのままである。
(1) 本論文では、「SQD(ベースの方法論)は、量子優位性を達成するための有望な候補の1つであると考えている」。(全エネルギーと溶媒和化学ポテンシャルで)化学的精度を達成しているのであるから、その資格はあるだろう。
(2) 「サンプルサイズ増加に応じて、SQDの全結果が正解に、系統的に収束する」ことは、古典が手に負えないサイズでも、古典計算(CASCI)と同じ精度を達成できることを期待させる。つまり、スケーリングを期待させるということであり、重要なポイントなのだろう。
(3) サンプリング効率についても、本論文はSQDが、「熱浴配置相互作用法(HCI)などの古典的な方法に匹敵する、配置部分空間のより実用的な縮小を実現できる」と期待している。ここでも期待は、古典(HCI)並みという"控えめな"ものである。
23年9月NYSEにSPAC上場した後24年10月に事業停止し、25年9月にZapata Quantumとして再出発することを表明したお騒がせスタートアップの米Zapata Computing(ザパタ)は随分前から、生成モデルは量子優位性をもたらすと主張していた。一時期一世を風靡した変分アルゴリズムVQE(変分量子固有値ソルバー)を発明したアラン・アスプル=グジックが共同創業者であったザパタが、最初に注力していた生成モデルのモデル・アーキテクチャは、量子回路ボルンマシン(QCBM)であった。QCBMに基づく生成モデルは、学習データセットから確率分布関数を生成する生成モデルと考えることができる。
量子優位性全般(新しい動向については、☛こちらを参照)についても、量子機械学習の量子優位性(機械学習は☛こちら、強化学習は☛こちらを参照)についても、明るい話題がない中、痺れを切らしたのであろうか。満を持して、グーグル(Quantum AI)他🐾1の研究者は、「生成モデルで量子優位性を確認した」と主張する論文(以下、本論文[*217])を発表した(25年9月10日@arXiv)。ザパタは慧眼であったと言うべきであろうか。ただし、量子優位性のニュアンスには注意を要する(☞【2】(0))。また、誇大宣伝とまでは言えないが、実用性という意味では、まだ乏しいと思われる。
🐾1 米カリフォリニア工科大学、米パデュー大学。
【1】本論文の主張
本論文は、以下を主張する:
(1) 生成タスクには学習と推論(=生成)があるが『推論(inference)においてのみ』量子優位性が確認された。つまり、学習において量子優位性はなく、生成量子優位性(☞【2】(1)2⃣)のみが、実現する。
(2) 具体的には、「古典ビット列生成と浅い量子回路表現の生成」において、生成量子優位性を理論的に確立し(☞【4】(1)4⃣㈠及び(2)3⃣㈠)、実験的に確認・検証した(☞【4】(1)2⃣及び(2)2⃣)。
【2】事前整理
(0) 量子超越性(Quantum supremacy)、量子優位性(Quantum advantage)、量子有用性(Quantum utility)
少し前までは、量子超越性=指数加速、量子優位性=多項式加速あるいは2次加速、という使われ方をしていた。どちらも、量子計算の信じられないほどの高速性に焦点を当てたキャッチ-な文言であった。2019年10月にグーグルが10億倍速いと主張したときは、「量子超越性」という文言が使われたが、その後すぐにグーグルの主張が否定されるとともに、量子超越性という文言も使われなくなった(ように思われる)。量子超越性と量子優位性はマージして量子優位性になり、それが量子計算の高速性を称える言葉として残った。
ところが諸々の理由により、当初想定されていた実用的な問題に対して、量子計算の高速性がほとんど発現しないと見込まれることが明らかにされると、量子計算の価値は高速性以外にもあるというキャンペーンが始まった。ある意味、誇大宣伝の反動である。米IBMは量子有用性という文言を使いだした(24年7月)[*218]。古典コンピューターでは得られない結果を量子コンピューターを使って得られる場合、(その量子コンピューターあるいは量子アルゴリズムには)量子有用性がある、と表現すると理解している††。下記2⃣を見れば分かるように、グーグルが呼ぶ生成量子優位性の”量子優位性”は、量子有用性に近い。高速性を含むことを否定しないが、だからといって指数関数的に速いことを要請するわけではない。2025年時点でも一般的に、量子優位性は量子計算の高速性のみを称える文言として認識されていると思われるので、注意が必要であろう。
†† IBM定義では、ヒューリスティクスを除いた全ての古典アルゴリズムよりも高速であれば、量子ユーティリティと呼ぶらしい。ヒューリスティクスを含めると、量子優位性になるらしい。超2次、多項式、指数といった区分けはどうしたのだろうか?
(1) 生成タスクと生成量子優位性の定義
1⃣ 生成タスクの定義
生成タスクは、特定のパターンに一致する出力を生成するタスクである。→本論文では、射程が広い定義が書かれており分かり難いので、シンプルにした。
2⃣ 生成量子優位性の定義
量子コンピュータが、古典コンピュータよりもはるかに「優れている」方法で所望の出力を生成することを学習できる場合、生成タスクは量子優位性を示す。この量子優位性を、本論文では「生成量子優位性(Generative quantum advantage)」と呼んでいる。
ここで「優れている」とは、サンプル複雑性の低減、精度の向上、学習時間または生成時間の短縮、あるいは古典コンピュータでは実質的に実現不可能な出力を生成する能力を意味する。出力には、古典データ、量子状態、回路、アルゴリズム、あるいはその他の明確に定義されたオブジェクトが含まれる。
(2) 計算複雑性クラス
計算複雑性クラスは、アルゴリズムが必要とする資源に基づいて計算問題を分類する。クラスBQP(有限誤差量子多項式時間)は、量子コンピュータが有限誤差で多項式時間で解ける判定問題からなる。クラスBPP(有限誤差確率的多項式時間)は、古典コンピュータがランダム・ビットにアクセスして有限誤差で多項式時間で解ける判定問題からなる。
BPP ≠ BQP の予想は、量子コンピュータが古典コンピュータでは解けない問題を効率的に解けると主張する。また、P/poly(多項式サイズのアドバイス付き多項式時間)は、多項式サイズの古典回路で解ける決定問題からなる。アドルマンの定理は BPP ⊆ P/poly を述べる。
(3) 多項式時間階層の崩壊とKarp-Lipton定理
0⃣ 前置き
計算複雑性理論において、「古典計算機に様々な形態の補助情報を付加することで、その問題解決能力をどのように強化できるか」を研究することは、方向性として有望と目されているらしい。補助情報とは、例えば(入力長のみに依存する決定論的な)アドバイス文字列、効率的に検証可能な非決定論的な証明書や証人、など様々な形態を取り得る。この方向性の重要な研究成果として、Karp-Lipton定理がある。
1⃣ Karp-Lipton定理[*219]
𝖭𝖯 ⊆ 𝖯/𝗉𝗈𝗅𝗒 という仮定、つまり「𝖭𝖯内のすべての問題が『多項式サイズのアドバイス文字列を用いる』と、多項式時間で解ける」という仮定の下で、多項式時間階層は崩壊する。実際に、そのような多項式サイズのアドバイス文字列が見つかったら(仮定がリアルに成立したら)、色々とんでもないことになる。本論文における古典ビット列の生成についても、量子優位性は剥奪されることになる。
2⃣ 多項式時間階層の崩壊[*220],[*221]
多項式時間階層(polynomial-time hierarchy:PH)とは、⋃i∑iと定義される🐾2(Π、Δを使っても良い)。部外者にとっては面倒臭いが、計算量理論における∑は、総和記号ではなく、NP問題を表す。Πも総積(総乗)記号ではなく、coNP問題❚補足❚を表す。ΔはP問題である。添え字i(>0)∊ℕ の意味も独特で、∑i+1=NP∑iである。ただし、∑1=NPである。NPNPとは、NP に属する何らかの問題を解く「オラクル」🐾3を付与することで、古典コンピューターによって多項式時間で解けるNP問題を表す。
PHが第k階層で崩壊するとは、PH=∑kとなることである。多項式時間階層は崩壊しないと、広く・強く信じられている未解決の予想である。
🐾2 ⋃iは、集合の和をとるという意味である。
🐾3 オラクルは機械学習屋さん寄りの表現だろう。数値解析屋さん寄りだと、サブルーチンの方が、耳障りが良いかもしれない。
❚補足❚
P問題とは、入力ビット長nに対しnの多項式時間で、古典コンピューターによって正しい答えを出力する決定性アルゴリズムが存在する判定問題。NP問題とは、nの多項式時間で、古典コンピューターによって正しい答えを出力する非決定性アルゴリズムが存在する判定問題。coNP問題とは、補問題がNP問題であるような判定問題である。
【3】本論文の技術要素
(0) 為念:古典的シャドウ
量子学習理論は、量子世界で未知のオブジェクトが効率的に学習可能か否かという根本的な問題を調査する。なお本論文では、量子状態から古典情報を抽出する手法として、古典的シャドウを用いる。スコット・アーロンソンが考案した古典的シャドウのモチベーションは「少ない測定回数で、トモグラフィーを成功裏に実行すること」である。
具体的に言うと、古典的シャドウは、 「ユニタリー変換ρ → UρU†を適用し、計算基底の全ての量子ビットを測定する」という手順を繰り返す。ここでUは、ユニタリー演算子の”アンサンブル”からランダムに選ばれる。測定結果に、古典的事後処理を適用することにより、複数の期待値を同時に推定する(ため測定回数は、システムサイズに依存しない)。サンプル複雑性を軽減できる、とされる。
(1) 生成量子ニューラルネットワーク
本論文の量子生成モデルのモデル・アーキテクチャは、量子ニューラルネットワークである。ℓ量子ビット上の生成量子ニューラルネットワーク(QNN)は、以下の操作を実行する:
① 入力ビット列 𝑥 ∈ {0, 1}nを、ℓ量子ビット入力状態 |𝜓x⟩ および 𝑚 ≤ℓ量子ビット上の局所測定基底 ℳ𝑖に符号化する。
② 入力状態 |𝜓x⟩ を、ℓ量子ビットのパラメータ化量子回路 𝐶(𝜃) のもとで時間発展させる。
③ ℳx基底において、ℓ量子ビット出力状態𝐶(𝜃)|𝜓x⟩の最初の𝑚量子ビットを測定する。
QNNは、入力ビット列𝑥 ∈ {0, 1}nと学習可能な回路パラメータθに応じた分布pQNN(𝑦|𝑥;𝜃)に従い、𝑚ビット列𝑦 ∈ {0, 1}mを生成する。測定がPOVM(正作用素値測度)に一般化されても、ℳxは𝑝(𝑦|𝑥)に対する確率分布を形成する。
【4】比較結果・検証結果
(0) 2つの事例について概要
古典ビット列の生成、浅い量子回路表現の生成、という2つの事例について、量子生成モデルを評価している。前者については、古典生成モデルと比較して、量子生成モデルの性能が優れていることを確認している。後者については、量子生成モデルが実際に生成可能であることを検証している。
(1) 古典ビット列の生成
0⃣ 概要
古典的にはサンプリングが困難な分布から学習した後に、古典ビット列を生成するタスクについて、古典生成モデルと量子生成モデルを比較する。古典生成モデルは、トランスフォーマーとXGBoostである。量子生成モデルは、理想的なパラメータを用いた場合(ideal)と、学習されたパラメータを用いた場合(learned)である🐾4。
🐾4 実際には、古典的に容易にシミュレート可能なサイズを超えた性能を、直接予測することを可能とするために、理想。クリフォード回路を生成する量子生成モデルもある。本稿での議論には直接関わらない(と思われる)ので、割愛した。
1⃣ 量子生成モデルの目標
入力-出力ビット列のペアからなる学習データセット {(𝑥𝑖, 𝑦𝑖)| 𝑥𝑖 ∈ {0, 1}n, 𝑦𝑖 ∈ {0, 1}m}(𝑖=1~N) が与えられる。各出力ビット列 𝑦𝑖 は、(nビットの入力文字列xを、mビットの出力文字列yにマッピングする)未知の条件付き分布 𝑝(𝑦𝑖|𝑥𝑖) に従ってサンプリングされる。目標は、与えられた新しい入力ビット列𝑥に対して、未知の分布𝑝(𝑦|𝑥)に従って新しい出力ビット列𝑦を生成できるモデルを、データセットから学習することである。学習アルゴリズムは、古典アルゴリズムを使う。
生成モデルの品質は、その出力分布が異なるxにわたって、p(y|x)をどれだけ正確に近似するかによって決まる。具体的な評価指標は、交差エントロピー・ベンチマーキング(XEB)スコアである。XEBスコア=0~1であり、XEBスコア=1であれば近似100%である(正しい分布を生成したことに相当する)。
2⃣ 結果
物理量子ビット数とXEBスコアの関係が、図2(d)に図示されている🐾5。図2(d)から定性的に明らかなことは、3つある。1つ目は、2つの古典生成モデルはほぼ同じ関係を示し、2つの量子生成モデルもほぼ同じ関係を示す(量子古典のそれぞれが、ほぼ同じ線形関係式で表現できる)。2つ目は、量子生成モデルのXEBスコア(のと古典生成モデルのXEBスコアは、大きく異なる。3つ目は、古典生成モデルは、サイズ(≃物理量子ビットの数)が大きくなると、急激にXEBスコアが小さくなる。
すなわち定性的には、量子生成モデルが古典生成モデルより優れている、ということは可能であろう。この定性的な結果から直接、「量子生成モデルは(古典生成モデルとは異なり)、古典的にはサンプリングが困難な分布を生成している」と言えないので、定量的に評価する必要がある。定量的には、例えば物理量子ビット数約100で、量子生成モデルのXEBスコアは0.5程度である(ちなみに古典生成モデルでは0.1程度)。
XEBスコア=0.5程度であれは『生成できた』と主張して良いのかもしれない。
🐾5 図2(c)と(e)は割愛した。図2(c)は、所定のゲート忠実度に到達するまでに必要な古典的サンプル数を扱っている。図2(e)はスパコン(米オークリッジ国立研究所のフロンティア)を使ったとしても、量子生成モデルの方が優れていることを示している。
3⃣ 補足
量子ノイズに対して、量子誤り緩和を実行している。具体的には、長時間のアイドル期間中に動的デカップリングのみを実施している。読み出しバイアス除去には、(全ての実行数の半分が終了する前に)全量子ビットに対してXゲートを実行、値を反転させてビット列の半数を収集する方式を採用している。残りの半数には追加処理を施さず、これ以外の誤差緩和策は実施していない。
瞬間的に深いQNNについては、触れていない(が、本稿には影響しないという判断)。
4⃣ 古典ビット列の生成において量子優位性が現れる理論背景
㈠ メイン
本論文は、量子生成モデルが(古典データと古典学習アルゴリズムを使っているにも関わらず)古典的にはサンプリングが困難な分布を生成できることを、シミュレーション実験で実証しただけではなく、理論的にも示している。具体的には、次の定理(定理1)を証明している:
標準的な計算複雑性理論の予想(⤵下記㈡参照)によれば、量子コンピューター(量子生成モデル)では、古典データを用いて効率的に古典ビット列の生成(法を学習)できる一方で、古典コンピューター(古典生成モデル)では、生成が困難な分布p(y|x)が存在する。ここで、p(y|x)は、古典的nビット文字列を古典的mビット文字列へ写像する分布である。
㈡ 追記1
”標準的な計算量理論の予想”とは、多項式時間階層(polynomial-time hierarchy:PH)が崩壊しない🐾6、という予想(未解決問題)を指している。PHが崩壊しないことは、P≠NPよりも強い予想[*220(再)]である。
🐾6 PH及びPHが崩壊しないという予想等について、☞【2】(3)2⃣を参照。
㈢ 追記2
㈠で述べた量子生成モデルは、少量の古典データで学習可能である。さらに、量子生成モデルを学習するには、効率的な古典学習アルゴリズムで十分である。
(2) 浅い量子回路表現の生成
0⃣ 概要
生成タスクは、与えられた量子回路に対する、浅い回路表現の生成である。本論文では、量子系の物理的ダイナミクス(時間発展シミュレーション)における、生成タスクに焦点を当てている。つまり、ハミルトニアンの隠れた構造を見つけることに焦点を当てている。ここで言う隠れた構造とは、ハミルトニアンHが、H=∑hjZjのように、より小さな要素の総和で表現できるような構造を指している(と理解)。
本論文では、非常に長い発展時間であっても、量子生成モデルが隠された構造を見つけることができるかを検証している。
1⃣ 量子生成モデルの目標
本生成タスクへの入力(回路)は、「poly(𝑛)個の2量子ビットゲート、poly(𝑛)個の補助量子ビット及びpoly(𝑛)個の回路深さ🐾7」を用いて、物理系の時間発展をシミュレートするための、ユニタリ時間発展演算子𝑈を実装する回路𝐶である。言わずもがな、U=exp(-iHt)である。
この入力回路𝐶が与えられた場合の生成モデルの目標は、𝒪(1)回路深さで𝑛量子ビット上に出力回路𝐶′を生成することである。ただし、𝒪(1)深さの𝑛量子ビット回路を用いてユニタリ𝑈を実装する、より効率的な手法が存在する、という仮定(確約)が与えられている、とする。
🐾7 回路深さは、粗っぽく言えば、量子ゲート数。正確に言うと、並列化可能なゲートをグループ化した場合の、当該グループ数を指す。
2⃣ 結果
物理量子ビット数3の場合は図3(c)に、物理量子ビット数16の場合は図3(d)に、結果が図示されている。(c)と(d)のそれぞれで、発展時間tが短い場合と長い場合の2ケースに対して、量子誤り緩和策(EM)を実施した生成結果とEM未実施の生成結果が、正解(理想的な結果)と比較されている。発展時間tが短い場合とはt=0~10、長い場合とはt=23562~23570である。
結果は、(c)・(d)、EMの有無並びに発展時間の長短、に関わらず正解との一致度は高い🐾8。つまり、「長い発展時間でも、量子生成モデルは隠された構造を見つけることができると実証された」と言って良いだろう。
🐾8 細かく言うと、EM有りが全てのケースで、より正解に近い。量子ビット数((c)と(d))であれば、量子ビット数が少ない方が正解に近い。発展時間は、短い方が正解に近い。
3⃣ 浅い量子回路表現の生成において量子優位性が現れる理論背景
㈠ メイン
本論文は、次の定理(定理2)を証明(?)している:一般的な多項式サイズの入力回路Cが浅い表現 C′ を持つことが確約されている場合であっても、そのような浅い回路表現を見つけることは、𝖡𝖯𝖯=𝖡𝖰𝖯 でない限り、古典的には効率的ではない。すなわち、そのような浅い回路表現を効率的に見つけるには、量子コンピューターが必要となる。
㈡ 追記
念の為に改めて、まとめ的に整理すると、浅い量子回路表現の生成タスクでは、量子生成モデルと古典生成モデルの比較は行われていない。それは、古典コンピューターが、浅い量子回路表現(=隠された構造)を効率的に見つけることができないからである。なぜ、見つけることができないと断言できるかと言うと、もし古典コンピューターが、そのような浅い表現を効率的に見つけることができたとすると、𝖡𝖯𝖯≠𝖡𝖰𝖯と矛盾するからである。つまり、もし𝖡𝖯𝖯=𝖡𝖰𝖯であれば、古典コンピューターが、そのような表現を効率的に見つける可能性を排除できない→当たり前?。
𝖡𝖯𝖯≠𝖡𝖰𝖯は雑に言うと、量子コンピューターが古典コンピューターよりも性能が高いという予想である。この予想を前提として”量子優位性”を証明するのは、今一つ、腑に落ちない。
【5】考察
(0) 本論文には、「有用な生成量子優位性を実現するための残された具体的なステップは、未解決のまま」、と書かれている。
(1) 量子生成モデルなのだから、古典的にサンプリングが困難なビット列を生成できたとしても、驚くに当たらないのでは?という意見は、あまり筋が良くない。本論文の場合、次の結果を得られたことが、興味深いということになる:{古典的にサンプリング困難な入力×古典学習;古典生成}→古典的にサンプリング困難な出力を生成できない。一方、{古典的にサンプリング困難な入力×古典学習;量子生成}→古典的にサンプリング困難な出力を生成できる。
(2) 本論文における2つの事例:㊀古典ビット列の生成、㊁浅い量子回路表現の生成において、生成量子優位性が現れるには、次の仮定(予想)が満たされる必要がある。㊀→多項式時間階層が崩壊しない。㊁→𝖡𝖯𝖯≠𝖡𝖰𝖯。この2つは、未解決であるものの、広く信じられている予想であり、大きな問題はないと思われる。ただし、㊀については、Karp-Lipton定理がある(☞【2】(3)1⃣)。
㈠ 余談
米カルテックのジョン・プレスキル他が「量子優位性を探す航海の海図を提供」した論文[*A-65]を25年8月@arXivに航海して以来、量子優位性に関する論文が増えているように思える🐾1(☛こちらを参照)。本稿で扱う、英大手商業銀行HSBC🐾2と米IBMの研究者による論文[*222](25年9月22日@arXiv。以下、本論文)も、その文脈に属する。本論文は、機械学習における量子
㈡ 「債券取引注文の約定確率」というエッジの効いたテーマ
しかし、それを逆手に取って(?)、古典機械学習が、その驚くべき性能の高さに対する理論的裏付けがないままに発展した歴史を、QMLにも投影しようという流れになりつつある。つまり理論的裏付けはさて措き、実用問題で良い結果が出れば、それでいんじゃね?と開き直った感がある。本論文は、まさにそういう内容である。欧州の社債取引における取引注文の約定確率(☞【2】(1)4⃣参照)の推定という、かなりエッジの効いたテーマを取り上げている。約定確率推定において、「量子生成・古典特徴量🐾3」を使った古典機械学習モデルは、古典特徴量を使った古典機械学習モデルよりも優秀である、と本論文は主張している。なお、本論文で扱われている量子
🐾1 例えば、グーグルの量子生成AIに関する論文[*217](本編で取り上げている)、クオンティニュアムの(該社がそう呼ぶ)量子情報超越性に関する論文[*223](☞31|参照)、デンマーク工科大学他によるマルチモード・ボソニック変位過程の確率分布学習に関する論文[*224]、慶應義塾大学とTOPPANによる設備の異常検知に関する研究[*225](☛こちらを参照)。
🐾2 HSBCは、世界で最も量子技術の利用にアグレッシブな商業銀行と言える。公知なものでも、①米クオンティニュアム、②スイスのテラ・クオンタム、③米リゲッティ(の英国子会社)、④東芝と、それぞれプロジェクトを行っている。④は量子暗号通信である。①~③は、☛こちらを参照。
🐾3 「量子生成・古典特徴量」という文言が、本論文で用いるわけではない。本稿で、分かり易く説明するため、便宜上、用いているに過ぎない。本論文では、量子生成特徴量(quantum-generated feature)という文言が使われている。量子生成・古典特徴量は【3】(2)1⃣を参照。
❚補足1❚
文言の使い分けは、それほど厳密ではないが、最新トレンドを踏まえて、修正することにした。"使い分け"は、以下のように整理できる:指数加速が現れること=量子超越性(quantum supremacy)|問題のスケールが大規模で、かつ(少なくとも)超2次加速が現れること=量子優位性(quantum advantage)|(高々)2次加速が現れること=量子高速化(quantum speed-up)|何らかの意味で、古典以上の性能を示すこと=量子有用性(quantum utility)
【1】本論文の主張
本論文は、以下を主張する:
(1) AUC(C)<AUC(Q)
AUC(C)は、{2値分類タスク‖入力=古典特徴量|モデル=古典機械学習モデル}の出力に対するAUC🐾4。AUC(Q)は、{2値分類タスク‖入力=量子生成・古典特徴量|モデル=古典機械学習モデル}の出力に対するAUC。☞【4】(1)1⃣参照。所謂34%の性能アップに関しては、☞【5】(2)を参照。
🐾4 為念:AUC(Area Under the Curve)=ROC曲線下の面積。ROC(Receiver Operatorating Characteristic)曲線→レーダー信号のノイズの中から、敵機の存在を検出するために開発された。
ただし、以下の注意が必要である:
(2) 特定のデータに対して、ヒューリスティクス的に優位性有用性が示されただけである。
(3) 古典特徴量に対して優位性有用性を表す量子生成・古典特徴量を生成する、量子特徴量マップ・量子回路の処方箋があるわけではない。
【2】事前整理
(0) 数学的な意味合いにおける問題セットアップ
一般的には確率論と呼ばれる古典確率論は、コルモゴロフ流に定義される。つまり、ある集合 Ω を考え、その上で「確率の公理」を満たす確率測度Pを定義し、このΩとPで確率を定義する。無限集合の上にも確率を定義するためには、もう一工夫が必要である。「事象の公理」を満たす、Ω の部分集合全体の集合(=族あるいはファミリー)Fを導入する。数学っぽくまとめると、古典確率論は、確率空間(Ω, F, P)を基に展開される🐾5。Fを数学的にカッコよく言うと、Ωのσ代数である。Ωは全事象(あるいは、標本空間等)と呼ばれる。なお、確率測度は確率と混同しても(数学屋さん以外は)、問題ない。
古典確率論に対して、量子確率論(非可換確率論あるいは代数的確率論とも呼ばれる)も定義できるが、本論文で扱う確率論は、あくまで古典確率論である。本論文において具体的には、Ωは可能な市場状態を持つ有限の標本空間である。Fは、取引ウィンドウへのフィルトレーション🐾6を備えた測定可能なイベント空間である🐾7。Pは、確率測度である。
🐾5 わざわざFを用意するのは、ザックリ言うと、無限次元を扱うためである。もう少し噛み砕くと、Ω の全ての部分集合を、確率事象として扱わないようにするためである。Ωのσ代数である特別な部分集合のみが、確率事象として扱われる(確率が割り当てられる)。
🐾6 フィルトレーションを数学的に定義すると、増大する Fの部分σ代数の系{Ft}である。数理ファイナンスにおける確率論では、フィルトレーションは必ず現れる。その理由は、時間に伴って変化する観測可能な情報を、フィルトレーションを使って表現するためである。なお通常、フィルトレーションは、適当な時間領域をTとして、{Ft}t∊Tのように表記されるが、表記を簡略化した。
🐾7 (🐾6を受けると)、数理ファイナンスにおける確率論を扱っている本論文の確率空間は、フィルトレーションを含む(Ω, F, {Ft},P)と表現される。
(1) 金融的な意味合いにおける問題セットアップ
1⃣ 全体の構図
電子取引される債券市場を、次のように考える:グラフMt = (V, E)tが連続時間 t で伝播し、時間依存のサイズ|Vt|>1を持つ市場参加者 Vt = {1,・・・, Nt} ∈ ℤ+のオープン・コミュニティと、時間的相互作用Et⊆ Vt2を持つ。取引主体(リクエスト・エンティティ)rk ∈ Vtは、特定の RFQ🐾8構成にマップされるベクトル νkの形式で、取引の問い合わせを同期的に受信する選択されたディーラーDk ⊂ Vt\{rk}との間で、ブラインド・オークションを開始する。
なお、本論文における債券は、社債(普通社債)である。
🐾8 Request For Quote:取引注文問い合わせ。価格を含む取引条件を提示する(Quote)ように要求する(Request)こと。
2⃣ 本論文におけるセットアップ・ポリシー
本論文では、Mt ⊂ Stのダイナミクス、Stと他の市場との相互作用、そしてナッシュ均衡を求める集団取引戦略やアルゴリズムの空間を限定するようなグローバル構造については、いかなる仮定も置かない。ここで、Stは金融システムである。
代わりに、本論文では、ヒューリスティックな方法を使用して、純粋に観察情報中心かつ確率論的に問題を構築する。T > 0とした(Mt)t∊Tの特定の取引期間T:=[0, T] 中に特定のディーラーd が選択されるすべての k ∊{ki,・・・,kj}:=KTに対して、d ∈ ⋃Dk🐾9という局所な観点からのみこれを行なう。
🐾9 為念:⋃DkのUは、集合の和を意味する数学記号である。
3⃣ 定式化っぽいまとめ
現在の債券在庫に関係する情報を含む可能性がある νkを持つ(添え字kで個別に区別される)RFQについて、ディーラーは一時的な市場状況とビジネス制約の下でリスクと収益性の目標のバランスを取ることを目的としたアルゴリズム取引戦略 (ξt)t∊Tの一部として、何らかの形の効用応答関数U(νk,▪)を最適化しようとする。
4⃣ 改めて、約定確率の定義
約定確率とは、取引主体が、k(∊ℕ)で識別されるRFQにおいてディーラーdが提示した条件Qkdを受諾する割合である。
(2) (量子)機械学習モデルの意味合いにおける問題セットアップ
取引に関する問い合わせ情報ベクトルνtと、それぞれの市場状況からの情報を符号化する市場状態表現x(☞【3】(1)0⃣参照)を入力データセット、過去の取引結果 y ∈ {0, 1}を出力データセットとして使用し、学習が行われる。ここでy=0は、約定していない取引インスタンスであり、y=1は約定した取引インスタンスである。
ただし、本論文ではアルゴリズム取引戦略ξtの性質ではなく、xを量子変換ϕしたφ(X)に関する推定誤差εの縮小について検討している。すなわち、RFQの限定された取引期間において、与えられたXに対して、ε < ε0となるような変換ϕを、量子アルゴリズムを用いて求める問題を考えている。ここで、ε0とはϕとして恒等関数ϕ0(X) = Xを考えた場合の推定誤差である。
【3】本論文における技術要素等
(0) 古典特徴量ベクトル
1⃣ メイン
データソース・サンプルは、2023年9月1日から2024年10月29日までの取引期間に対応し、5,166銘柄の債券と747銘柄の関連ティッカーにリンクされた合計1,073,926件のRFQに対する294取引日分の日中アルゴリズム応答を含み、主に欧州社債市場をカバーしている。表形式で表されている時系列データの時間分解能は、マイクロ秒オーダーで、表の各行(=row)は、RFQ受信時に観測された市場状態表現の固定された選択を符号化する一意の特徴量ベクトルに対応している。したがって、一意の時点における各(古典)特徴量ベクトルは、提出されたRFQ応答が正常に承認された場合は値「1」、そうでない場合は値「0」を表す2値ラベルに関連付けられている。ちなみに、古典特徴量ベクトルは、市場状態表現または取引イベント・ベクトルとも呼ばれる。
古典特徴量ベクトルは、過去の情報のみにアクセス可能な連続的な実市場時間で構築される。これは、技術的には最大 1 マイクロ秒前までの情報である。古典特徴量ベクトルは『RFQ、関連業界セクター・レベルのティッカー、市場の動向と買い側/売り側の反応を探る短期から長期のタイム・ラグ』まで、ミクロからマクロのスケールで各特定の債券に関連付けられた統計特性を、時間と粒度の両方の次元で捕捉する『広範な多変量時系列データ分析のセット』で構成される。これらの特性は、イベントを形成する 216 の密な数値特徴量セットで表現される。
本論文の検証実験では、2024年7 月24 日から始まる、関心のある古典特徴量とそれぞれの過去情報のローリング・ウィンドウを含む、限定された取引ウィンドウを定義する。このアクティブなウィンドウでは、その期間中に満期を迎えない債券のみを選択する。これは、3,425 の債券と 652 のティッカーにリンクされた 143,912 件の RFQ に相当する。
各古典特徴量は、価格情報などの約 900 万の日中シグナルも符号化している。各個別のイベント特徴値、または時間差のみが異なるような特徴量のグループは、-1 から +1 の間でスケーリングされる。次に、この取引ウィンドウの各日の RFQ に対応する16,000件の古典特徴量の代表サンプルを、ランダムに生成する。
2⃣ 為念:古典特徴量と量子生成・古典特徴量との一意な関連付け保証
取引サンプルが与えられた場合、まず、古典特徴量を正規化する。
x̃i=(xi−μ)/w
ここで、μ と w はそれぞれサンプルの平均と標準偏差である。正規化された特徴量は、外れ値の影響を低減するために 2π∗tanhx̃i /3 を用いてさらに変換される。これにより、これらの古典入力特徴量が、後続の量子符号化における回転として適切な範囲内にあることが保証され、スケーリング・パラメータ α(←🐾11)を用いて量子ゲート回転の全範囲を制御できるようになる。
(1) 約定学習
0⃣ 市場状態表現
市場状態を表現するための規定は存在しない。対象となるプロセスを説明するのに適切と思われる情報についての仮説を立てることしかできない。市場には、情報ベクトルνtが既に提供されている。νtは全てのディーラーが保有している。この情報のみを用いて約定確率を推定することは、推定問題は、ランダム推測ゲームに収束する(可能性がある)。これを避けるためνtを、p個の要素(特徴量)を持つ市場状態表現x ∈ ℝpに拡張する。
1⃣ メイン
学習設定は、x∈ℝpによって張られる特徴量空間の豊富な構造を利用して、時刻と市場状況の違いを区別する。x には部分的にしか観測できない情報と根底にある不確実性があるため、学習タスクの目的は、市場のローリング時間ウィンドウ内で P(y|x) の適切な近似値を見つけ、将来の未観測イベントの結果ラベルを可能な限り正確に予測できるようにすることである。
Zsを、xとyを組み合わせた「市場状態表現・結果タプル」の空間とし、D ∈ Zsを s 個の状態ペア {(xi, yi)}(i=1~s) を含むデータセット・サンプルとする。約定学習の目的は、市場状態表現 x ∈ ℝpを、対応する約定確率 P(y = 1|x) ∈ [0, 1] にマッピングする約定確率関数 Λ: ℝp → [0, 1] を学習することである。
実際の学習手順は、サンプル D ∈ Zsを、関数 Λθ ∈ H にマッピングするアルゴリズム A : Zs → H に符号化される。Hは仮説空間(hypothesis space)である。具体的には、アルゴリズム A は、モデルパラメータ θ を最適化して、学習サンプル D に Λθをフィッティングし、学習サンプル全体で平均された損失関数ℓ(y, Λθ(x))を最小化する。
2⃣ 汎化性能を上げるための工夫
学習プロセスでは、D の学習データに対する経験的損失を最小化するが、目標は汎化可能な推定値 に到達することである。汎化のためには、全体的な学習フレームワーク {H, A} がバイアスと分散のトレードオフ、つまり大きな仮説空間 H を採用することと、有限の学習セット D に強く依存する推定値 を取得することとの間の固有のトレードオフを適切に管理できるようにする必要がある。
本研究では、H の表現力を制限しながら、交差バリデーションによって A を拡張する正則化手法によって、バイアスと分散のトレードオフを管理する。
(2) 量子生成・古典特徴量
1⃣ メイン
本稿で言うところの、量子生成・古典特徴量とは、(元の)古典特徴量を量子変換した「量子特徴量」を射影測定して得られた古典特徴量を指す。量子変換 ϕ として射影量子特徴量マップ(Projected Quantum Feature Map:PQFM)を選択する。射影量子カーネルの概念に関連しているPQFMは、2つの写像からなる複合写像である。1つめの写像ϕUは、古典特徴量ベクトル x を高次元量子状態|ψ⟩に埋め込む写像である:x→ϕU(x)=|ψ⟩。もう一つの写像ϕMは、状態|ψ⟩を、古典特徴量 x′ に写像する射影測定写像である:|ψ⟩→ϕM(|ψ⟩)=x′ 。つまりφ=ϕM◦ϕUであり、x′=φ(x)である。
なお本論文で量子変換は、量子シミュレータと実機(NISQデバイス)を使って、実行された❚補足2❚。
2⃣ 具体的な実装について
PQFMを具体的に実装するためには、量子デバイス上で実行可能な実際の量子回路アーキテクチャと互換性のある埋め込みユニタリーU、基準状態(fiducial state)|ψ0⟩、および演算子の集合{Oi}(j=1~q)を具体的に選択する必要がある。
Uには、いわゆるハイゼンベルク・アンザッツ(HA)🐾10に関連付けられたパラメータ化回路を用いている。HAには、ショートとロングの2種類がある。両者の違いは、パラメータα🐾11とブロック数🐾12である(売り持ちと買い持ち、ではない)。ショートはα=1.0、ブロック数1。ロングはα=0.1、ブロック数2である。基準状態は、|ψj⟩のテンソル積状態をとする。ここで、|ψj⟩は量子ビットj上の固定だが一様ランダムな1量子ビット状態である。 {Oi}として、b ∈ {1, 2} である q 個の b 局所パウリ文字列{Sib}を選択する。
🐾10 1 次元ハイゼンベルク模型にヒントを得たアンザッツ。HA に対応するユニタリ演算子は、ハイゼンベルク・ハミルトニアンℌを使うと、exp(ーiαℌ)によって得られる。α ∈ ℝ+で、すべての回転をスケーリングする符号化のための単一の共有追加パラメータ。
🐾11 上記🐾10におけるexp(ーiαℌ)に現れているαのことである。
🐾12 トロッター・ステップ数。
3⃣ 量子誤り緩和(QEM)
本論文では、2つの量子誤り緩和手法が適用されている。具体的には、パウリ・トワーリング🐾13及び、測定誤りに対するTREX(Twirled Readout Error eXtinction)🐾14である。
🐾13 論理回路に独立したランダムな1量子ビット・ゲートを導入する手法。ゲートの導入は、有効な論理回路には影響を及ぼさない一方で、任意の量子ノイズがパウリ誤りに変換される。
🐾14 測定量子誤りを低減する一般的かつ効果的な手法。まず、元のノイズをパウリ・トワーリングを用いて変換する。変換されたノイズを、測定値に作用する乗法定数λとして取得する。測定値をλで割った値を、測定誤りを取り除いた測定値とする。
❚補足2❚
㊀ 量子シミュレータ
行列積状態シミュレーション法と、IBMのシミュレータQiskit Aerを使用する。回路はN=109個の量子ビットで構成される。1局所パウリ測定により、古典イベント・ベクトルのPQFM変換を抽出する。これは各量子ビットのパウリX、Y、Zの測定に対応するため、PQFM出力特徴量の総数qは3N = 3 × 109 = 327となる。
㊁ 実機(NISQデバイス)
IBM Quantumシステムibm_torinoが使用された。これは133個の固定周波数トランジション量子ビットを備えたHeron r1プロセッサを活用し、調整可能カプラを介して(IBM独自のトポロジーである)ヘヴィー・ヘックス格子上に接続されている。各観測量の期待値は4,096ショットを使用して計算される。
(3) 本論文で経験的アプローチを採用している理由
本論文では、市場時間によって学習データセットとテストデータセットが厳密に分離された金融時系列における約定確率推定のみを重視する。これは、この時間伝播によってxとyの要素がそもそも確率変数となるためである。そのようなサンプル外または分布外の検定では、推定誤差に関する一般的かつデータ・インスタンスに依存しない理論的保証は得られない。なぜなら、各モデルが適切な帰納的バイアスという形で時間領域の知識を取り込む可能性があるためである。
したがって本論文では、純粋に経験的なアプローチを採用し、金融業界で一般的に用いられるバック・テスト(☞【4】(0)参照)を用いて実験的検定を設計する。
【4】比較結果
(0) 本論文における性能比較の方法ーバックテストー
1⃣ 前振り
古典特徴量と量子生成・古典特徴量にアクセスできる約定確率推定器を仮想的に組み込むことによる潜在的な性能向上は、間接的にしか評価できない。これは、異なる約定確率推定値の結果として取引行動が変化することで、市場からの未知の反応が次の時点の条件やそれぞれのRFQに影響を与える可能性があるためである。しかし、金融業界のモデル検証で広く使用されているバックテスト手法を用いることで、テスト環境を固定したまま、異なるモデルを相対的に比較し、ベンチマークすることが可能である。
2⃣ バックテスト・プロトコル
本論文では、モデル・パラメータを固定した状態で入力データを変更した場合に観測される性能差のみを考察し、その大きさの精度については考察しない。その精度には、より高度なキャリブレーションと、それに伴う不確実性を伴う統計的仮説検定が必要となるためである。コンパイル済みデータセットに対して、バックテスト・プロトコルを活用する。バックテスト・プロトコルの詳細は、割愛。
(1) 結果
0⃣ 比較指標
【1】で示した通り、比較指標はAUCである。選択理由は、以下の通り:(軽度から中程度の)不均衡なデータの場合、正解率は誤解を招きやすく、多数派クラスを予測する方向に偏り、モデルの真の識別力を捉えられない可能性がある。一方、AUCは肯定インスタンスと否定インスタンスの相対的な順位付けを評価するため、偏ったクラス比に対して頑健であり、ラベル割り当てに用いる特定の閾値にも依存しないため、モデリングと確率キャリブレーションを切り離すことができる。
まとめると、不均衡なデータの場合、AUCは正解率よりも優先され、ゴールド・スタンダード指標とみなされる。このため、本論文での比較指標として適している。
1⃣ 汎化性能比較
バックテスト・プロトコル(☞(0)2⃣)に基づき、4つの古典機械学習モデルに対して、データ入力として古典特徴量を使用した場合と、量子生成・古典特徴量を使用した場合を比較した。4つの学習モデル とは、⓵ロジスティック回帰(LR)、⓶勾配ブースティング(XGB)、⓷ランダム・フォレスト(RF)、⓸NN(フィードフォワード・ニューラルネットワーク、多層パーセプトロン)である。量子生成・古典特徴量は、ノイズ無し量子シミュレータを用いて生成した場合❶と、実機を用いて生成した場合がある。また、実機の場合は更に、ハイゼンベルク・アンザッツとしてショートを用いた場合❷と、ロングを用いた場合❸がある(☞ショート及びロングについては【3】(2)2⃣を参照)。さらに、学習データと取引データの時間差が⓪0日と①1日の場合について、比較している。
以下に示す値は、(量子生成・古典特徴量を使用した場合のAUCー古典特徴量を使用した場合のAUC)/古典特徴量を使用した場合のAUC)であり、単位は%である。
⓪❶→⓵-1、⓶-6、⓷-7、⓸±0
⓪❷→⓵13、⓶12、⓷9、⓸16
⓪❸→⓵33、⓶31、⓷32、⓸39
①❶→⓵+2、⓶-5、⓷-7、⓸+1
①❷→⓵-1、⓶-3、⓷-2、⓸+4
①❸→⓵19、⓶23、⓷27、⓸28
ノイズがない(理想的な)量子シミュレータを使った量子生成・古典特徴量を使ったケース❶の場合、⓪でも①でも、多くの学習モデルで、古典特徴量を使ったケースに負けている。実機を使った量子生成・古典特徴量を使ったケースでも❷の場合、⓪では大きく勝っているものの、①になると、勝っているとは言い難い。唯一❸は、⓪でも①でも、古典特徴量を凌駕している、と言って良いだろう。学習モデルで言うと、(⓪でも①でも、❶~❸のどれでも)NNの成績が良い。
❸は、⓪で31~39%、①で19~28%も、古典特徴量を使った場合よりAUCが大きい。この差は大き過ぎる。それは、本論文の著者達も感じているところ(☞【5】(0))であり、これほど大きな差を生み出した要因を探ることは必要と思われる。
ちなみに、学習データと取引データの時間差が伸びると❷と❸のAUCは減少するが、❶及び古典特徴量を使った場合のAUCは、ほぼ変わらない。
2⃣ 為念:古典特徴量と量子生成・古典特徴量の分布ー定性的比較
古典特徴量は概して、多峰性があり、滑らかでない分布を示している。量子生成・古典特徴量は全体的に滑らかである。量子シミュレータで生成された量子生成・古典特徴量((i)とする)と実機で生成された量子生成・古典特徴量((ii)とする)でも、分布は異なる。概して(ii)は(i)より、滑らかで拡がりが少ない(分散が小さい分布)である。
この傾向は、ハイゼンベルク・アンザッツが、ショートからロングに移行する場合も同様らしい。量子ノイズの影響が大きいほど、結果として得られる特徴量分布は、より滑らかになり、平均0に近い分布となることを示唆しているようである。
【5】考察
(0) 本論文は、結果(☞【4】(1)1⃣)について以下のように評価している:この実験結果は、我々が用いるヒューリスティック手法に依存するデータ固有の実証分析であり、汎化の保証はない。AUC向上の大きさは疑問視され、詳細な説明が困難である。特に、量子回路のハードウェア実行中に生じる固有ノイズが、最終的に導出されたモデル性能向上に果たす正確な役割は解明されていない。
また、「(追加の実験検証により、先の)実験結果を理論的に理解することはできないことが、明確に示唆されており」、「ノイズあり量子シミュレータによる実験では、実機による結果を再現できず、さらなる調査が必要である」と書かれている。
(1) 本論文のセットアップは、あくまで、古典特徴量×古典機械学習モデルである。古典特徴量を、量子デバイスで抽出しているに過ぎない。そう整理した上で、本論文の結果は、以下のようにまとめられるだろうか:古典特徴量を量子変換して、特徴量(が従う確率)分布を良い感じで推定できた場合、特徴量分布からサンプリングした「新しい古典特徴量」を使うと、より良い結果が得られる。いい感じの推定が出来なかった場合は、(オリジナルの)古典特徴量を使った結果に劣後する。量子生成・古典特徴量が従う確率分布は、古典的に生成することが難しい確率分布ではない。あくまで、古典確率論(☞【2】(0))の範疇に収まる(はず。というか、そのように本論文に書いてあるという理解)。それでも量子優位性有用性が現れる、というのは、不思議ではある。
それはそれで飲み込むとして、量子生成・古典特徴量の比較対象は、古典生成・古典特徴量でなければ、比較が公平公正ではないと思われる。適当な古典生成モデルを使えば、古典生成・古典特徴量は作れるはずである。その場合、少なくとも30%台の差異は生じないのではないか、と思われる。
(2) ⓪❸→⓵33、⓶31、⓷32、⓸39の数値を平均すると、33.75%≒34%という数字が出てくる。つまり、⓪=学習データと取引データの時間差が0日の場合かつ、❸=本論文でロングと呼ばれる量子回路(ハイゼンベルク・アンザッツ)を使った場合の、平均値はおよそ34%である。ここでの平均は、4つの古典アルゴリズムとの差に対して計算されるが、無理やり情報を集約する以上の意味はない。平均値なら、中央値(32.5%)の方がマシである。
量子優位性に関する主な批判は、実用的な量子優位性が実現されていない、ということである❚補足1❚。本稿で取り上げた米テキサス大学オースティン校他🐾1の研究者による論文[*223](以下、本論文。25年9月8日)🐾2は主流の批判とは異なり、「そもそも論的な懐疑」に対して、懐疑を否定した論文である。ここで述べた、そもそも論的な懐疑とは、次のような疑問である:明確に定義された計算タスクにおいて、無条件の量子優位性を実験的に実証できるだろうか? そして、量子デバイスは、ヒルベルト空間の指数次元を物理的にアクセス可能なリソースとして確立する計算を実行できるだろうか?
本論文は、今日の量子ハードウェアがヒルベルト空間の指数関数性にアクセスできるほどの複雑さを持つ量子状態を準備できることを証明する。ある意味、哲学的なテーマを扱っている。このタイプの量子優位性は、量子情報超越性(quantum information supremacy)🐾3と呼ばれている[*226]❚補足2❚。従って、本論文で扱われている量子優位性は、量子計算における加速を扱う量子優位性とは異なることに注意。また、実用的な量子優位性というわけでもない。
🐾1 米カリフォリニア大学バークレー校、米クオンティニュアム。
🐾2 30|の🐾1にて既出。
🐾3 優位性と超越性という、文言の整合性が取れていないことは、とりあえず無視する。
❚補足1❚
1⃣ [*227]によると、量子優位性が実現し、かつ実際にビジネスの現場で運用されているユースケースは、3つしかない(as of 25年10月3日)。ただし、全てD-Waveの量子アニーラを使ったケース。☛こちらを参照。
2⃣ 現在までに、量子優位性を示す最も広く認識されている実験的実証は、大きく2つのカテゴリーに分類される。1つ目のカテゴリーは、ベル不等式の破れである。これは、いかなる「局所的に実在する」古典理論でも再現できない(実験における抜け穴は全て塞がれたと、専門コミュニティで広く認識されている)。2022年のノーベル物理学賞の対象🐾4ともなったこれらの実験は、しかしながら、量子計算の指数加速を直接調べるものではない。
2つ目のカテゴリーは、サンプリングに基づく量子優位性実験である。この実験では、量子デバイスが、古典的には忠実にサンプリングすることが不可能であると、広く信じられている確率分布からサンプリングを行う。しかし、これらのサンプリング問題の指数関数的古典的困難性は条件付き、すなわち、証明されていない(が、広くかつ強く信じられている)計算量理論の仮定に依存している。
ちなみに、グーグル(Quantum AI)他が示した、2つの事例における「生成量子優位性」(☛こちらを参照)も、それぞれ多項式時間階層が崩壊しないこと及び、𝖡𝖯𝖯≠𝖡𝖰𝖯を仮定している(25年9月10日@arXiv[*217])。
🐾4 2025年のノーベル物理学賞は、巨視的量子トンネル効果を実証したジョン・クラーク、ミシェル・デヴォレ、ジョン・マルティニスの3氏に贈られた。
❚補足2❚
米テキサス大学オースティン校のスコット・アーロンソンが筆頭著者である[*226]は、計算複雑性理論における未証明の仮定に依存しない量子優位性を提案したい、という意図で書かれている。同じくアーロンソンが著者に名を連ねる[*A-65]で、space advantageと呼ばれている量子優位性と同じカテゴリーに属すると考えて良い(☛こちらを参照)。
【2】本論文の主張
本論文は、以下を主張する:次の条件(⤵)で、次のタスク(⤵)を、12量子ビットで解くことが可能。
|条件| 交差エントロピーベンチマーク平均忠実度🐾5が、同じ。
|タスク| 最も空間効率の高い古典アルゴリズムで、少なくとも62ビットのメモリを必要とすることが証明されているタスク。
🐾5 ☞【3】(2)を参照。
【3】本論文における技術的要素
(0) ハール測度
量子情報論・量子物理の文脈に限定して、一言で言い表すと、ユニタリ(変換に対して)不変性を持つユニタリ群上の積分測度が、ハール測度ということになるであろう🐾6。しかし、それでは「so what?」になるので、量子物理的意味合いを考えよう。ただし、次のような、ザックリ理解で十分であろう:
量子ノイズが存在する環境下で、ゲート操作(=ユニタリ演算子)の忠実度を考えるときには、「平均忠実度」の概念が有用である。ここで言う平均とは、(a)ノイズ無しの量子ゲートのみによる忠実度と、(b)適当なノイズ・チャネルのみによる忠実度、の平均average{(a),(b)}を指す。平均と言っても流石に、足して2で割るというわけにはいかず、和の代わりに積分を行う。そして、平均忠実度を計算する場合、(ヒルベルト空間に作用するユニタリ演算子を元とする)ユニタリ群に、ハール測度が導入されていると(ユニタリ不変性が)何かと都合が良い。
🐾6 数学的には、群上で積分測度を考えるというところに、ハール測度という積分測度を導入する意味がある。数学的には、群として、局所コンパクト群を考える。
(1) 通信における量子優位性
ある条件下では、量子メッセージを使用すると、古典通信のみを使用するプロトコルと比較して、必要な通信量を指数関数的に削減できることが証明されている。具体的には、定理1が成立する。
定理1・・・ 以下2つを仮定する:㊀アリスの量子状態|ψx⟩は、n量子ビット状態にわたるハール測度からサンプリングされ(たユニタリ演算子とxから生成され)る。㊁ボブの測定値は、n 量子ビット・ランダム・クリフォード測定上の一様分布から独立してサンプリングされる。
㊀及び㊁に対して、FXEB ≥ ε を達成する任意の古典プロトコルは、少なくとも
min{Ω(ε22n),ε2nーO(√n)}
ビットの通信を必要とする。つまり、古典プロトコルでは、nの指数関数(2のべき乗)が現れる。ここで、FXEBは、交差エントロピーベンチマーク(XEB)の平均忠実度である(☞下記(2)参照)。
(2) 交差エントロピーベンチマークの平均忠実度
FXEBは具体的には、以下の通り。
FXEB=Ē[2|⟨z|Uy|ψx⟩|2-1]
ボブは、|ψx⟩を受け取り、yで決定される量子回路Uyで|ψx⟩を測定し、n のビット文字列 z を出力として生成する。
【4】実装と実験結果
(1) SPAM
1⃣ 状態準備
アリスは理想的には、正確なハール・ランダム状態を生成し、状態準備を行う。しかし、正確なハール・ランダム状態を生成することは、近い将来の量子ハードウェアでは実現不可能である🐾7。従って、ハール・ランダム状態を高い忠実度で近似する。具体的には、パラメータ化された量子回路(アンザッツ)を変分学習し、ハール・ランダム状態を近似する。損失関数は、エンタングル・ゲートからの推定ノイズとメモリ誤差を考慮して構成する。この方法によって発生すると予想される誤差は、0.004 未満である(と書いてある)。
🐾7 このため通常は、ハール測度の近似として、(ハール測度のtモーメントである)tデザインが使用される(という理解)。
2⃣ 測定
ボブのランダム・クリフォード測定🐾8は、実用的に効率的な実装が可能である。本論文の実装では、古典的な制御ビットの値を指定することにより、測定基底はボブの入力文字列yで決定する。
古典制御は、量子プロセッサ(QPU)から数メートル離れた場所にある FPGA(Field-Programmable Gate Array) ベースの制御ハードウェアに事前にロードされている。実行中、FPGA は状態準備が完了した後に制御ビットを読み取り、RF(Radio Frequency)変調レーザーパルスを介してゲート操作をトリガーする。これらのパルスは光ファイバーを介して自由空間を横切り、トラップイオン QPU に送られる。
🐾8 なお本論文では、ランダム・クリフォード回路による測定以外に、nデザイン(tデザインのtが、t=nという意味)からサンプリングしたユニタリ演算子による測定、ハール測度からサンプリングしたユニタリ演算子による測定も検討している。
(2) 実験結果
1⃣ 実験のセットアップ
㈠ 概要
本論文の量子優位性は、量子情報超越性である。量子情報超越性の基本的な前提は、通信における量子優位性をストレージにおける量子優位性(情報量に関する量子優位性)として再構築することである。再構築を具体的に述べると、空間的に分離されたアリスとボブという 2 つの当事者を考えるのではなく、2 つの時点に分離された単一のデバイスで、通信における量子優位性を扱う。
㈡ 具体的なタスクの定式化
(通信における量子優位性にて扱われる)一方向通信複雑性のツールを用いて、あらゆる古典アルゴリズムが少なくとも62ビットのメモリを必要とすることが証明される計算タスクを定式化し、トラップイオン量子コンピュータ🐾9上でわずか12量子ビットを用いてこのタスクを解く。このタスクは、量子状態を保持するアリスと測定値を保持するボブが協力して、アリスの状態に対するボブの測定値の高確率出力であるビット列を生成することを要求する。
🐾9 20個の全結合トラップイオン量子ビットを備えたQuantinuum H1-1量子コンピュータが使用された。
2⃣ 改めて、確認された結果
以下が確認された:無視できないデバイス・ノイズが存在する場合でも、同じ交差エントロピーベンチマーク平均忠実度を達成するのに、量子ビット数12に対して、古典ビット数は少なくとも62ビット必要である。
少しだけ詳しく述べると、ボブの測定量子回路がランダム・クリフォード回路の場合、古典ビット数は78ビット必要であると計算される。62ビットというのは、5σ下げた場合である。つまり、極めて控え目な数字で「少なくとも必要な」古典ビット数を算定している。
完全に古典通信だけを用いると、つまりアリスが情報を量子状態に変換(x→|ψx⟩)せず、ボブも量子回路で量子状態を測定することをしない場合、古典ビット数330が必要と計算される。5σあげると、382ビットとなる。最終的にまとめると、量子ビット数12に対して、古典ビット数62~382が必要と算定されている。
【5】注意喚起:抜け穴の可能性
0⃣ 最初のベル不等式違反には後の実験でのみ解消された抜け穴があったように、本論文の実験にも同様の注意点があり、将来の研究で対処または排除される可能性がある(と本論文は、注意喚起している)。具体的には以下の2点をあげて、見解を述べている。
1⃣ 本論文の実験では、アリスとボブの入力の間に真の時間的分離が維持されていなかったと反論される可能性がある。ボブのランダム・クリフォード測定は独立したハードウェア・ランダム性ソースから生成され、QPU とは別に格納されていたが、ランダム性の生成は QPU 上でアリスの状態が準備される前に発生したため、原理的には QPU の状態は測定される基準を事前に知っている可能性がある。
この反論は、ベル実験における「設定独立性」の抜け穴に類似している。将来の実験では、代わりにアリスの状態が完全に準備された後にのみボブの測定選択を生成することができるが、そのためには回路の途中でオンラインのランダム性ソースを照会できるより高度なハードウェアが必要になる。
2⃣ もう一つの反論の源は、QPUが本当に12量子ビットのヒルベルト空間を実現しているのか、それとも環境との相互作用、非計算スピン状態への漏洩、あるいはその他の制御不能な自由度によって、より広いヒルベルト空間内で発展するものとしてモデル化した方が適切なのか、という点である。例えば、「高度にエンタングルされた12量子ビット状態に見えるものは、実際にはより広い空間における低エンタングルメント状態であり、そこでは追加の自由度が共謀して、予想される量子挙動を模倣している」という反論が成立しうる。
ただし、将来、はるかに大きな分離を示す実験が行われれば、これらの疑念を払拭できるかもしれない。はるかに大きな分離を示す実験を行うためには、現在主要なボトルネックとなっている、極めて高い2量子ビットゲート忠実度を持つハードウェアが必要になると想定される。一方、古典的な下限を厳しくしたり、変分状態の準備によって達成される忠実度を改善したりする余地がまだあるとも考えており、どちらの場合も既存のハードウェア上でより大きな分離を実現できる可能性がある。
【6】感想
標語的に言うと、通信複雑性から量子情報超越性へ。本論文は、そもそも論:今日の量子ハードウェアがヒルベルト空間の指数関数性にアクセスできるほどの複雑さを持つ量子状態を準備できる、を証明したので、安心して、量子優位性を追及しよう、という流れであろうか。
本稿では、「市場ニーズが大きく、古典アプローチでは上手くいっていないアプリケーションに、量子アプローチを適用してみた」という論文を扱っている。
建物で消費されるエネルギーは、総エネルギー消費量の約1/3を占める(らしい)。そして、建物で消費されるエネルギーの約40%は、HVAC🐾1システムが消費する(らしい)が、特定の環境では60~70% を占める可能性がある。適切にHVAC制御を行うことで、商業ビルでは消費される総エネルギーの20~40%、住宅では最大 48% を節約できる可能性がある[*228]。その一方、HVAC制御で熱的快適性を維持することは(あるいは、実現することすら)難しい。
小括すると、HVAC制御には、重要な点が2つあると思われる。一つ目は、適切な制御を行うことで、元々、大幅な効率化が可能なタスクである、という点である。言葉を替えると、ムダがジャブジャブに溢れていると考えられる。もう一つは、やや強引であるが、省エネルギーと熱的快適性を両立させることは、従前から求められていたものの、その実現は困難なまま、という点である。
韓国科学技術院(KAIST)の研究者は、「量子強化学習(QRL)ベースのHVAC制御は、古典ベースに比べて、大幅に優れた性能を示した」と主張する論文(以下、本論文[*229])を発表した(25年9月@Energy and AI🐾2)。大幅に優れた性能を示したとは、「熱的快適性を維持しながら、消費電力や電気料金を大幅に削減した」ことを指している。本論文における"量子優位性”は、量子加速ではない。学習データが少ないにもかかわらず、適切なポリシー(方策)の選択ができた、という意味での量子優位性である。
🐾1 Heating, Ventilation, and Air Conditioning:暖房・換気・空調。
🐾2 中国・天津大学が発行する、エネルギーと人工知能 (AI)におけるオープン・アクセス・ジャーナル。で、年4冊(1月、5月、9月、12月)刊行されるらしい。蘭エルゼビアが提供するデータベースScienceDirectを通じて、アクセスできる。
【1】本論文の主張
本論文は、以下を主張する:
(1) QRLアルゴリズムは、1日を通して効果的かつ効率的なHVAC制御を可能とする。古典RLアルゴリズムに比べて、より信頼性が高く、安定したアルゴリズムである(☞【4】(0))。
(2) シミュレーションの結果、QRLアルゴリズムは古典RLアルゴリズムと比較して、消費電力と電気料金を、およそ6割削減した(☞【4】(1)及び(2))。
【2】事前整理
(1) HVAC制御における強化学習アプローチ
従来は、物理ベース(熱流体力学ベース)のモデルによって、HVAC制御が行われていた。他に選択肢がなかったために、十分な精度と効率を備えた物理モデルを構築することが困難であるにもかかわらず物理モデルによるHVAC制御が行われていた、というのが正しい理解であろう。そういった閉塞状況において、機械学習・深層学習の目覚ましい発展を受けて、他の選択肢が登場した。強化学習(RL)を使ったHVAC制御である。ただし、RLには2つの課題があると認識されている:サンプルの非効率性と汎化性能が低い、という課題である[*228]。
RLは対象に関する事前知識なしで学習を行う、モデル・フリーRLが一般的である。ただし、モデルフリーRLは膨大な試行錯誤を要するため、実環境で用いることは困難とされる❚補足1❚。これが、サンプルの非効率性と呼ばれる課題である。この課題の解決策の一つは、モデル・ベースRLである。モデル・ベースRLとは、学習対象の物理(ことわり)をあらかじめモデル化して学習を行うRLである。
なお、汎化性能が低いという課題の解決策の一つは、転移学習アプローチの採用であるが、同アプローチには、破滅的な忘却問題という新たな課題が付随する。
❚補足1❚
[*230]には、以下の趣旨の記述がある:空調熱源システムの場合、モデル・フリーRLを実行するには、最低でも1年間のデータ蓄積が必要である。さらに、一度の学習で最適な方策を見つけることは一般的に難しい。そのため、最適な方策を獲得するためには、数年分のデータを要することが想定される。
(2) DDPGとPPO
本論文では、近接方策最適化法(Proximal Policy Optimization:PPO)の量子版であるQPPOをQRLモデルとして使用する。その上で、PPO並びに、深層決定論的方策勾配法(Deep Deterministic Policy Gradient:DDPG)とQPPOを比較している。なお、DDPG、PPO(そしてQPPO)は、モデルフリーRLである。
1⃣ 近接方策最適化:PPO
RLのアルゴリズムには方策ベースのアルゴリズムと、価値ベースのアルゴリズムがあることが知られている。PPOは、PG法(方策勾配法)という方策ベースのRLアルゴリズムの改良版と位置付けられる。PGは、方策をパラメータ化し、パラメータを逐次最適化🐾3することで、方策を更新していくというアルゴリズムである。最適化計算には、勾配降下法を用いる。
実のところPGは、方策を更新する方向を決定できるのみ、更新するサイズについては決定できない。つまり、大きく更新する(方策が急激に変化する)ケース、小さく更新するケースが発生しうる。前者の場合は、学習破綻。後者の場合は、学習が進まない、ということになる。この課題は、high varianceと呼ばれている🐾4。high varianceを防ぎ、学習プロセスを安定化させ、全体的なパフォーマンスを向上させることを目的に開発された改良アルゴリズムの一つが、近傍方策最適化(Proximal Policy Optimization:PPO)である。Chat-GPTでも使われている(オープンAIにおける標準的なRLアルゴリズム)として、有名になったらしい。
PPOは、新しい方策が古い方策からあまり逸脱しないように工夫を行っている。具体的には、新しい方策と古い方策のカルバック・ライブラ(KL)情報量に制約を課した🐾5上で、最適化計算を行なう🐾6,🐾7。さらにPPOは、サンプリング効率を向上させるために、PPOは重要度サンプリング🐾8を採用している。モデル・フリーRLのサンプリング効率が低いという課題に対してモデル・ベースRLという対策もあるが、PPOはモデル・フリーRLの範疇でサンプリング効率を高めている(という見方ができる)。
🐾3 逐次最適化を実行可能とする手段の一つは、数学的舞台として、マルコフ決定過程と呼ばれる確率制御過程を導入することである。その場合(も)、結果として必然的に、方策は確率分布として表現されることになる。方策を確率分布として表現することで、連続行動空間を対象とすることができる。連続行動空間を対象とすることができるので、HVACの連続制御が可能になる。しかし、ほとんどの市販HVACシステムは、完全な連続制御ではない。このため、実世界への適用には離散化が必要となる(ので、あまり意味はない?)。
逐次最適化を実行可能とする他の手段としては、ボルツマン・マシンもあげられる(現実的には、制限付きボルツマン・マシン(RBM)になるだろう)。その場合、方策(を表す確率分布)は、ボルツマン分布として表現される。RBMであっても計算コストは高いので、第1選択肢となることはないだろう。
🐾4 方策オン(on-policy)型の方策勾配法に、共通して見られる欠点らしい。新しい方策と古い方策との差が大きいと、分散が大きくなる(high variance)。
🐾5 KL情報量が、一定値以下という制約を課す。この制約は、信頼領域制約と呼ばれる。KL情報量は、確率分布の差異を測る指標であるから、KL情報量が一定値以下=新しい方策と古い方策はそれほど違わない、である。言うまでもないが、方策=確率分布である。
🐾6 系譜的に述べると、最初に、新しい方策と古い方策のカルバック・ライブラ(KL)情報量に制約を課したアルゴリズムは、信頼領域方策最適化法(TRPO)であった。TRPOの実装における複雑さを解消したバージョンがPPOである。つまり正確には、PG→TRPO→PPOであるが、煩雑さを避けるため、PG→PPOとした。
🐾7 本稿では、TRPOとPPOをそれほど区別していないので割愛しているが、PPOではクリップされた代理目的関数を使う。こうすることで、最適化プロセスにおいて、負のアドバンテージ関数を持つ行動に過度の重み付けがされないことが保証される。このためPPOでは、堅牢かつ効果的な方策最適化戦略を維持することができる(とされる)。
🐾8 古いデータを、新しい方策の(期待値)推定に転用することで、サンプリング効率を高める方法。
2⃣ 深層決定論的方策勾配:DDPG
割愛。
【3】本論文の技術的な枠組み
(1) 全体像
1⃣ メイン
RLの課題の解決策として、モデル・ベースRLを採用することも転移学習を採用することもなく、RLの量子バージョン(つまりQRL)を採用している。つまり、あくまでモデル・フリーRLとして解決していると考えられる(一部、モデル・ベースRLか? ☞下記2⃣)。技術的にスゴイことやっているというわけではなく、PPOアルゴリズムを変分量子回路に、淡々と実装した(という理解)。
具体的には、建物の変数を量子状態に符号化し、RLエージェント用に量子回路を実装する。量子回路=変分量子回路である。本論文のQRLアルゴリズム(QPPO)は、パラメータ化した方策を対象とする。方策=確率分布であるから、実装する量子回路は、変分量子回路を選択するのが自然である。量子状態への符号化には、角度符号化を使用している。符号化された状態は量子回路によって処理されて、HVAC制御行動を評価する。その後、HVAC操作用の古典コマンドに復号される。
2⃣ 追記
本論文の手法はモデル・フリーRLであるが、HVACシステムの最適温度の設定は、Q学習エージェントを用いて決定している(ので、部分的には、モデル・ベースRLと言えるのかもしれない)。エージェントは、16℃から30℃まで1℃間隔で15個の定義済み設定値から選択する。与えられた状態における各動作のQ値は、ReLU活性化関数を用いた量子ニューラルネットワーク(QNN)を用いて計算される。このネットワークは状態ベクトルを処理し、各可能な動作に対応するQ値を生成する。
Q学習ネットワークは、逆伝播とフーバー(Huber)損失を用いて学習される。なお、学習を安定化するために-1から1の間の勾配クリッピングが適用される。
(2) 強化学習におけるセットアップ
1⃣ 状態ベクトル
強化学習(RL)を用いたHVAC制御において、状態表現には、電化製品の使用パターンとHVAC性能に影響を与える環境要因の両方が含まれる。具体的には、様々な部屋(寝室、リビングルーム、キッチン、ランドリー)における電化製品の使用状況と、HVACシステムの日常的な活動を考慮する。
状態ベクトルには、温度と湿度に加えて、PM2.5、PM10、照度、総揮発性有機化合物(TVOC)などの環境パラメータが組み込まれている。さらに、発電の限界費用に基づくリアルタイムの電力市場価格を表すシステム限界価格(SMP)データが含まれる。SMPは、動的価格設定に基づくHVAC最適化の重要な要素であり、QRLエージェントが電力価格の変動に応じてHVACの動作を調整し、エネルギー集約型の動作を低価格期間に移行することでコストを削減することを可能にする。
2⃣ 報酬
本論文では、4種類の報酬を使用する。最初の報酬は、3つのクラスター全体の総電力消費量の変動に関するものである。これは、エージェントが3つのクラスターの平均として計算されるピーク需要負荷を最小限に抑えながら、安定した電力消費率を維持するように促す。2番目の報酬は総電力コストである。3番目の報酬は、快適性に関するものである。これは、エージェントが複数のゾーンで快適な温度範囲を維持しながら、エネルギーコストを最小限に抑えるように促す。4番目の報酬は占有検知である。これは、エージェントが空間に人がいない場合に占有を検知し、それに応じて温度を調整してエネルギーを節約するように促す。
トータルの報酬は、各報酬の線形和によって表される。線形係数は、全体的な制御目標の達成における各要素(それぞれ電力変動、電気料金、快適性、占有検出)の相対的な重要性を反映するように選択される。例えば、快適性に十分な重みを割り当てることは、エージェントが熱的快適性を損なうことを防ぐことにつながる。なお、占有検出には、総報酬を過度に支配することなく、無人期間中のエネルギー節約を促すため、中程度の重みが与えられている。
(3) シミュレーション用のセットアップ
0⃣ 主目標
シミュレーションでは、SMPダイナミクス、環境変動、リアルタイムのHVAC運用データを組み込み、現実的な運用状況を再現する。RLエージェントの主目標は、3つのクラスター全体で望ましい温度(22℃~26℃)と空気質を維持しながら、HVACのエネルギー消費を効率的に管理する、方策を学習することである。
量子回路の実行はNISQ実機ではなく、シミュレータで行われた。具体的には、PennyLane ライブラリを介して、IBM Qiskit Aer シミュレータ(ノイズあり)が採用された。ノイズ対策として、量子誤り緩和手法が適用された。深層学習用の TensorFlow、およびデータ処理と分析用の必須ライブラリ NumPy、Pandas、scikit learn が使用された。
1⃣ 計算環境
ハードウェアは、以下の通り:Intel(R) Core(TM) i9-10900 K CPU、NVIDIA GeForce RTX 3090Ti GPU、128 GB の RAM を搭載した Windows PC 。言語は、Python 3.8.10が使用された。
2⃣ データ
3か月間(2021年7月4日~2021年9月26日)にわたって、韓国ソウルにある3つのアパートの26世帯の住宅から収集した実際のデータを使用してシミュレーションを実施した。3つのアパートは、3つのクラスター(C1、C2、C3)に分けられている。
1世帯あたりの居住者数は1人から4人と設定されている(実データでは、2~6人だった?)。
26世帯に、環境および在室状況検知用のセンサーネットワークを設置し、環境パラメータ=「温度、相対湿度、CO2濃度、粒子状物質(PM2.5およびPM10)、総揮発性有機化合物(TVOC)」を収集した。センサーネットワークは5分間隔で環境パラメータをサンプリングする。また、電力消費データは、スマートメーターを通じて1分間隔で収集される。
【4】比較結果・評価結果
(0) 予備的な結果
本論文の図8(a)~(c)は、時間の経過(0時~24時)と共に、獲得された報酬を示した図である。3 つの異なるクラスターにわたるDDPGアルゴリズム(図8(a)→以降、本稿では、DDPGアルゴリズムには❶を割り振る)、PPOアルゴリズム(同(b)→同❷)、及びQPPOアルゴリズム(同(c)→同❸)のパフォーマンスが示されている。
❶と❷は、全ての時間帯にわたり、全てのクラスターの結果が、ほぼ同じである(区別が付き難い)。一方❸は、図中の凡例表示が一部邪魔をしているが、全ての時間帯で、全てのクラスターの結果が区別可能である。素直に考えると、各世帯で生活スタイル・生活パターンが、全て同じということは考えられないから、全ての時間帯・全てのクラスターで同じ結果(つまり❶と❷)というのは、違和感がある。本論文は、この結果に対して「QPPOアルゴリズムは、1日を通して各クラスター内のダイナミクスに効果的に適応している」との評価を下している。
さらに(驚くべきことに)、❶と❷では、ほとんどの時間帯で獲得報酬が負である。つまり、ほとんどの時間帯で望ましくない行動を採っていると考えられる。❸はクラスター毎に異なるが、C1は、ほとんどの時間帯で獲得報酬が正。C2は、早朝の一部時間帯及び午前中以外は、ほとんどの時間帯で獲得報酬が負。C3は、夕方及び夜9時頃意外は、ほとんどの時間帯で獲得報酬が正である。この結果に対して、本論文は、「時間の経過とともに正の報酬を維持できる🐾9ことは、より信頼性が高く安定したアルゴリズムであることを示している」との評価を下している🐾10。
🐾9 本論文の記述によると、C1の24時間平均獲得報酬は0.21、C2は0.07、C3は0.12である。
🐾10 正確には、図8(d)及び(e)をさらに示し、「さまざまな時間帯とクラスター構成にわたり、HVAC制御において、QPPO(QRLアルゴリズム)が他アルゴリズム(古典RLアルゴリズム)よりも優れているという統計的証拠を提供」して、ダメ押しをしている。
(1) 電気料金
以降、本稿では、クラスターC1を①、C2を②、C3を③とする。本論文の図10(a)~(c)は、3つのクラスターにおける1ヶ月間の平均電気料金(単位:米ドル)を示している。ちなみに、有効数字の概念を主張していない(見た目を合わせただけ、以下同じ)。
❶=①764.30、②777.10、③565.70。
❷=①764.79、②748.64、③553.33。
❸=①361.61、②207.55、③207.68。
❸は❶に対して平均約63%🐾11、❷に対して平均約62.4%🐾12の電力料金削減が達成された。
電気料金削減の最大ケースは、②に対する❶と❸の削減である。具体的には、(777.10-207.55)/777.10=73.3%🐾13。
🐾11 (∑❶ー∑❸)/∑❶=63.1%。∑❶=764.30+777.10+565.7=2107.1。∑❸=361.61+207.55+207.68=776.84。なお❶②の777.10ドルは、本論文の表1では770.1ドルとなっているので、どちらかが誤植である。もっとも、大勢に影響はない。
🐾12 (∑❷ー∑❸)/∑❷=62.4%。∑❷=764.79+748.64+553.33=2066.76。
🐾13 本文中の数値は、73.1%。❶②の数値が表1の通り、770.1ドルなら、73.0%になる。結論、770.1ドルが正しい数値であろう。
(2) 電力量
本論文の図11(a)~(c)は、電力消費量(単位:kW)を示している。表1に具体的な数値が示されている。
❶=①50.59、②52.900、③39.82。
❷=①50.41、②49.350、③36.39。
❸=①23.61、②13.663、③13.68。
比率で表すと以下の通りである。本論文は、大きな削減を達成した、と評価している。
(❶-❸)/❶=①53.3%、②74.2%、③65.6%🐾14。
(❷-❸)/❷=①53.2%、②72.3%、③62.4%。
🐾14 本論文中の数値は、65.7%。
(3) 為参考
1⃣ 確率分布
本論文では下記『・・・』を、以下のように確認している。本論文の図13(a)は、4量子ビット系における16(=24)の可能な状態にわたる確率分布を示している。初期の一様分布(1量子状態の確率 ≈ 0.0625)は、量子符号化中に変換され、環境データは特定の環境条件に対応する状態の確率が高くなる、非均一分布を作成する。変分処理の後、最適な方策・行動を表すターゲット状態に、顕著な確率集中(0.6)が観察される。
この量子表現により、温度、湿度、占有情報🐾15などの『高次元環境データを、重要な相関関係を維持しながら、効率的に符号化することができる。その一方で、必要なパラメータ数は、古典NNの場合よりも、大幅に少なくなる』。
🐾15 雑に言えば、部屋に人がいるか否かという情報。
2⃣ 最適化軌跡
本論文の図13(b)には、パラメータ空間における最適化軌跡の解析結果が示されている:QRL(❸)は、古典RL(❶,❷)と比較して約33%少ない反復回数で最適な方策に収束し、より高い報酬領域(平均報酬改善率15~20%)に高い一貫性で到達する。そして、その理由を以下のように説明している:重ね合わせと量子もつれを通して複数のパラメータ構成を同時に評価する量子アプローチによって、パラメータ地形をより包括的に効果的にサンプリングした結果である。
3⃣ エアコンの起動の動的パターン
本論文の図9(a)~(c)は、❶,❷及び❸によって制御された 3 つのクラスターにおけるエアコンの起動の動的パターンが、0時~24時にわたり示されている。❶,❷よって制御されたエアコンは、俄には信じられないが、ほぼ同じ状態が24時間続いている。これについて、「制御メカニズムが硬直的で、効率が低い可能性があることが示されている」との評価がついているが、これは制御と言えるのだろうか。
一方❸は、短い時間帯ごとに細かく制御され、メリハリがついている。一般的な、適応制御のイメージそのもの。熱的快適性とエアコン使用量(≈電気代、消費電力量)の適当なバランスがとれていても、納得できる。
4⃣ 温度制御
本論文の図12(a)~(c)は、外気温が0時から24時の間で変化するという自然条件下で、目標温度23℃を達成するための、❸QPPOアルゴリズムと❶DDPG及び❷PPOアルゴリズムの比較分析を示している。QPPOは、目標温度23℃に近い温度を一貫して達成している。全体として、❸は、23℃の目標温度を達成する上で❶及び❷よりも優れている。
本論文は、次のように評価している:これらの結果は、QPPOアルゴリズムが、特定の目標温度23℃の温度制御タスクに適していることを示している。
【5】考察
(1) 本論文は、ことさら特別なことはしていない(と思われる)。PPOアルゴリズムを変分量子回路に実装した"だけ"である。では、なぜ古典に比べて大幅な性能アップを果たせたか? 木で鼻を括ったような言い方をすると、量子回路が生成する確率分布が、HVAC制御✖QRLにおける方策の確率分布と、いい感じにフィットしたということになるだろうか。
(2) (1)ではあまりに軽いので、別の考察を提示する。本論文の”量子優位性”のタイプは、サンプル複雑性に関する優位性と思われる🐾16。つまり、学習データが少なくても、量子(機械学習)アリゴリズムが、高い精度を達成するという優位性と思われる。そして、[*230]の記述『(空調熱源システムの場合≒HVACの場合、古典)モデル・フリーRLを実行するには、最低でも1年間のデータ、最適な方策を獲得するためには、数年分のデータを要する』を真とするならば、本論文シミュレーションのように3ヶ月では、古典モデル・フリーRLだと、まともな結果は期待できない。対して、量子モデル・フリーRLは、そこそこの結果が期待できて、実際にシミュレーションしてみると、大幅な(=およそ6割の)改善を達成できた。定性的には、そういうことであろう(☞(4)で少し、深堀り)。
🐾16 この優位性は、データ取得が困難あるいは、コストが極めて高い場合には、大きな意味を持つ。従って、本論文の場合は、当てはまらないし-ディスするわけではないがーそれほど意味はないだろう(☞(3)で、追尾)。
(3) [*230]の記述が真だとすると、データを3ヶ月ではなく1年超に伸ばすと、QRLと古典RLの差は縮小するはずである。現実問題として、スマートホームを想定した場合、データは蓄積される。その場合、本論文で示したような大幅な差異は生じない可能性があるだろう。どの程度縮小するだろうか。また、モデル・ベースの古典RLとモデル・フリーQRLを比べた場合、どうなるだろうか。モデル・ベースの古典RLとモデル・ベースのQRLの比較も興味深い。データは1年超での比較が望ましいだろう。
(4) なお、6割もの差(改善)が生じた背景は【4】(3)3⃣「エアコンの起動の動的パターン」から伺い知ることはできる。古典RLは"嘘だろ?!"という位、ほとんど制御されていない。これなら、6割も有りうるかもしれないと思わせる。【0】でも触れたように、適切にHVAC制御を行うことで、住宅では最大48%を節約できる可能性があると書いてある論文[*228]もある位だから、HVACの世界ではあり得るのかもしれない。だとすると、アプリ設定の妙ということになるだろう。
量子優位性は、「未証明の計算複雑性理論の仮定に依存している」と批判されてきた。斯様な批判に晒されて、量子優位性は大人の階段を上った。米テキサス大学オースティン校のスコット・アーロンソンが筆頭著者である[*226](24年1月24日)は、同仮定に依存しない量子優位性を提案したい、という野心を表明した。その野心は、「未踏の量子優位性領域は、広大である」と宣言するとともに「何兆倍速いとかって、もうダメじゃね?」と囁いたジョン・プレスキルCaltech教授他の論文(25年8月13日@arXiv,ver2[*A-65])にも受け継がれ、最終的に、同オースティン校他による論文[*223](25年9月8日@arXiv)で実現した。具体的には、量子情報超越性と呼ばれる量子優位性を、実機にて実証した(☛こちらを参照)。ただし、この成果は、「量子優位性に実用性がない」という批判には応えられていない。
一方、量子優位性実現のフロント・メンバー(あるいは福神?)を自認しているであろうグーグルは、新機軸を打ち出した。機械学習の生成モデルで、量子優位性を確認したと主張した([*217]、25年9月10日@arXiv)。残念なことに同主張は、実機の結果ではなくシミュレーション結果であり、未証明の計算複雑性理論の仮定に依存しており、さらに実用性も微妙であった(☛こちらを参照)。
そのリベンジというわけでもないだろうが、グーグル他🐾1の研究者は、まず「検証可能な量子優位性を実現した」と主張する論文[*231]を発表した(25年10月22日@nature)。検証可能とは、同じ量子コンピューター、あるいは同等の性能を持つ他の量子コンピューター上で同じ結果を再現し、同じ答えを得ることで、結果を確証できることを意味している(成程・・・)。具体的には、ある物理量(非時間順序相関関数❚補足1❚:OTOC)🐾2の計算は、スパコンより量子回路を使った方が高速と主張する。ただ、[*231]は肝心な、実用性がない問題に対処できていない。
そこでグーグルは、米カリフォルニア大学バークレー校(UCバークレー)他🐾3と協力して、同日、Quantum Echoesと名付けた「OTOCアルゴリズム」(☞【2】(2))を実用的なアプリケーションに適用した論文[*232]を発表した(25年10月22日@arXiv)。OTOCを使うことで、分子動力学モデルの結果よりも、誤差を1/4に低減できた、と主張する・・・今度は、量子優位性が消えてしまった・・・実用的な量子優位性は、天竺より遠いかもしれない。
🐾1 Google Quantum AI and Collaborators。
🐾2 正確には、2次のOTOCの非対角部分(☞【2】(1)2⃣㈡)。
🐾3 米Quantum Simulation Technologies(➡❚補足2❚)、米ペンシルベニア大、米カリフォリニア工科大、米コネチカット大、米マサチューセッツ州立大、米Simons Institute for the Theory of Computing(➡❚補足3❚)、米UCサンタバーバラ校、豪マッコリー大、米ダートマス大、米ローレンス・バークレー国立研究所、英サウサンプトン大、カナダ先端研究機構。
❚補足1❚
グーグルの日本語blog(https://blog.google/intl/ja-jp/company-news/technology/quantic-echoes/)では、 時間順序外相関関数と表記されている。時間順序外は英語では、out-of-time-orderである。日本語では、非時間順序相関関数あるいは、時間外順序相関関数(例えば、研究者による解説記事[*233])とも呼ばれる。out-of-time-orderとは、時間の順序(過去から未来、という順序)は関係ない=過去と未来の区別はない、という意味である。従って、「非時間」は意訳で、「時間外」は直訳、と言える。結論として、本稿では、意訳である「非時間順序相関関数」を用いる。
❚補足2❚
米国の量子S/Wスタートアップ。共同創業者の一人は日本人(量子化学分野の研究所)。マテリアルズ・インフォマティクスを使った材料開発シミュレーション・プラットフォームや創薬向けシミュレーション・ツールを開発している。23年には東大と京大のVCが出資している。ビジネス展開では、三井物産が絡んでいる。
❚補足3❚
サイモンズ財団からの助成金を受けて、2012年7月1日にUCバークレー校キャンパス内の専用施設カルビン・ラボに拠点を置く研究機関。計算の本質と限界に関する未解決の難問を探求することを目的としている(出典:https://simons.berkeley.edu/about)。同様な研究機関として、2016年には、フラットアイアン研究所を設立している(運営も行っている)。サイモンズ財団は、ジェームズ・サイモンズ、およびその妻マリリンにより1994年に設立された。最も賢い億万長者と呼ばれるジェームズ・サイモンズは、投資にも大いに興味をもった珍しい数学者で、チャーン・サイモンズ理論に、その名を刻んでいる。
なお、国立研究開発法人科学技術振興機構・研究開発戦略センターの報告書(https://www.jst.go.jp/crds/pdf/2024/FR/CRDS-FY2024-FR-03/CRDS-FY2024-FR-03_20705.pdf)には、2021年設立とあるが、誤記ということになる(2012年が正解)。
【1】論文[*231],[*232]の主張
(0) 主張はやや複雑なので、下記(1)~(4)のステートメントを見てもso what?となるだろう。[*231]と[*232]を通して何を言いたいのかを、まずは、ザックリと整理する。
㊀分子動力学シミュレーションにおいて、量子多体系を正確に理解する情報が不足している(ので、正確な理解ができない)。←㊁OTOCが足りない情報を提供できる。←㊂OTOCは、時間反転術式なしには取得できない!←㊃時間反転術式は『量子もつれ』等の量子的な道具を利用することで実行可能。←㊄量子もつれは、量子回路を使って自然に(低コストで)生成できる。つまり、量子回路を使う等で、OTOCの低コスト取得が可能。←㊅古典的に量子もつれを模擬することは難しいから、OTOCの取得コストも高い。←㊆実際、古典シミュレーションと比較したところ、大きく異なった。
㊀及び㊁が[*232]の範囲である。基礎部分の㊂~㊆が[*231]の範囲である。㊆が、[*231]の量子優位性である。㊀が[*232]の量子優位性である(と主張されている、はず)。㊀が実用的であれば(☞【3】(3)1⃣㈡)、実用的な量子優位性の完成である。
なお[*232]は、マクロな分子を対象としている。(必ずしも、巨視的な物体同士に量子もつれが形成できないわけではないが、)このため、㊄OTOCの取得において、量子もつれは使っていない(☞【3】(2))。量子もつれを使っていないので、[*232]の量子優位性は、鬼のように速いという量子優位性ではない。
(1) 次に、個別に主張を整理する。[*231]は、まず0⃣にような推定(断定?)を行っている。次に、実用的な量子優位性を証明する基準として1⃣と2⃣を定義(仮定)する:
0⃣ 一般的に、実用的な量子優位性は、エネルギーや相関といった低ランク・オブザーバブル🐾4の期待値を測定するタスクとして定式化できる。
1⃣ オブザーバブルは、有限誤差量子多項式時間(BQP)クラスに属する。 ↦OTOC問題はBQP完全問題である。
2⃣ オブザーバブルは、正確な古典シミュレーション、ヒューリスティック手法のいずれの手法でも測定できない。
🐾4 為念| 量子物理で、物理量は等しく演算子である。さらに、古典物理(マクロレベル)との整合性を保つため、その演算子はエルミート演算子である必要がある。古典物理において物理量の顔を持つエルミート演算子を、オブザーバブル(可観測量あるいは、観測可能量)と呼ぶ。古典的な観測(=測定)を行うと、古典的な量が観測される(観測可能)という意味である。
(1)の下で、[*231]は、以下を主張する:
(2) 異なる量子ビットに作用する2つのパウリ行列で構成する2次OTOCの非対角部分Coff-diag(4)は、スクランブリングを起こさない(☞【2】(1)2⃣㈣)。
(3) Coff-diag(4)を得るには、量子回路で取得する方が、スパコンで計算するより1万3千倍速いと推測される(☞【4】(1)2⃣)。
そして、[*232]は、以下を主張する:
(4) OTOCを使うことで、化学構造🐾5の推定誤差が、従来手法🐾6の1/4に低減した(☞【4】(2))。
🐾5 3',5'-ジメチル・ビフェニル(DMBP)における、2つのフェニル環間の二面角分布。
🐾6 近似分子力場を用いた分子動力学シミュレーション。
【2】事前整理
(1) 非時間順序相関関数(OTOC)
1⃣ 一般的なOTOC[*233]
非時間順序相関関数(OTOC)は多くの場合、量子カオスを議論する場面で登場する。踏み込んで言えば、量子多体系におけるカオスの指標になるとされている。そこで、一般的なOTOCの議論(ココ)においては、量子カオスを古典カオスの量子版として議論するために、時間発展の文脈で古典カオスを捉えよう。対象は古典系であるが、量子を意識した文言を、敢えて使っている。
2つの同じ物理系を準備する。片方の系に小さな擾乱を加えてた上で、両方の系を同じハミルトニアンで時間発展させる。両方の系の状態を観測した結果を比較して、指数関数的な影響-いわゆるバタフライ効果が観測されれば、当該時間発展はカオス性をもっていた、ということになる。
量子系の場合、2つの物理系(マクロな量子系ということになる)の間に、量子もつれを形成させる。そして片方の物理系(量子系)に小さな擾乱を与えて、2つの系をユニタリ時間発展させる。古典系で2つ観測結果を比較することは、量子系では、相関関数を計算することに相当する。具体的には、OTOCと呼ばれる相関関数を計算することに相当する。OTOCは2つの状態の重なり具合を測っている。擾乱を与えられた系(状態)が、擾乱の結果として、指数関数的に大きく変化すると、もう一つの状態との重なり具合が指数関数的にゼロに近づく。故に、OTOCが小さければ、量子系はカオス性を示すを考えられる。
4点相関関数であるOTOCの計算は形式上、未来に行き(時間軸:0→t)、そこから過去に戻って(時間軸:t→0)、さらに未来にいく(時間軸:0→t)必要がある。そんなことは現実的には不可能であるが、量子もつれを使うことで(計算上は等価なので)、魔術を使わずに時間反転を行うことができる。そして実際に、量子系で非時間順序相関関数を実験的に測定(して量子情報の非局所化の観測)する試みは、既に行われている。
2⃣ [*231]のOTOC及び、その非対角部分
㈠ OTOCの構成
OTOCは、その推定において、[*231]以前に量子優位性が実証されている(ので、[*231]で取り扱ったのだろう)。また、ここでは量子カオスは直接は関係しないが、スクランブリング(量子情報の非局所化)が関係してくる。
異なる量子ビットに作用する2つのパウリ行列M、B∊{パウリX,Y,Z}で構成するk次の相関関数C(2k)を次のように定義する:
C(2k)=⟨Uk†(t)MUk(t)M⟩
ここで、
Uk(t)=B(t)[MB(t)]k-1
B(t)=U†(t)BU(t)
である。B(t)は、適当なユニタリ演算子U(t)で未来の時点まで時間発展させられた、パウリ演算子ということになる。
C(2k)がk次のOTOCである。従って2次のOTOCは、
⟨U2†(t)MU2(t)M⟩=⟨(B(t)MB(t))†M(B(t)MB(t))M⟩
となる。
㈡ 非対角部分Coff-diag(4)の構成
B(t)を、パウリ文字列{Pn}を使って
B(t)=∑bn(t)Pn) (n=1~4N)
と表し、MPnM=±nを使うと、2次のOTOCは、
⟨(B(t)MB(t))†M(B(t)MB(t))M⟩=∑係数×tr[PαPβPγPδ]
と変形できる。α = β、γ = δである場合の2次のOTOCを([*231]では)対角部分、 α ≠ β ≠ γ ≠ δ の場合を、非対角部分「Coff-diag(4)」と呼んでいる。
なお、2次を含めたk次のOTOCは⟨・⟩、つまりトレースをとっているのだから、非対角要素はない。故に、非対角部分(off-diagonal)という文言は矛盾しているが、そう呼ばれている。
㈢ Coff-diag(4)を実験的に取得する
オリジナルの量子回路で、⓵C(4)を取得する。オリジナルの量子回路にパウリ演算子を挿入し、⓶改めてC(4)を取得する。⓶から⓵を減じることで、Coff-diag(4)を実験的に取得することができるらしい。
㈣ 短い時間でスクランブリングされない理由
Coff-diag(4)が、短時間でスクランブリング (量子情報の非局所化。つまり、量子情報が広く拡散してしまうこと)を起こさない理由を、定性的かつ緩く説明をすれば、次のようになるだろうか:構成的干渉(constructive interference)という現象によって、量子情報が増幅されるから。
3⃣ [*232]のOTOC
[*231]と同様に、ここでも量子カオスは、直接的には関係しない。[*231]は汎用的というか、量子ビットを考えて、そこに作用する2つのパウリ演算子で構成するOTOCを考えた。一方、[*232]では、マクロな対象である分子を扱っているので若干、様式が異なる。
X分極🐾713C測定演算子X13Cと摂動された🐾8ユニタリ演算子Bとの相関関数C(t)を以下のように定義している。このC(t)が、2次のOTOCである。
C(t)=⟨X13C(t)BX13C(t)B†⟩
X13C(t)=U(t)X13CU(t)†
X13C(t)が、適当なユニタリ演算子U(t)で未来の時点まで時間発展させられた(パウリ)演算子、ということになる。
🐾7 (知識不足で)意味しているところが、分からない。
🐾8 摂動された(擾乱を与えられた)ことが、バタフライと表現されている。
(2) 量子エコーズと名付けられた OTOCアルゴリズム
よくわからないが、OTOCを使って、従来手法を上回る結果を得るアルゴリズム・プロトコルは、量子エコーズということになるのだろう。具体例として【3】(3)2⃣を参照。
(3) 核磁気共鳴分光法(Nuclear magnetic resonance: NMR)
1⃣ 概要[*234]
NMRは、分子構造🐾9を非破壊で測定することが可能な測定技術である。対象物質は、有機物、無機物あるいは低分子、高分子を問わない。また状態も問わないー通常は、溶液状態に対して(測定が)行われる。気体でも液体でも固体でも超臨界状態であっても測定可能。また、結晶状態・非晶状態を問わず、測定可能。
ただしNMRには、感度が低い、という欠点がある。
🐾9 分子構造とは、電子状態に関する情報に他ならない。NMRにおける「電子状態に関する情報」について、もう少し踏み込んで言えば、「電子の低エネルギー・スピン運動に関する情報」ということになる。高分子を例にとれば、「立体規則性、共重合組成・共重合連鎖、末端基・末端近傍、分岐などに関する情報」が該当する。
2⃣ 測定原理
静磁場を印加した状態で、分子に電磁波を照射する。この場合、分子を構成する原子の原子核は、「分子構造に応じた」特定周波数の電磁波を吸収する。これは、ゼーマン分裂と呼ばれるエネルギー分裂の、幅に相当する周波数で生じる共鳴現象である。共鳴条件等を調べることにより、分子構造(電子状態に関する情報)を得ることができる。
有機物の場合、その主要構成元素は水素(H)や炭素(C)であるから、1H核や13C核🐾10を使って、NMR測定が行われる🐾11。無機物では、1H核や13C核以外の核🐾12が使われる。ちなみに、測定できる(測定に使える)原子核種と、測定できない(測定に使えない)原子核種がある。
🐾10 為念:原子量が13の炭素。原子量12の炭素の安定同位体。つまり、放射能を持たない(から安全に使える)。
🐾11 固体NMRでは、1H測定よりも13C測定が一般的である。
🐾12 例えば、19F、29Si、31Pなどが使われる。
【3】[*232]でやってること
(1) 全体フロー
1⃣ 基本発想
OTOCを実用的なアプリケーションに適用したい、が要求タスクである。[*232]では、OTOCを使って、分子の化学構造に関して、従来より正確な情報を取得するという実用的なアプリケーションを採用する。正確な情報は、学習プロトコル(☞下記(3))によって取得される。従来手法比で、より正確な情報が得られる=量子優位性が現れた、と見做なしている(量子優位性という表現が適切か否かは別として)。
2⃣ 追記1
OTOCを活用する量子エコー・アルゴリズムは長距離にわたる情報を取得できる。長距離にわたる情報=情報量が増える=有用で正確な情報も含まれるはず、とは必ずしもならない。しかし、長距離にわたる情報が欠損して、正確な理解が妨げられているケースであれば、長距離にわたる情報の取得は”ゲームチェンジャー”になりうる。暗黙的に、そういうケース(悪い言い方をすれば、限定されたケース)を想定していると考えられる。そして、そういうケースであれば、必然的に「実用的」ということになる。
3⃣ 追記2
[*232]の座組みにおいて「長距離にわたる情報を取得できる」という箇所を、ネットワークという観点から補足的に説明すると、次のようになる:この場合のネットワークは、スピン・ネットワークであるが、OTOCは、スピン・ネットワーク内のすべての結合を利用する。こうすることで、従来の測定技術🐾13で、測定可能な距離を制限するr-3という距離制限を受けない。つまり、OTOCを使うことで、従来の測定技術では到達できない長距離にわたる情報を取得することができる。
🐾13 単一の結合から距離制約を推測するスピン・トランスポート測定。
(2) TARDISシーケンス:古典的な実験によってOTOCを取得する
既述通り(☞【2】(1)1⃣)OTOCを実験的に測定することは、既に行われている。[*232]では、新しく開発したTARDIS(Time-Accurate Reversal of Dipolar InteractionS)パルス・シーケンスを用いて、OTOCを実験的に測定・取得する。
具体的には、同種核間の双極子相互作用および異種核🐾14間の双極子相互作用を同時に反転させ、さらに有限パルス幅とパルス誤差に対する良好な補償を提供するために、TARDIS-1およびTARDIS-2と呼ばれる2つの新しい二重共鳴フロケ駆動プロトコルが考案された。TARDIS-1+TARDIS-2=TARDISシーケンスは、効果的な2重・量子ハミルトニアンを構築し、測定演算子とバタフライ演算子(☞🐾8)との間で情報を伝播させる。
例えば、TARDIS-1の順方向時間発展サイクルは、1Hと13Cに印加される8つの同期複合二重共鳴パルスで構成される。TARDIS-1の反転(逆方向時間発展サイクル)は、13Cパルスにπ/2の位相シフトを加え、さらに逆方向サイクル前後で1Hに、πyおよびπy¯パルス🐾15を印加することによって実現される。
🐾14 つまり、1Hと13Cである。
🐾15 角度π(つまり180°)だけ回転させる磁場は、πパルスと呼ばれる。y軸(の方)から見て時計回りに180度回転させると、πyパルスである。πy¯パルスは、反時計周りであろうか。
(3) 学習プロトコル
0⃣ 為参考
N-(4-エトキシベンジリデン)-4-ブチルアニリン液晶中に懸濁させた、13Cで標識された[4-13C]-トルエンでは、実験的に得られたOTOCを、参照データを用いた古典シミュレーションと比較し、OTOCの分子構造に対する感度を検証している。
1⃣ 概要
㈠ 基本的な枠組み
従来手法による推定値を出発点として、実験的に取得したOTOC値をグランドトルゥースとして、OTOC分布を推定する。
㈡ セットアップ
4-シアノ-4'-ペンチルビフェニル(5CB)中に懸濁させた、13Cで標識された[1-13C]-3',5'-ジメチル・ビフェニル(DMBP)を対象に、2つのフェニル環間の二面角分布🐾16を出力する学習プロトコルを考えている。得られた二面角分布の推定値は、多量子コヒーレンス(MQC)NMR測定データ及び、分子動力学シミュレーションによる推定値と比較することで、検証される(☞【4】(2))。
🐾16 この分布は、近似分子力場を用いた分子動力学シミュレーションや、高レベルの真空電子構造計算では、正確に捉えることができないらしい。前者(分子動力学)による推定では、「有限サイズ効果、力場モデルの不正確さ、サンプリング不足等」が具体的な要因として上げられてる。
2⃣ 学習プロトコルの詳細
二面角分布の推定=二面角ϕに沿った平均力ポテンシャルPMF(ϕ)の推定、である。いくつかの自由パラメータを持つ単純な正弦波モデルを用いて、「近似分子力場を用いた分子動力学シミュレーション、人工的な二重井戸ポテンシャル及び、真空電子構造計算による推定値」を補間して、候補PMF(ϕ)を9つ作成する。Willow量子チップ上で、候補PMFに対するOTOCをシミュレーションする🐾17。そして、シミュレーションされたOTOC(曲線)と実験的に測定されたOTOC(曲線)の差を最小化する候補PMF(ϕ)を選択する🐾18。PMF(ϕ)の推定=二面角分布の推定であった。
🐾17 小さい誤差(平均誤差0.0084)、低量子リソース(2量子ビット・ゲートであるCZゲート数が792以下)、を主張している。
🐾18 これは、単純な回帰モデルという理解で良いのだろうか。
(4) その他
以下のトピックは割愛した;①新しい積公式アルゴリズムを開発、②新しい量子誤り緩和技術を開発、③DMBP(☞(3)1⃣㈡)におけるトロッター化の課題を解決、④トロッター化された回路を構築するコードをAlphaEvolv🐾19で生成、⑤AlphaEvolvで生成したコードが、人間によって理解・分析できる。
🐾19 グーグルが開発したLLM(大規模言語モデル)ベースのコード(プログラム)生成エージェント。
【4】評価結果
(1) [*231]の結果
1⃣ セットアップ
古典モデルは、テンソルネットワーク。フロンティア・スーパーコンピュータ上でCoff-diag(4)を計算するのに必要な時間を推定した。ここで、Coff-diag(4)は、23サイクルを持つ65量子ビットの量子回路で測定された。
なお、推定値は、20台のGoogle Cloud仮想マシン(合計1,200CPU)上で、特別に設計された最適化アルゴリズムを実行することで得られた値。
2⃣ 結果
古典的手法=スパコン✖テンソルネットワークで、Coff-diag(4)🐾20をシミュレートする時間は、約3.2年(28,032時間)と推定されている。対して、量子的手法=量子回路を使ってCoff-diag(4)取得する時間は2.1時間である。すなわち、量子的手法は古典的手法より約13,000(28,302/2.1=13,348.57)倍速いと推定される。
🐾20 為参考:[*231]では、Cdiag(4)と誤って表記されている。
(2) [*232]の結果
二面角分布の推定値が、多量子コヒーレンスNMR測定データと比較された。比較指標は、RMSE(二乗平均平方根誤差)であり、RMSE0.05を達成した。また、近似分子力場を用いた分子動力学シミュレーション の結果と比較して、RMSEを4分の1に改善した、とする。
【5】考察
(0) 為念:ダイナミクスという文言の整理
ダイナミクスという文言は、微妙に異なる2つの意味で用いられるので、若干ややこしいと思われる。一つ目の意味は、学問としてのダイナミクス。もう一つは、「動的変化の様子・態様」という意味でのダイナミクスである。 学問としてのダイナミクスは、「時間発展に伴って、物理状態が動的に変化する様子・態様を、理解しようとする」学問である。然るに、量子ダイナミクスは、「ユニタリ時間発展に伴って、量子系あるいは量子状態が動的に変化する様子・態様を、理解しようとする」学問であり、また「ユニタリ時間発展に伴って、量子系あるいは量子状態が動的に変化する様子・態様(動態)」である。
(1) 振り返り
量子多体系のダイナミクス(動態)は、古典的にシミュレートすることが難しい。量子シミュレーションであっても発展時間が長い場合は、ノイズ混入のため難しいとされる。[*231]及び[*232]は、ノイズという切り口ではなく、スクランブリング(量子情報の非局所化)という切り口で、量子多体系のダイナミクスを扱っている。さらに、量子多体系のダイナミクスは『空間と時間の別々の点における相関関数によって特徴付けられる』と規定する。
その上で、[*231]及び[*232]は、量子多体系のダイナミクスは、非時間順序相関関数(OTOC)を考慮することで、より正確に理解できると主張する。[*231]で、OTOCは十分に長い時間にわたり、スクランブリングを起こさないことが確認されている。また、(おそらく、最初にノイズが混入しないように構成してしまえば)OTOCは、ノイズが混入しない(と思われる)。従って、考慮する相関関数の中に、OTOCを加えることは、(ほぼ)無リスクで利益をもたらす、という算段である。
(2) 量子優位性が、分かり難い
量子優位性の所在が分かり難い。目指しているところは、量子多体系の量子シミュレーションにOTOCを加味して、より良い結果を得るというものであろう。そのセットアップで、どのような量子優位性が現れるかを定量的に示せていないので、期待のルーキーお披露目単独センター、みたいな話で終わっている(と思われる)🐾21。
[*232]は、あくまで、古典シミュレーション(分子動力学シミュレーション)+OTOCというセットアップである。そのセットアップで、優位性が現れた(誤差が1/4になった)としている。量子機械学習の言葉を使うと、量子回路で生成した量子特徴量を測定して古典特徴量にして、その古典特徴量を古典機械学習モデルの入力として使っても、”量子”優位性が現れた、という主張に例えられる。ショボい優位性でも止むを得ない。機能することを実証した、という位置づけであろう。
🐾21 アナログ量子シミュレータのように見えるだろうが、[*232]で、「スピンを量子ビットで表現し、量子回路全体をスピンネットワークとみなす」というセットアップが、提示されている(と思う)。当該セットアップで、OTOCを計算して、「違い」を定量的に示せなかっただろうか。
(3) 続報が期待される
米カルテックのJohn Preskil他が25年10月22日にarXivにて投稿・公開した論文[*A-75]には、新しい量子優位性の有望株として、OTOCとDQI(復号を利用した量子干渉法)🐾22が取り上げられている(☞[*A-75]については、こちらを参照)。ちなみに、DQIもグーグルが提案している手法である。
実用的=商業的=金銭的に、どのようなインパクトを与えるのか、続報が期待される。
🐾22 ある最適化問題に対して、超多項式的な高速化を達成する、と主張されている[*235]。
❚❚❚ 乱流について-臨界レイノルズ数- ❚❚❚
言わずもがな、レイノルズ数は、流れを特徴づける無次元量の一つであり、流体力学で最も有名な無次元量でもある。ただし、レイノルズ数で層流と乱流を区別できるかも定かではない(何らかの理論で、区別できると証明されているわけでない)。そもそも、乱流を表象するとされる特徴量は様々あり、その特徴量が、どのような条件を満たせば乱流と言えるのかが定まらなければ、乱流を定義すらできない。つまりは、ある程度決め打ちしないと、乱流を定義できない。
乱流の特徴量と上記条件を決めれば、すなわち遷移条件が決まる。レイノルズ数で層流と乱流を区別できると仮定すれば、層流と乱流の遷移におけるレイノルズ数も存在することになる。このレイノルズ数を遷移レイノルズ数と(一応)呼ぼう。
2012年の日本機械学会誌に掲載された記事[*S-1]によると、遷移レイノルズ数に関して「1990年以降何度かブレイクスルーがあり、2011年には円管内流に対して、大きなブレイクスルーが生まれた」。[*S-1]で言及されている2011年のブレイクスルーは、独マックス・プランク研究所他の研究者が、サイエンスに投稿した論文[*S-2]に記述されている。2022年10月の研究成果報告[*S-3]にも、[*S-2]が当該分野のブレイクスルーとして引用されていることから、[*S-2]以降2024年まで新たなブレイクスルーはないと考えて良いのだろう。
[*S-2]では、まず、(内壁が滑らかな)円管内流の遷移レイノルズ†1は1700~2300の範囲にあるとして、そこから範囲を絞り込んでいる。具体的には、「持続的乱流開始の臨界点」を決定し、その臨界点を臨界レイノルズ数とするというアプローチが採用されている。そして、「パフの分裂とパフの減衰が均衡する状態を、乱流が持続を開始した状態」とした†2。パフ(puff)とは、時空間的な間欠性をもつ構造の一つである。一般に、乱流は時空間的な間欠性を持つことが特徴とされる。パフと同じような構造には、スラグ(slug)、縞(stripe)、帯(band)などがある。パフは、低レイノルズ数領域(3000以下)で、大きな外乱を与えた場合にのみ発生する間欠性構造とされる。
[*S-2]では、パフの分裂とパフの減衰が均衡する状態を、実験とシミュレーションにより求め、その時のレイノルズ数を求めた。その結果は、 2040±10であった。つまり、臨界レイノルズ数は2040±10ということになるだろう。なお、[*S-2]ではパフの分裂を通じて、「乱流が増殖する」レイノルズ数も示されている。その時のレイノルズ数が2300である。おそらくこの数値をもって、臨界レイノルズ数を2300としているのだろう。ある程度決めの問題とは言え、2040±10が臨界レイノルズ数と呼ぶに相応しいと思われる。
ちなみに、平成17年(行ケ)第10404号 審決取消請求事件[*S-4]では、臨界レイノルズ数が2300とされている。平成17年=2005年であり[*S-2]のずっと前であるが、出典は驚くべきことに、機械設計便覧編集委員会編『機械設計便覧』(昭和40年、丸善株式会社)である。
†1 あくまで、円管内部の流れに対する遷移レイノルズ数である。対象が異なれば、遷移レイノルズ数は異なる。
†2 層流から乱流に遷移する場合の遷移レイノルズ数を高臨界レイノルズ数、乱流から層流に遷移する場合の遷移レイノルズ数を低臨界レイノルズ数と呼ぶ。つまり、持続的乱流開始の臨界点を臨界レイノルズ数とした場合は、高臨界レイノルズ数に相当する。一般に、臨界レイノルズ数といった場合、低臨界レイノルズ数を指す。
【尾註】
*159→*170 Xiangyu Li et al.、Potential quantum advantage for simulation of fluid dynamics、https://journals.aps.org/prresearch/pdf/10.1103/PhysRevResearch.7.013036
*160 藤井啓祐、量子コンピュータのCAEへの応用 物理に由来する微分方程式の球解の量子加速に向けて、https://www.jst.go.jp/moonshot/sympo/20241001/pdf/10_fujii.pdf
*161 Zhaoyuan Meng and Yue Yang、Quantum computing of fluid dynamics using the hydrodynamic Schrödinger equation、https://journals.aps.org/prresearch/pdf/10.1103/PhysRevResearch.5.033182
*162 https://www.fujitsu.com/global/about/resources/news/press-releases/2024/0125-01.html
*163 鵜飼正二、ボルツマン方程式の研究:過去と未来、https://www.mathsoc.jp/meeting/kikaku/2010aki/2010_aki_ukai-p.pdf
*164 Claudio Sanavio et al.、Carleman-lattice-Boltzmann quantum circuit with matrix access oracles、https://arxiv.org/pdf/2501.02582
*165 Wael Itani et al.、Quantum Algorithm for Lattice Boltzmann (QALB) Simulation of Incompressible Fluids with a Nonlinear Collision Term、https://arxiv.org/pdf/2304.05915
査読済版は、https://pubs.aip.org/aip/pof/article-abstract/36/1/017112/2933116/Quantum-algorithm-for-lattice-Boltzmann-QALB?redirectedFrom=fulltext
*166 MOCHAN Antonia et al.、(Dis)Entangling the Future - Horizon scanning for emerging technologies and breakthrough innovations in the field of quantum technologies、https://publications.jrc.ec.europa.eu/repository/bitstream/JRC139022/JRC139022_01.pdf
*167 Yu Tanaka and Keisuke Fujii、A Polynomial Time Quantum Algorithm for Exponentially Large Scale Nonlinear Differential Equations via Hamiltonian Simulation、https://arxiv.org/pdf/2305.00653
*168 Nobuyuki Yoshioka et al.、Hunting for quantum-classical crossover in condensed matter problems、https://www.nature.com/articles/s41534-024-00839-4
*169 Hsuan-Cheng Wu et al.、Quantum Algorithms for Nonlinear Dynamics: Revisiting Carleman Linearization with No Dissipative Conditions、https://arxiv.org/pdf/2405.12714
*170 ←*159
・・・
*172 https://biz.chosun.com/en/en-science/2025/03/24/NUYFFUUDHNDI3ENRVLVDNGKR7E/
*173 http://www.itdaily.kr/news/articleView.html?idxno=229403
・・・
*175 Solving Partial Differential Equations on IBM Quantum Processors with a Variational Quantum Algorithm、https://docsend.com/view/9xsbyyi7pxfkgt7q
*176 Hamza Jaffali et al.、H-DES: a Quantum-Classical Hybrid Differential Equation Solver、https://arxiv.org/pdf/2410.01130
*177 Felix Tennie et al.、Quantum Computing for nonlinear differential equations and turbulence、https://arxiv.org/pdf/2406.04826
*178 清水洸希他、高次元悪条件最適化問題のための確率的次元選択CMA-ES、https://db-event.jpn.org/deim2019/post/papers/440.pdf
*179 Aidan Pellow-Jarman et al.、HI-VQE: HANDOVER ITERATIVE VARIATIONAL QUANTUM
EIGENSOLVER FOR EFFICIENT QUANTUM CHEMISTRY CALCULATIONS、https://arxiv.org/pdf/2503.06292
*180 Microsoft Azure Quantum、End-to-End Quantum Simulation of a Chemical System、https://arxiv.org/pdf/2409.05835
*181 Yusuke Ino et al.、Workflow for practical quantum chemical calculations with a quantum phase estimation algorithm: electronic ground and π–π* excited states of benzene and its derivatives、https://pubs.rsc.org/en/content/articlelanding/2024/cp/d4cp03454f
*182 Hirofumi Nishi et al.、Encoded probabilistic imaginary-time evolution on a trapped-ion quantum computer for ground and excited states of spin qubits、https://journals.aps.org/prapplied/abstract/10.1103/PhysRevApplied.23.034016
*183 志賀基之、[4] 電子状態理論の初歩V、https://www.jstage.jst.go.jp/article/mssj/15/2/15_116/_pdf
*184 菅野恵太、[1-3] 量子計算機向けアルゴリズム研究開発の現状と展望、https://www.jstage.jst.go.jp/article/mssj/25/3/25_202/_pdf/-char/ja
*185 Keita Kanno et al.、Quantum-Selected Configuration Interaction: classical diagonalization of Hamiltonians in subspaces selected by quantum computers、https://arxiv.org/pdf/2302.11320
*186 Adam A. Holmes et al.、Heat-Bath Configuration Interaction: An Efficient Selected Configuration Interaction Algorithm Inspired by Heat-Bath Sampling、https://pubs.acs.org/doi/10.1021/acs.jctc.6b00407
上記はオープンアクセスではない。arXiv版は、https://arxiv.org/pdf/1606.07453
*187 Sandeep Sharma et al.、Semistochastic Heat-Bath Configuration Interaction Method: Selected Configuration Interaction with Semistochastic Perturbation Theory、https://pubs.acs.org/doi/abs/10.1021/acs.jctc.6b01028
上記はオープンアクセスではない。arXiv版は、https://arxiv.org/pdf/1610.06660
*188 Kharen Musaelian et al.、Quantum Cognition Machine Learning AI Needs Quantum、https://indico.qtml2024.org/event/1/contributions/106/attachments/107/111/QCML.pdf
*189 Luca Candelori et al.、Robust estimation of the intrinsic dimension of data sets with quantum cognition machine learning、https://www.nature.com/articles/s41598-025-91676-8.pdf
*190 Ryan Samson et al.、Quantum Cognition Machine Learning: Financial Forecasting、https://www.qognitive.io/papers/Qognitive_Financial_Forecasting.pdf
*191 小林景、多様体学習とデータ空間の幾何学、数理解析研究所講究録 第2057巻 2017年 pp.1-10、https://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/2057-01.pdf
*192 西森康則、人工知能学会第二種研究会資料|多様体学習と非線形次元縮約、https://www.jstage.jst.go.jp/article/jsaisigtwo/2010/DMSM-A903/2010_18/_pdf/-char/ja
*193 田中大介、多様体学習って何に使えるの?、システム/制御/情報 Vol.61 No.4 2017, pp.164-165、https://www.jstage.jst.go.jp/article/isciesci/61/4/61_164/_pdf/-char/ja
*194 上田亮他、言語の固有次元を測る、言語処理学会 第30回年次大会 発表論文集(2024年3月)、pp.1605-1609、https://www.anlp.jp/proceedings/annual_meeting/2024/pdf_dir/E6-1.pdf
*195 https://ja.statisticseasily.com/glossario/what-is-intrinsic-dimensionality/
*196 Peter Grassberger and Itamar Procaccia、Measuring the strangeness of strange attractors、https://verga.cpt.univ-mrs.fr/pdfs/Grassberger-1983fk.pdf
*197 C. Ceruti et al.、DANCo: Dimensionality from Angle and Norm Concentration、https://arxiv.org/pdf/1206.3881
*198 Elena Facco et al.、Estimating the intrinsic dimension of datasets by a minimal neighborhood information、https://www.nature.com/articles/s41598-017-11873-y.pdf
*199 https://yasuabe.info/four_sphere_ja
*200 Matthias Hein et al.、Intrinsic dimensionality estimation of submanifolds in Rd、https://icml.cc/Conferences/2005/proceedings/papers/037_Intrinsic_HeinAudibert.pdf
・・・
*202 Kentaro Yamamoto et al.、Quantum Error-Corrected Computation of Molecular Energies、https://www.arxiv.org/pdf/2505.09133
*203 Unlocking Scalable Chemistry Simulations for Quantum-Supercomputing、https://www.quantinuum.com/blog/unlocking-scalable-chemistry-simulations-for-quantum-supercomputing
*204 Krysta M. Svore et al.、Faster Phase Estimation、https://arxiv.org/pdf/1304.0741
*205 https://global.honda/jp/topics/2025/c_2025-05-14.html
*206 Ieva Liepuoniute et al.、Quantum-Centric Computational Study of Methylene Singlet andTriplet States、https://pubs.acs.org/doi/epdf/10.1021/acs.jctc.5c00075?ref=article_openPDF
*207 Ieva Liepuoniute et al.、Quantum-Centric Study of Methylene Singlet and Triplet States、https://arxiv.org/pdf/2411.04827
*208 Javier Robledo-Moreno et al.、Chemistry Beyond Exact Solutions on a Quantum-Centric Supercomputer、https://arxiv.org/pdf/2405.05068
査読済版は、https://www.science.org/doi/reader/10.1126/sciadv.adu9991
*209 Danil Kaliakin et al.、Accurate quantum-centric simulations of supramolecular
interactions、https://arxiv.org/pdf/2410.09209
*210 和佐田(筒井)祐子・和佐田裕昭、利用者向け講座・1|分子軌道法計算プログラム Gaussian 03―その3―、名古屋大学情報連携基盤センターニュース Vol.5, No.4-2006. 11-、https://www2.itc.nagoya-u.ac.jp/pub/pdf/pdf/vol05_04/335_349kouza01.pdf
・・・
*212 https://aws.amazon.com/jp/blogs/quantum-computing/simulating-fluid-mechanics-using-quantum-computing-on-amazon-braket-with-haiqu-and-quanscient/
*213 Merel A.Schalkers&Matthias Möller、Momentum exchange method for quantum Boltzmann methods、https://www.sciencedirect.com/science/article/pii/S0045793024002846/pdfft?md5=28232868db6229cce7907e7780ba138c&pid=1-s2.0-S0045793024002846-main.pdf
*214 Akhil Shajan et al.、Towards quantum-centric simulations of extended molecules: sample-based quantum diagonalization enhanced with density matrix embedding theory、https://arxiv.org/pdf/2411.09861
・・・
*217 Hsin-Yuan Huang et al.、Generative quantum advantage for classical and quantum problems、https://arxiv.org/pdf/2509.09033
*218 量子ユーティリティーとは?、https://www.ibm.com/jp-ja/think/insights/what-is-quantum-utlity
*219 Kartik Anand et al.、Collapses in quantum-classical probabilistically checkable proofs and the quantum polynomial hierarchy、https://arxiv.org/pdf/2506.19792
*220 西村治道、量子計算量理論について、https://qacademy.jp/wp/wp-content/uploads/2022/10/nishimurat.pdf
*221 河村彰星、計算量理論、https://www.kurims.kyoto-u.ac.jp/~kawamura/t/is-k3/R031214.pdf
*222 Axel Ciceri et al.、Enhanced fill probability estimates in institutional algorithmic bond trading using statistical learning algorithms with quantum computers、https://arxiv.org/pdf/2509.17715
*223 William Kretschmer et al.、Demonstrating an unconditional separation between quantum and classical information resources、https://arxiv.org/pdf/2509.07255
*224 Zheng-Hao Liu et al.、Quantum learning advantage on a scalable photonic platform、https://www.science.org/doi/10.1126/science.adv2560
arXiv版は、https://arxiv.org/pdf/2502.07770
*225 Takao Tomono & Kazuya Tsujimura、Quantum Kernel Anomaly Detection Using AR-Derived Features from Non-Contact Acoustic Monitoring for Smart Manufacturing、https://arxiv.org/pdf/2510.05594
(*A-65 Hsin-Yuan Huang et al.、The vast world of quantum advantage、https://arxiv.org/pdf/2508.05720)
*226 Scott Aaronson et al.、A Qubit, a Coin, and an Advice String Walk into a Relational Problem、https://drops.dagstuhl.de/storage/00lipics/lipics-vol287-itcs2024/LIPIcs.ITCS.2024.1/LIPIcs.ITCS.2024.1.pdf
*227 The Question One Should Always Ask When They Hear a “Quantum Advantage” Claim、https://quantumcomputingreport.com/the-question-one-should-always-ask-when-they-hear-a-quantum-advantage-claim/
*228 Gautham Udayakumar Bekal et al.、Continual Reinforcement Learning for HVAC Systems Control: Integrating Hypernetworks and Transfer Learning、https://arxiv.org/pdf/2503.19212
*229 Sarvar Hussain Nengroo et al.、Continuous variable quantum reinforcement learning for HVAC control and power management in residential building、https://www.sciencedirect.com/science/article/pii/S2666546825000734?via%3Dihub
*230 松田侑樹、博士論文|デジタルツインのための建築設備運用における人工知能の活用に関する研究、https://repository.dl.itc.u-tokyo.ac.jp/record/2012025/files/B18792.pdf
*231 Google Quantum AI and Collaborators、Observation of constructive interference at
the edge of quantum ergodicity、https://www.nature.com/articles/s41586-025-09526-6.pdf
*232 C. Zhang et al.、Quantum computation of molecular geometry via many-body nuclear spin echoes、https://arxiv.org/pdf/2510.19550
*233 吉田紅、解説|量子情報の非局所化とブラックホール情報損失問題、日本物理学会誌 Vol.74, No.10, 2019、pp.691-699、https://www.jstage.jst.go.jp/article/butsuri/74/10/74_691/_pdf/-char/ja
*234 以下のサイトを参考にした:
https://www.spsj.or.jp/equipment/news/news_detail_70.html
https://www.mst.or.jp/method/tabid/1454/Default.aspx
https://www.sci.u-hyogo.ac.jp/material/electro_phys/research/research_new_NMR.html
(*A-75 Jens Eisert&John Preskill、Mind the gaps: The fraught road to quantum advantage、https://arxiv.org/pdf/2510.19928)
*235 Stephen P.Jordan et al.、Optimization by decoded quantum interferometry、https://www.nature.com/articles/s41586-025-09527-5.pdf
・・・
*240 Danil Kaliakin et al.、Implicit Solvent Sample-Based Quantum Diagonalization、https://pubs.acs.org/doi/pdf/10.1021/acs.jpcb.5c01030?ref=article_openPDF
*S-1 河原源太、TOPICS| 亜臨界乱流遷移レイノルズ数の評価、日本機械学会誌 2012.7 Vol.115 No.1124、p.35、https://www.jstage.jst.go.jp/article/jsmemag/115/1124/115_KJ00008127502/_pdf/-char/ja
*S-2 Kerstin Avila et al.、The Onset of Turbulence in Pipe Flow、8 JULY 2011 VOL 333 SCIENCE、pp.192-196、http://www-fa.upc.es/websfa/fluids/marques/pdf/Science_AMLea11.pdf
*S-3 松川裕樹・塚原隆裕、[共同研究成果]直接数値解析を用いた複合剪断流における亜臨界遷移現象の研究―直交した流れが局在乱流パターンに与える非線形相互作用― 、SENAC Vol. 55, No. 4 (2022.10)、pp.32-41、https://www.ss.cc.tohoku.ac.jp/sscc/refer/pdf_data/v55-4/v55-4_p32-41.pdf
*S-4 https://www.courts.go.jp/app/files/hanrei_jp/945/032945_hanrei.pdf