MerchantBank Consulting
サブページ画像

量子コンピューターの戦略設計

 「中国による量子超越性の達成」に関する、2020年12月12日付け日経新聞の報道に違和感を覚えたことが、本記事のトリガーとなっている。日本は、韓国や中国をはじめとするアジア諸国の技術力を過小評価する傾向があるからだ。2020年12月15日、SNSを通して、

(1) 今回の結果は、中国基準ではない。
 ボソン・サンプリングは、アーロンソンとアルヒポフによって従来から提案されている量子優位性(優位性と超越性の違いは置いといて)を検証する方法であり、中国独自考案テストではない。
(2) エンジニアリング力を示した。
 ボソン・サンプリングで量子優位性を実証するためには、50個の光子が必要であると推定されており、今回の結果は、50個の光子(50個の光子と100個の光子検出器)が対象。日本が得意とされている光学分野で、中国が十分なエンジニアリング力を持っていることを示した。
(3) 今回の意味合い。
 グ-グル/UCSBのジョン・マルチネス教授が言う通り「本当に量子コンピュータを実現したいなら究極的なエンジニアリングをしなければならない。」(出典:藤井啓祐、驚異の量子コンピュータ、岩波書店、2019、p.116)が真であれば、今回の成果は十分意味がある。
(4) グ-グルも・・・
 ちなみに2019年のグ-グル成果も、それ自体に有用性はない(※)。なお、この成果(量子超越性の証明)はエラーのない(理想的な)場合について行われた(※※)。

という意見を投稿したが、「量子コンピューター自体に関する、肚落ちできる公開資料がなかったので、自分で書いてみた。」という経緯である。
 なお2022年7月11日、中国科学技術大学(藩建偉)がスイス連邦工科大学チューリッヒ校に続き、(超伝導回路で)表面符号での誤り訂正実行に成功したと発表した。これは、中国が驚異的なエンジニアリング力を保持していることを意味している。
※ ボソン・サンプリングは当初、量子的な優位性を実証するための問題として純粋に導入されたが、化学(分子振動スペクトルの計算、2015年)や数学(グラフ類似性、2020年)に応用できることが発見された[*106]。よくある話である。また、BTQ Technologies(リヒテンシュタイン)他の研究者によると、ボソン・サンプリングは、ブロックチェーンのコンセンサス・アルゴリズム(プルーフ・オブ・ワーク:PoW)として機能する可能性がある(arXivで23年5月31日、論文[*112]公開)。👉PoWにボソン・サンプリングが適用できることを実証した、とブログ[*147]に投稿(24年3月13日)。エネルギー効率が高いと喧伝するが、その起源は計算速度なので、堂々巡り。
※※ エラーを前提とした場合には、(量子回路の深度が浅いケースの一部を除く)ほぼすべてのケースで、ランダム回路サンプリングに量子超越性は存在しないことが証明されたようである(22年11月)[*91]。

※ 量子スタートアップは、こちら→。ハードウェア ソフトウェア 通信
※ 風変わりな量子ビット等は、こちら→エキゾチック量子ビット。そしてφビット、nビット。
※ 量子アルゴリズムは、こちら

【0】量子コンピューターの全体戦略
 量子コンピューターは、国家戦略上重要な技術体系と位置づけられているから、ビジネス実装されて、日本の産業競争力向上に貢献するべきである。国内サービスの品質向上といった矮小化された目標を考えるべきではない。そのためには、戦略目標を明確にする必要がある。そこまで大仰に構えなくても良いのでは、という考えもあるだろう。しかし、「技術で勝って、事業で負ける」という、日本のお家芸を防ぐには、少なくとも予め、勝ち筋を考え抜くべきであろう。
 なお、誤り耐性量子ゲート方式量子コンピューター(FTQC)は実現しないと想定して、FTQCへの研究開発投資を疑問視する向きもあるが、少なくとも以下の3点で、否定すべきと思われる。①FTQC実現に向けた研究開発を行わなければ、「副産物」として得られるはずの、量子インスパイアード技術が得られない。それは、日本の国際競争力を考える上で、望ましくない。②FTQCを実現するためには、高度で精密なエンジニアリング力が要求される。FTQC実現に向けた研究開発を行わず、高度で精密なエンジニアリング力で諸外国に劣後することは、日本の国際競争力を考える上で、望ましくない。③量子インターネット及び量子暗号と親和性が高い「光量子コンピューター」に関する各種知見において、対中国(及び対米国)で優位性を保つことは、経済上の意味を越えた戦略的重要性を持つと思われる。その重要性は、誤り耐性光量子コンピューターが実現しなくても、変わらない。

(1)  戦略設計
 戦略を設計するために、量子コンピューターの出自を知ることは有用である。出自から量子コンピューターの勝ち筋を2つ導き、戦略を設計する。勝ち筋とは、量子コンピューターが古典コンピューターに比べて、本質的な競争優位性を確保している適用分野を指している。
 それとは別に、産業に与えるインパクトが大きなテーマについても、戦略設計を試みる。
(2) 長期戦略
 量子コンピューターを国家戦略に位置づけるならば、基礎研究への長期的かつ重点的な投資が必要である。基礎研究の結果をビジネスに実装できる人材の配備が、重要なことは、言うまでもない。
 数学であれば、「幾何学的ラングランズ予想」が挙げられるだろう。幾何学的ラングランズ予想は、量子ホール効果のバルク・エッジ対応が成立する仕組みを数学的に示している[*1]。トポロジカル物質の本質であると考えられるバルク・エッジ対応を説明する数学理論としては、アティヤ・シンガー指数定理がある。バルク・エッジ対応は、K理論ともかかわりが深い。これらの分野は、重点的に資源投入すべき数学分野と思われる。
 物理であれば、高エネルギー実験・素粒子実験が挙げられるだろう。量子データを量子アルゴリズムで学習する、量子機械学習(類型論でいうところのQQアプローチに相当。QQMLとする。)は、古典データを古典アルゴリズム(類型論でいうところのCCアプローチに相当。いわゆる普通のML。)あるいは量子アルゴリズム(類型論でいうところのCQアプローチに相当。CQMLとする。)で学習する機械学習の能力向上に、大きく貢献するだろう。なお、量子情報理論とゲージ重力対応(AdS/CFT対応)との結びつきは明らかであるものの、量子情報理論がゲージ重力対応の基礎メカニズムを明らかにする方向で、研究が進むと思われる。

 量子コンピューターに関する初歩的な整理はAppendix 1を参照。量子誤り訂正(符号)に関しては、Appendix 2を参照。

↑目次に戻る

 

【1】量子コンピューターの勝ち筋
 結論を先取りすると、量子コンピューターが活躍する勝ち筋は、2つある。
(1) 計算にエネルギーは必要か?
 ロルフ・ランダウア[*2]の「情報消去の原理」によれば、可逆計算はエネルギーを消費しない。従って、可逆演算だけで全ての演算を実行できれば、エネルギーを消費することなく計算が可能である。(一方で、情報消去に、エネルギー消費は避けられない。それは、マックスウェルの悪魔を情報理論向けにチューニングした思考実験により、レオ・シラードが明らかにした。)可逆演算だけで全ての演算を実行し、さらに演算結果のみを取り出す手法を考案したのは、MITのエドワード・フレドキンとトマッソ・トフォリであった。
 この手法を実現するには、「可逆な物理プロセス」を見つける必要がある。米アルゴンヌ国立研究所の物理学者ポール・ベニオフは、可逆な物理プロセスとして、量子力学を提案し、理論化した(1980年~1981年)。これが、量子コンピューター誕生の第一歩である。なお、ベニオフは(次項に現れる)ドイチュ(※表記をドイチュに統一)とは、独立に量子版チューリング・マシンを定式化している。
 つまり、エネルギーを消費しない計算を追及した結果として、量子コンピューターに辿り着いている。

(2)  君たちは、間違った物理を使っている!
 ファインマンは、ランダウア、フレドキン、トフォリ等が主催した研究会で、「自然をコンピューターでシミュレーションしたければ、量子力学で動作するコンピューターを作製すべき」と述べた(1982年)。古典コンピューターで量子現象を忠実にシミュレートしようとすると、計算量が爆発して手に負えないという指摘である。同じころ、オックスフォード大学の物理学者デイビッド・ドイチュが、「君たちは、間違った物理を使っている」と指摘した。そして、「計算の原理は、古典的な論理演算に限定される必要はない」と気付いたドイチュは、チューリング・マシン(古典コンピューター)の量子版である、量子版チューリング・マシン[*3](量子コンピューター)を定式化した(1985年)。
 つまり、シミュレーションの忠実さを追及した結果として、量子コンピューターに辿り着いている(シミュレーションの速さを追及した結果でないことに注意)。ドイチュは(BB84の二人、P.ショアと共に)、2022年の基礎物理学部門ブレークスルー賞を受賞した。

↑目次に戻る

 

【2】勝ち筋の、戦略設計 
(1) 超低消費電力計算という勝ち筋 
 ユーザー目線では、現行スパコンの能力は、まだまだ不十分である。にも関わらず、ノイマン・ボトルネックと消費電力が絡む障害によって、スパコンの高速化が止まるとユーザーは困る。そこで、現時点でスパコンが担っている革新インパクトを、量子コンピューターに承継する。平たく言うと、そういうルートである。もちろんハードウェア(デバイス)・ソフトウェア、アーキテクチャ含めて、日本がFTQCを独自に開発できることが、前提である。

1⃣ スパコン高速化の限界
 スーパーコンピューター(スパコン)の定義は、各時代において圧倒的に速いコンピューターである。グーグルが量子超越性を示した2019年の実験で、ベンチマークとしたのは、IBMのサミットというスパコンであった。ここで述べたいことは量子超越性ではなく、スパコンの限界である[*107]。
 演算速度に比べてメモリの出し入れ速度は遅い。このため、(フォンノイマン型)コンピューターの演算性能が十分に発揮できな問題は、フォンノイマン・ボトルネックと呼ばれて、コンピューターの黎明期から存在する。
 ノイマン・ボトルネックの解消のために、メモリの高速化やメモリアーキテクチャの工夫等が、行われてきた。その中で、新たな問題となったのが消費電力の問題である。演算速度をなるべく犠牲にしないため、キャッシュメモリで使われるDRAMは、揮発性メモリである。このため、常に電力を消費し、高速なコンピューター(今の場合はスパコン)は、洒落にならないくらい電力を消費する(エクサスケールコンピュータは、原子力発電所2基分の電力が必要とも言われている[*4])。

2⃣ 限界の突破手法1
➊ ストーレージ・クラス・メモリ(SCM) 
 この問題を解決するアプローチとしてIBMが提唱したのがストレージクラスメモリSCMである。SCMの守備範囲は広いが、今の文脈では、DRAM並みの速度を持つ不揮発性メモリを開発して、キャッシュメモリ(L3、L4)として使いましょうということである。他にもSRAMであるL1、L2をMRAMで置き換えるという(苦戦中の)アプローチや、SRAMを3次元積層=大容量化して、L3やL4を不要にするというアプローチもある(こちらは既に実現している)。
 英国Blueshift Memoryは、同社が「ケンブリッジ・アーキテクチャ」と呼ぶ独自のチップ設計により、CPUとの通信を高速化し、データ保護を向上させる、よりスマートなメモリを作成している。特定のデータ中心のアプリケーションに対して、最大1,000倍高速なメモリアクセスが可能とする[*139]。
 しかし、DRAM並みの速度を持つ不揮発性メモリの開発は難航を極めた。そんな中、インテルがOptane DC Persistent MemoryというSCMを開発した。Persistent Memoryは正体が知られていないが、ReRAM(抵抗変化型メモリ)あるいは、相変化メモリー(PCM)と考えられている。ただし、インテルは7月28日に発表した2022年第2四半期の決算報告で、Optaneメモリビジネスを終了させていくことを明らかにした。SCMを使ったアプローチは、(少なくとも当面)とん挫したと考えられる。
 SCMを使用したスパコンとしては、PFNのMN-3が知られている。ただ、PFNの取り組みは、インメモリーコンピューティングと捉えるべきであろう。
❷ インメモリー・コンピューティング
⓪ 日本のAIベンチャーとして知られるプリファード・ネットワークス(PFN)は、スパコンを自社開発している。MN-3は2020年6月に発表されたGreen500リストで世界第1位に認定されている(2020年11月は世界2位、2021年6月に再び世界1位)。スクラッチパッドメモリ・アーキテクチャを採用したMN-3は、Optane DC Persistent Memoryを各ノードに3テラバイトずつ搭載している[*5]。
① インメモリー・コンピューティングというアプローチでは例えば、東京大学生産技術研究所が中心となって、プロセッサの配線層上に強誘電体メモリを3次元集積する、という取り組みが進んでいる[*28]。AI処理に絞っても、低消費電力あるいはエッジの文脈でReRAM(パナソニックなど)やPCM(STマイクロエレクトロニクスなど)をAIチップに組み込む形でインメモリー・コンピューティングが実行されている。
② ReRAMを使ったインメモリーコンピューティングにおける新手法が、22年8月17日、natureにて公開された(A compute-in-memory chip based on resistive random-access memory[*84])。以前と異なる点は、アナログ方式で動作するところ。300万のメモリセルと数千のニューロンを含み、NeuRAMと呼称している。AIワークロードを強く意識しており、最大で1000倍エネルギー効率が高いという。精度は、MNISTで99.0%、CIFAR-10画像分類で85.7%、Google音声コマンド認識で84.7%を達成。また、ベイズモデルに基づく画像復元法では、70%の画像復元エラー低減を実現した。
③ 千葉工大は、スパイキングニューラルネットワークを用いたインメモリー・コンピューティング回路を提案している(22年11月24日)[*85]。
❸ LightSolver
 イスラエルのスタートアップLightSolverは、レーザーベースのプロセッシングユニット(LPU)を発表した(23年5月9日[*109])。ざっくり言うと、NTTのコヒーレントイジングマシン(CIM)に近い。NP困難な最適化問題を解決することを目指した疑似量子コンピュータと考えられ、最適化問題はQUBO形式に変換される(CIMは光発振器で、イジングモデルを物理実装していた)。LightSolverのLPUは、具体的には、以下のようなステップを経て解を得る。
 最適化問題の各変数は、専用レーザーに割り当てられ、レーザービットになる。→最適化問題の制約と相互作用は、レーザービット間の結合に変換される。→最適化問題を実行すると、レーザービットは相互作用し、課された制約に従って変化し、望ましい状態に達し、解に収束する。→最後に、収束解を元の変数に変換する。
 最大充足可能性問題(MAX-SAT)を(正確にはMAX-2-SATを)、深層学習アルゴリズムと比べて最大1000倍高速に解くことができた、とする[*110]。
➍⃣ その他 
① 米xtellix[*100]は、量子ニューロモルフィックにインスパイアされたアルゴリズムを発表する予定と発表した(23年2月7日)。スパコンで5日を要していた降雨・浸水予想モデルの計算を、2秒に短縮できたと主張している。
② 米テューレーン大学(ルイジアナ州ニューオーリンズ)の研究者は「計算可能な最小システムが、単一原子のレベルで実在し、計算は純粋に光学プロセスで実行できる」ことを示した[*104]。

【参考:量子アニーラに似たMemComputing】 読む↓|↑隠す 

3⃣ 限界の突破手法2
 メモリでスパコンの限界を突破するという前項とは異なるアプローチが、計算速度を上げるというアプローチである。
 機械学習とシミュレーションを組み合わせて(観測データand/orシミュレーション結果で、機械学習モデルを学習させて)、高速化を目指す代理モデルというアプローチが存在する。科学技術計算では、Physics-Informed Neural Network(PINNs)と呼ばれるアプローチが存在する。PINNsについては、こちらを参照。ちなみに、仏Pasqal(中性原子方式の量子H/Wベンダー)はPINNsに独自の強みを持つと言われている。
 日本では、科学計算総合研究所(RICOS)という企業が、グラフニューラルネットワーク(GCN)を使ってシミュレーション結果を高速・高精度に予測する技術を有する[*80]。従来の代理モデルでは、畳み込みニューラルネットワーク(CNN)を適用することが多かった。しかしCNNは、直交格子のメッシュ形状にモデルが制限されていた。一方、GNNには、このような制約がないため、汎用性が高い。

【参考:AIアクセラレータでスパコンを加速】 読む↓|↑隠す 
【参考:量子インスパイアード古典計算機で、高速化[*89]】 読む↓|↑隠す 

4⃣ 量子コンピューターという選択肢
 フォンノイマン・ボトルネックを解消する、深層学習を利用して計算の高速化をはかる、とは異次元のアプローチで、高速かつ低消費電力の計算を実現するのが量子コンピューターである。先にあげたNNSAが探るポスト・エクサ級技術候補には、当然、量子コンピュータが含まれている。量子コンピューターはエネルギーを消費しない計算が可能だからである。もっとも、量子コンピューター全体でエネルギー消費ゼロというわけではない。例えば、代表的な量子ビットである超伝導量子ビットは極低温を維持する必要があり、電力を消費する
 重要なポイントは、計算速度が速くなる将来のロードマップが示されているのであれば、量子コンピューターの計算速度がスパコンと同程度であったとしても、置き換えるという選択肢に意味はあるという主張である。従来型スパコンの進化が頭打ちになることが見えているからである[*128]。量子コンピューターの超低消費電力という特徴を活かして、(機械)学習モデル構築のコストを100万分の1あるいは1000万分の1にする[*29]という方向も、このカテゴリーに入る。
⚔ [*148]によると、1,000物理量子ビットの(超伝導方式)量子コンピュータを稼働させるのに50kW必要。量子誤り訂正符号として表面符号を前提とすると、実用的な計算を可能とするには、100万物理量子ビットが必要とされる。単純にスケールさせると、50メガ・ワットが必要となる。これは、いわゆる原発1基分!つまり、これ(技術革新がない、モダリティとして超伝導方式を仮定)だと、話が随分違ってくる。
👉 米Quantinuum(イオントラップ方式H/Wベンダー)は、該社の量子プロセッサH2-1で、ランダム回路サンプリングに要する電力(消費電力)は、スパコンの「3万分の1」であると発表した(24年6月5日@公式ブログ[*152])。H2-1は32量子ビットから56量子ビットにアップグレードされた。2量子ビットゲートの忠実度は99.9%と主張している。

5⃣ 戦略設計
 戦略目標は、古典コンピューターでは継続性が危ぶまれる、高速高性能な計算環境を継続的に提供することで、日本の産業競争力向上を支援することである。
 現行スパコンが担っている全ての計算を量子コンピューターに移管する前提なので、FTQCが要求される。古典コンピューターとのインターフェースの最適化、量子誤り訂正の実装に向けたスケーラブルなハードウェア構成と設計方法の確立が要求される。実現時期は、かなり先である。
 ユーザー目線に立てば、スパコンからスムーズに移行できることが望ましい。つまり、従来のコードがそのまま実行できて、検証ができることが望ましい。そのためのソフトウェア環境に加えて、使い勝手の良いソフトウェア開発キット(SDK)、デバッガ、検証ツールなどを揃える必要がある。

(2) 量子現象を忠実にシミュレートするという勝ち筋
 日本が競争優位を保持する産業では特に、量子コンピューターを使った量子現象のシミュレーションを産業競争力に結びつける努力が欠かせない。
① マテリアルズ・インフォマティクスの衝撃
 量子化学計算(QC)・分子動力学法(MD)・分子軌道法(MO)は量子コンピューターの宗家である。そしてQC・MD・MOは、材料開発及び創薬支援に貢献しうる。素材開発分野では、スパコン時代においてさえ、マテリアルズ・インフォマティクス(MI)が衝撃を与えた。2012年、マサチューセッツ工科大学とサムスン電子はMIを用い、わずか数年で、従来の材料が持つ問題点を克服した、リチウムイオン電池の新しい固体電解質材料を発見した。
 MIとは統計分析などを活用したインフォマティクスの手法により、材料開発を高効率化する取り組みである。従来の材料開発は、研究者の勘と経験と知識に基づいており、日本が圧倒的に強い分野であった。しかし、材料データベースの整備が進展し、AI関連技術が急速に発達したことで、MIが実用レベルに達した。それが量子コンピューターによって、さらに加速することは間違いない。

② 基底状態を求める量子古典ハイブリッドアルゴリズム 
 量子化学シミュレーションの分野は宗家だけあって、すでに有力な量子古典ハイブリッドアルゴリズムが存在する。その代表例は、VQE(variational quantum eigenvalue solver)である。VQEは変分法である。variationalは変分法、変分原理を意味している。eigenvalueは固有値である。変分法は、元の系が無限大の次元を持っていたとしても、ハミルトニアンを有限の行列として表現する(有限の基底空間でハミルトニアンを考える)ことで、対角化を経て、近似解(固有値=固有エネルギー)を得ることができる。つまりNISQのように、量子ビットが少ない量子コンピューターに適合した解法、ということになる。
 VQEは、ザパタ・コンピューティング[*6]の共同創業者で、トロント大学化学科(2018年6月までは、ハーバード大学化学科)のアラン・アスプル=グジック教授他が、2014年に発表した論文の中で提示した。VQE は古典アルゴリズムに比べて高速であると証明されているわけではない。

③ 励起状態を求める量子古典ハイブリッドアルゴリズム
 VQEはもともと量子化学の分野で、分子の基底状態を探索するアルゴリズムとして開発されたため、有用範囲が限定的である。以下にような、実用的な励起状態まで求められるアルゴリズムも存在する。シュレーディンガー方程式の解は、完全系を成す直交基底となる。つまり、基底状態と励起状態(第一励起状態、第二励起状態、・・・)は全て直交している。これを逐次的に利用する。つまり、基底状態と直交する関数のうちで、固有値が最小のものを探すことにより、第一励起状態が得られる。また、それらと直交する関数から、固有値が最小のものを探せば第二励起状態が得られる。
 他に、qEOM-VQE法、VQD(Variational Quantum Deflation)法あるいは、米国のQCウェアが開発したMC (multistate-contracted)-VQE法などがある。
 ㊀日本のキュナシス社[*7]が開発した、低エネルギーの部分空間を求めるSS-VQE(部分空間探索VQE)は、次のようなステップを踏む[*8]。i) 互いに直交する、複数の初期状態を準備する。初期状態はインデックスで分別する。ii) 夫々の初期状態に適当な量子回路U(θ)を作用させ、試行状態を生成する。試行状態もインデックスで分別される。iii) コスト関数を最小化するようにθを決定する。コスト関数は、インデックスに対応する重みが付いている。iv) 収束したθにおいて、0番目のインデックスに対応する試行状態が基底状態。1番目の試行状態が、1番目の励起状態である。
 ㊁三菱ケミカルグループ、慶應義塾大学、日本IBMは、分子の励起状態エネルギーを求める新しいアルゴリズムを開発したと発表した(23年2月9日)[*99]。(先にも上がった)VQD法におけるパラメータを無視できるような制約条件をつけることで、対象分子の構造に依存せず、共通して適用可能なアルゴリズムの開発に成功した。制約条件自動調整変分量子固有値法(VQE/AC法)と名付けられた。

④ VQE×機械学習(量子回路学習) 
 VQEを高速化する試みとして、機械学習とVQEの融合というアプローチがある。以下は、(日本発の量子機械学習である)量子回路学習とVQEのコラボである。
 例えば、ある物理量Aが様々な値を取ることに伴う基底エネルギーの変化を、VQEによって求めるプロセスは、逐次プロセスとなる。つまり、Aの個々の値Ai (i=1,2,・・・,n)に応じてハミルトニアンを構成し、その各ハミルトニアンにVQEを適用して、基底エネルギーの変化を求める。最適化計算は古典コンピュータを使うのが常套手段であるが、そこに量子コンピュータ(NISQ)を使うところが面白い。
 上記の逐次プロセスを、以下のようなプロセスで置き換えれば、機械学習(正確には、量子回路学習QCL)で置き換えたことになるだろう[*9]。a) Aiを、量子回路(ユニタリ作用素)のパラメータθに反映させる。b) 「Aiとθ(Ai)」という"データセット"を少数用意する(例えばi=1,2,・・・,m)。c) この少数のデータセットで学習することで、未知のAi (例えばi=m,m+1,・・・,n)に対しても、パラメータθを出力するモデルを構築する。d) c)のモデル利用して、未知のAiに対しても、基底エネルギーを出力するモデルを構築する。
 a)の量子回路の工夫、及びc)のモデルの工夫次第で、単純なVQEより高速なアルゴリズムになることが期待されている。

⑤ 実用的な材料での量子古典ハイブリッドアルゴリズムの実用化
 量子古典ハイブリッドアルゴリズムの開発や機械学習との融合などで、一定のグローバル・プレゼンスを有すると考えられる日本は、結果も出している。量子コンピューターを用いた実用材料の励起状態計算に、世界で初めて成功したという発表が、2021年5月26日に行われた[*10]。三菱ケミカル、JSR、日本IBMおよび慶應義塾大学の成果。このグループには、キュナシスも加わっている。
 実用材料とは、有機EL発光材料の一つである TADF である。励起状態を扱える量子古典ハイブリッドアルゴリズムを用いた上で、「量子トモグラフィー」をベースとした、新しい量子誤り抑制手法を導入した。

⑥材料開発・創薬支援における量子化学計算(QC)と深層学習(DL)の立ち位置
 材料開発あるいは創薬において、QCだけで完結できるケースは、まずないだろう。例えば、有機化合物の素材開発であれば、合成条件(パラメータ)を同定する必要がある。そして、パラメータの同定をQCの結果だけで行うことは、ほぼ不可能である。このように、製品化(あるいは上市)までには、QCだけでは対応できない、様々なステップが存在する。AIであれば、ラストワンマイルを越えてマーケティングまでカバーできる。いずれにしても、材料開発あるいは創薬支援における正しいフォーメーションは、QC×DLとなるだろう。
 データが不十分な場合はQCで補い、適当量のデータが集まれば、それを訓練データとして(まずは古典的、いずれ量子的)DLモデルを構築する。構築したDLモデルで、物性予測や合成条件のパラメータ同定などが可能となる。実際、そのアプローチが実施されている。研究成果は、こちらにまとめた。
 商業ベースの話題としては、プリファード・ネットワークスとエネオスは、2021年7月6日、汎用原子レベルシミュレーター「Matlantis(マトランティス)」を開発し、クラウドでのサービス提供を開始したと発表している[*25]。マトランティスは、QC(材料開発の文脈では、密度汎関数法DFT)を実行せずに、DFTを実行して得られる物性値を、深層学習を使って得ることが出来る。
 最後に、創薬支援におけるQCとDLの立ち位置を整理する。化合物による医薬品開発を考えた場合、疾患に関与する(生体内)タンパク質との相互作用が強い化合物が、有力な医薬品候補として選択される。つまり、結合自由エネルギーの大きさでスクリーニングを行う。メディアではバイオ医薬品が注目されているが、低分子化合物は、医薬品の候補物質として今後も引き続き重要と考えられている。例えば、抗がん剤として有望なアプローチである抗体薬物複合体(ADC)に用いられる薬物は、低分子化合物(あるいは中分子化合物)である。最近(~22年央)話題の、タンパク質分解薬も低分子化合物である。
 タンパク質と化合物との相互作用を評価するアプローチは主に、3つある:a.ドッキングシミュレーション、b.分子動力学法(MD)、c.分子軌道法(MO)。a.はQCとは無関係である。
 MDは、原子間の相互作用を古典近似しているために、精度が低い。b.に関するDLのトピックスは、MD+DLという合わせ技で精度と計算コストのバランスを取る、である。QCの結果得られる原子間の相互作用を再現するような深層学習システムが導入される。この場合の深層学習システムとしては、ニューラルネットワークポテンシャルNeural Network Potential(NNP)が広く用いられている。
 MO法は、代数方程式を(近似的に)解くことでエネルギー固有値及び分子軌道(分子の波動関数)を求める。c.に関するDLのトピックスは、グラフ畳み込みニューラルネットワーク(GCN)あるいはメッセージパッシング・ニューラルネットワーク(MPNN)である。MPNNは、分子グラフから特徴抽出することによって、化学構造から、単一分子の物性を予測することを可能とする(既に、複数分子を組み合わせた材料に対する拡張も行われている)。2017年6月のグーグルの論文[*26]では、MPNNはDFT計算よりも、10万倍速く物性予測が可能と書かれている。

⑦ 戦略設計 
 既にある程度の成果が得られているものの、射程を、本格的な創薬支援や触媒の設計といったところまで延ばせば、道半ばであることは明確である。改めて戦略目標を明示すれば、それは、素材開発において日本が現在有しているグローバル競争力の維持及び強化である。触媒で言えば、脱炭素社会の実現に貢献する触媒の開発が戦略目標である。創薬では、作用機序が新しい医薬品候補を迅速に、臨床試験に送り込むことが戦略目標である。例:大日本住友製薬と英新興企業のExscientiaは、2020年1月30日、AIを活用して創製した強迫性障害治療薬に対する新薬候補化合物の臨床試験(フェーズ1)を日本で開始したと発表した。平均して4年半かかる探索研究を、12カ月未満で完了したという[*27]。
 韓国が素材開発において日本の優位性を脅かした場合、その影響は電子部品に及び、さらには幅広い工業製品にまで波及する可能性がある。日本は、韓国さらには中国によって、そのようなシナリオが実現されることを防がなければならない。
 素材開発において、量子コンピューターを使った量子化学シミュレーションは、必ずしも答えを提供する必要はない。開発スピードを促進・加速するヒントを提供できれば、十分に有用である。NISQで試行錯誤を繰り返し、ライブラリや「量子誤り抑制」を含む知的財産を積み上げることが、攻守両面で肝要である。FTQCまで待つ必然性は全くない。

【参考1:VQE】 読む↓|↑隠す 
【参考2:量子コンピュータが優位性を示せるのは『計算化学と材料科学』のみ?】(23年5月1日)
 Matthias Troyer(マイクロソフト・テクニカルフェロー兼量子部門バイスプレジデント。ETHZで博士号取得後、東大でポスドクらしい)はMicrosoft Azure Quantum Blogにおいて、古典コンピュータと量子コンピュータの演算性能を比較する投稿を行った(23年5月1日)[*114]。古典コンピュータは、単一の最先端のGPUを備えたマシンを想定。量子コンピュータ(QC)は、耐故障性(ゲート方式)量子コンピュータ(つまりFTQC)であり、1万論理量子ビット、または約100万物理量子ビットを備えたマシンを想定している。
 ⓪古典コンピュータとの比較において、QCが問題を解くのに、2週間以上要するアプリケーションは考えない。
 ①QCは古典コンピュータに対して、問題のサイズに漸近的に高速であることを鑑みると、2次加速では意味がない。超多項式の加速が必要である。
 ②QCは操作を実行するための出力帯域幅が制限されている。例:機械学習によく使用されるグラフィック処理ユニットなどの帯域幅の1/10,000しか処理できない。
 ③量子システムにデータを出し入れすることが大きなボトルネックであること、及び②を考慮すると、㊀大規模データセットでの機械学習、㊁大規模な連立(線形一次)方程式を解く気候予測、㊂Groverのアルゴリズムに依存する創薬アプローチ、等では古典コンピュータに対する優位性を示せない。
 ④QCが優位性を示せるアプリケーションは『計算化学と材料科学に関連するアプリケーション』である。
❚参 考❚
 東大・阪大は、物性シミュレーションにおいて、量子優位性が現れる物理量子ビット数が、105オーダーと推定した論文[*151]を発表した(24年4月29日)。詳細は、こちらを参照。

【参考3:アンザッツの表現力が精度を抑制する!】(23年6月20日)
 ブラジルのサンタマリア連邦大学の研究者は、「アンザッツの表現力は、変分量子アルゴリズムの精度(正確には、パラメータの探索能力)を抑制する」という論文(以下、本論文[*115])を発表した(23年6月20日)。変分量子アルゴリズムがピンとこなければ、量子機械学習に置き換えても良いだろう。
 現時点で、現実的な量子コンピュータは、言わずもがなNISQマシンである。NISQマシンを前提とすれば、量子的手法を利用する最適化タスクは、変分量子回路を使った最適化タスクとなるだろう。この最適化タスクでは、コスト関数が最小となるようなパラメータが、古典コンピュータで探索・更新される。通常、1量子ビット回転ゲートが、パラメータ化された量子回路である(この場合のパラメータは、1量子ビット回転ゲートの角度)。
 変分量子回路を使った最適化タスクにおけるパラメータの探索には、コスト関数の勾配が使用される。この方法では、回路規模が大きくなるにつれて、勾配が消失する(いわゆる「不毛な台地」)という問題が発生する。さらに、勾配消失は、パラメータ化量子回路(アンザッツ)の高い表現力にも関連していることが(2022年に)示されている。本論文は、アンザッツの表現力がコスト関数にどのような影響を与えるかを定量的に分析している。なお、表現力の定義は、「ヒルベルト空間をよく表す(純粋)状態を生成する量子回路の能力」である[*116]。
 本論文の結果は『アンザッツの表現力が増加するほど、コスト関数の平均値が固定値Tr[O]/d に留まる』である。ここで、Trはトレース、Oはオブザーバブル、d=2n(nはアンザッツの量子ビット数)である。変分量子アルゴリズムでは、アンザッツの表現力と精度との間には相関関係があり、一般に表現力が高ければ高いほど、精度も高くなる、と信じられていた。しかし、本論文によると、アンザッツの表現力は、勾配消失現象と、直接関連している。つまり、アンザッツの表現力を高めたからと言って、精度は、必ずしも上がらない。別の表現を使うと、「探索能力を高めても、その探索能力が活かされない」。
 この問題の根は、複雑である。つまり、勾配消失を避ける最適化方法を見つけても、解消されない。コスト関数自体が固定値周辺に集中するためである(そもそも、アンザッツの量子ビット数が大きくなれば、コスト関数は0に近づく)。

↑目次に戻る

 

【3】吉野家の牛丼とかけて、量子機械学習と解く。その心は? 
 吉野家の牛丼のキャッチフレーズは、「はやい、うまい、やすい」である。量子コンピュータを使った量子機械学習アルゴリズムは、古典的な機械学習アルゴリズムと比べて「はやい、うまい、やすい」ことが期待されている。言葉を替えると、「はやくて、やすくて、うまく」なければ、勝ち筋は見えてこない。
(1) 勝ち筋を見定めるときに考慮すべき2つの基軸
 量子機械学習(QML)のほとんどは、量子コンピュータの勝ち筋ではない。結論を言えば、勝ち筋は二つあり、量子系ネイティブなQML(詳細は後述)は勝ち筋となるであろう。
 QMLの勝ち筋を考える場合に考慮すべき基軸は2つある。一つ目の基軸は、複雑性である。機械学習を対象とした場合、考察すべき複雑性として、(漸近的)計算複雑性、サンプル複雑性、モデル複雑性の3つが適当と考えられる。もう1つは、考察対象とするQMLが、MLを量子系に翻訳したQMLなのか、それとも量子系ネイティブなQMLかという基軸である。
(1-1) 複雑性の基軸
 ①速さ
 QMLに限らず、量子コンピュータの実用場面で最初に言及される訴求点は、速さである。それは、「ショアのアルゴリズム」の衝撃が大きかったせいであろうし、2019年10月に、グーグルが10億倍速いという「量子超越性」の実現を主張したためであろう。アルゴリズムの実行速度に関する指標が、(漸近的)計算複雑性である。なお10億倍は、「10の9乗」倍であるが、量子アルゴリズムが古典アルゴリズムより10のべき乗で速くなることを量子超越性と呼ぶ。対して、2乗で速くなることは、量子優位性と呼ばれる。
 計算複雑性に限定しても、議論はかなり複雑である。いわゆる量子加速と呼ばれるものは、正確には5種類存在する。最上位の「証明可能な量子加速」とは、量子アルゴリズムより速い古典アルゴリズムが存在しないことが、数学的に証明されているカテゴリーである。有名どころでは、グローバーのアルゴリズムが該当する。次席の「強力な量子加速」とは、ものすごく頑張って、量子アルゴリズムより速い古典アルゴリズムを探したけれど、今のところ見つかっていないというカテゴリーである。ショアのアルゴリズムは、これに該当する。
 つまり、速さのみを基準として量子アルゴリズムに賭けることは、かなりリスクがある。「証明可能な量子加速」アルゴリズムは、少数である。加えて、量子加速が観測されている量子アルゴリズムでは、データセットにスパース性や冗長性の条件が課されることが普通である。そして、ある日突然、量子アルゴリズムより速い古典アルゴリズムが発見されることがありうる。さらに言うと、ファイン・チューンすることで古典アルゴリズムは、速くなる。グーグルが量子超越性を主張した時に、IBMが行った反論は、本質的にそういうことであり、1万年が2.5日に短縮された。
 しかも、それだけではない。古典的機械学習アルゴリズムの実行時間と、量子機械学習(QML)アルゴリズムの実行時間とを比較する場合、アルゴリズムの学習速度のみならず、前処理:「状態準備(符号化)に要する時間」と後処理:「測定(読み出し)に要する時間」も考慮しなければならない。それらの時間は、符号化の種類、データセットの構造に依存する。QMLにおける前処理・後処理は、古典系とは比べ物にならないほど複雑怪奇で、思い通りには行かない。
 高速性を前提にQMLへ投資すると、経営層が投資対効果に失望するリスクが大きいと弊社では、考えている。別の表現を用いれば、QMLの本質は、スピードではないと考えている。もっとも、これはそれほどオリジナリティがある主張ではない。むしろ、広く認識されている主張のようである。

 ②データ量
 サンプル複雑性は、学習モデルの汎化に必要なデータ量に関する複雑性である。これは結論が単純明快であり、量子加速は存在しないことが知られている。
❚註❚ 量子機械学習のレビュー論文[*149]によれば、「量子センサー,量子メモリ,量子コンピューターを使用して、実験から量子情報を取得・保存・処理できる場合、サンプル複雑性において指数関数的な量子優位性があることが示された」。

 ③表現力
 モデル複雑性は、学習モデルの表現力に関する複雑性である。分かり易さを優先して厳密さを犠牲にすれば、より良い近似能力と言って良いかもしれない。過学習の議論も、モデル複雑性の範疇である。モデル複雑性については、以下のことが知られている。
 まず、過学習について。量子回路を使った機械学習では本質的に、過学習が抑えられることが証明された[*30]。ただし、過学習が抑えられるという特性を、過大に評価すべきではないだろう。そう考える根拠は、「AIのロバストネスを向上させる、あるいは、ブラックボックスAIからホワイトボックスAIへという研究の潮流において、古典的MLで過学習を抑制するという研究が進んでいる」からである[*31]。
 次に、機械学習において量子優位性が存在することが、2020 年末に証明された。米IBMが作成し、2021年9月21日に日本語版が公開された「The Quantum Decade来るべき量子コンピューティングの時代に向けて」[*32] (17ページあるいは、58ページ)によると、古典データを使用するQMLでの分類が、任意の古典的二項分類器に対して、量子優位性を有することが明確に証明された。
 弊社では、MLからQMLの切り替えを検討するとき、モデル複雑性をドライビングフォースとして考えることが、勝ち筋に繋がると考えている。つまりQMLの本質は、表現力の豊かさであると考えている。

(1-2) QMLの出自
❶ 量子系に翻訳した量子機械学習
 まず、MLを量子系に翻訳したQMLを考えよう。それが自然ならば、そのQMLは勝ち筋の候補と考えられるだろうと、弊社では考えている。具体的に言えば、古典的カーネル法は量子論と親和性が高いため、量子カーネル法という方向は、勝ち筋の候補と考えている。蛇足ながら、カーネル法におけるグラム行列と、密度行列との形式的な等価性も、古典的カーネル法は量子論と親和性が高いことを示している。
 ①カーネル法
 カーネルからは、特徴写像が構成できる。カーネルは自然に内積をもたらし、この特徴写像から、内積を備えるベクトル空間を構成できる。このような背景から、カーネル法における特徴空間とヒルベルト空間は、数学的構造が似通っている。QMLの優位性を説明する文章:『量子ビットが自然に持つ「指数的に大きな次元」を活用することで、訓練データをより良く近似できる可能性がある。』は、まさに、このことを表現している。
 機械学習において、生のデータから特徴量をうまく抽出できないときに使用される、一般的なアプローチがあったことを思い出そう。データをもとの次元より高い次元に埋め込んだ上で、特徴量の抽出を行うというアプローチである。例えば2次元の図面ではわからない特徴が、立体模型にすると明確になって、特徴をうまく抽出できるというイメージである(この例だと、うまく分類できる、という表現が分かり易いかもしれない)。大きな次元を用意することは、効率的な特徴量の抽出に繋がる。これが、カーネル法であった。
 米国の量子ソフトウェアベンダーZapata Computingが実施した調査レポート(22年12月付け、公表は23年1月11日)[*96]に、「私たちの研究により、特にジェネレーティブ・モデリング(ジェネレーティブAI、生成AI)が、量子力学の実用的な優位性をもたらす最も有望な手段であることが明らかになりました」との記述がある。その理由は、「量子コンピュータが、従来は困難だった複雑な確率分布の符号化とサンプリングを可能にするため」という。これは、カーネル法に基づく機械学習が量子コンピュータによって性能加速される構図と同じである。
 量子多体系のハミルトニアンは、自由度の数に対して指数関数的に大きな次元を持つ。このことを反映して、入力が1次元であっても、複数(=N)量子ビットからなる量子コンピューターであれば、出力(観測量)には、N次元表現が自然に含まれる。このような指数的に大きな次元を活用することで、QMLは、訓練データをより良く近似できる可能性がある。量子機械学習をキラーアプリと定めているであろうカナダの光量子方式量子コンピューター・ベンダーXanaduは、「NISQデバイスにおいて有望な量子機械学習の多くは、(古典)カーネル法の量子的拡張と解釈できる」と指摘している。[*47]

 ②ニューラルネットワーク
 一方で、量子系に翻訳したニューラルネットワークは、勝ち筋に繋がらないだろう。なお、ここでいう量子系とは、ディープラーニングの文脈で、「枝刈り」や「蒸留」と同列に現れる量子化とは異なる。また、コヒーレント・イジングマシンの文脈で現れる量子ニューラルネットワークとも異なる。
 ニューラルネットワーク(NN)が勝ち筋に繋がらない理由は、NNが量子論と親和性が低いからではない。例えば、ボルツマンマシンは「確率的」なNNモデル(正確には、RNNモデル)であり、本質的に確率論である量子論との親和性は極めて高い。そのため、ボルツマンマシンは、古典的な機械学習マシンでありながら、制限付きのボルツマンマシン(RBM)であっても、量子系を表現する能力は十分である。古典系でも十分、量子系を表現できるのであるから、量子系への翻訳は、意味を成さないということである。これは次のように表現することも可能であろう:NNは、古典系でも十分な表現力を持っているから、量子系が優位とされる指数関数的に大きな次元を利用する必要性がない。【補足1】

 ③小括
 小括すると、カーネル法は、量子系に自然に翻訳することができる。そして、モデル複雑性の観点で優位性を持つ可能性が、自然に浮かび上がって来る。一方で、高速性が自然に浮かび上がってくるようには、思えない。ところが、NNは、古典系であっても、おそらく、モデル複雑性において量子カーネル法と遜色はないであろう。(NNは、一般に処理速度が遅いから)高速性での優劣はありうるが、MLを量子系に翻訳したQMLが、勝ち筋とまでは、考えられない。

❷ 量子系ネイティブな量子機械学習
 次に、量子系ネイティブなQMLを考えよう。量子系ネイティブなQML は、Aimeur、Brassard、Gambsによる類型論でいうところのQQアプローチに相当する。そこでQQMLと呼ぼう。QQMLは、古典コンピュータ用に開発された古典アルゴリズムを量子系に翻訳したアルゴリズムではなく、当初から量子デバイスで実行することを前提に開発された、量子力学の原理に基づく機械学習アルゴリズムである。QQMLは勝ち筋であろう。【補足3】
 例えば、古典的なランダムウォーク(RW)の量子力学的拡張である量子ウォーク(QW)は、RWとは本質的に異なる性質を持っている。QWは、RWよりも遠方に移動する「線形的拡散」の性質を持つと同時に、RWに比べて出発点に留まり続けるという「局在化」という性質を持つ。つまり、相反する性質を合わせ持っており、RWとは数学的構造が本質的に異なる。機械学習に実装した結果も、その数学的構造を反映している。QWを使ったレコメンドサービスの結果は、RWを使った場合と本質的に異なる結果を示している。【補足2】
 また、機械学習とはズレるが、【5】(2)量子モンテカルロ法で扱う「量子振幅推定法」は、量子系ネイティブなアルゴリズムである。モンテカルロ法であるが、乱数は出てこない。確率分布からサンプリングしない。量子論が自然に有する確率的特性を、自然な形で活かした情報符号化(量子サンプル状態符号化)を用いて、積分の近似値を求める手法である。つまり、アプローチが本質的に異なる。QQMLでは、2次関数的加速が「自然に」見込まれ、古典アルゴリズムとは質的に異なる結果が、報告されている。つまり、QQMLでは高速性をメインとしながら、深いインサイトを期待する、を勝ち筋と捉えるべきだろう。

【補足1】QNN 読む↓|↑隠す 
【補足2】量子ランダムウォーク 読む↓|↑隠す 
【補足3】Googleのブログ 読む↓|↑隠す 
【補足4】Terra Quantumの実験結果 読む↓|↑隠す 

(2) QMLの例―量子回路学習(QCL)
 カーネル法の量子論的拡張例をあげる。古典的なカーネル法(サポートベクトルマシン)は、最適化問題に帰着してパラメータを求める。古典論において、最適化問題の解法としてもっともポピュラーな勾配降下法は、量子版が見つかっていない。そういう事情で、量子機械学習における最適化問題の解法では、(量子版勾配降下法の替わりとして)変分法が用いられる。
 大阪大学藤井教授のグループが提案する量子回路学習(QCL)は、変分量子回路を使った量子機械学習であり、NISQでも可能なアルゴリズム(量子古典ハイブリッドアルゴリズム)である。これは、量子カーネル法の一種と解釈することが可能であり、高速性を求めたアルゴリズムではなく、学習結果の向上(モデル複雑性)を求めたアルゴリズムと位置づけられる。QCLは、2019年3月IBMの実機に実装されており、動作は実証されている。
 QCLのステップは以下の通りである[*11]。i) 用意した初期値にユニタリ演算子(量子回路)で変換して入力状態=量子特徴量状態、を作る。量子特徴量状態は、テンソル積に由来する大きな次元を持つヒルベルト空間の量子状態である。ii) パラメータθに依存したユニタリ演算子(変分量子回路、ansatz)で、入力状態を変換して、パラメータを含む出力状態を作る。この出力状態は、古典的描像では、説明変数に該当する。iii) この出力状態(説明変数)と、学習モデルに対応する何らかのオブザーバブルから、学習モデルを作る。古典的描像では、予測式に該当する。量子論的には、出力状態の下でのオブザーバブルの期待値を計算することが、学習モデルとなる。iv) 教師データと学習モデルの出力の差が最小になるように、コスト関数を使って、パラメータθを求める。

(3) 適用分野
 国際競争力で日本の産業セクターを議論する場合、最重要産業は、自動車産業と素材産業ということになるだろう。素材産業については【2】で既に述べているが、ML(深層学習DL)が素材開発の場面において、貢献している。ニューラルネットワークを量子系に翻訳することは困難であるから、ML(DL)からQMLへの翻訳が素材産業に与える影響は限定的と考えられる。しかし、量子系ネイティブなQML(QQML)は、質的に異なるインサイトを与える可能性がある。従って、中長期的にはアカデミアを中心に、QQMLを開発して、素材開発に生かすことが勝ち筋となるであろう。
 自動車産業でMLが活かせる場面は、従来の内燃機関自動車の時代と、EVあるいは自動運転車の時代で変わってくるであろうが、概ね以下のような場面であろう。①製造・生産フェーズ現場では、生産予測、サプライチェーンマネジメント、トレイサビリティ・マネジメント、排出量マネジメント、高速に垂直立ち上げを行う、製造ラインの歩留まりを迅速に安定化する、生産コストを継続的に低減する、などが考えられる。②販売及びそれ以降のフェーズでは、販売予測、各種サービスやソフトウェア更新のレコメンド、ユーザー毎の電池パワーマネジメント、故障予測、危険予知・回避、ユーザー毎1日毎の損害保険料算出、排出量マネジメント、などが考えられる。
 自動車産業においても、ML(DL)からQMLへの翻訳が与える影響は限定的と考えられる。その一方で、世界モデルAIを前提にすると、QQMLは、日本の優位性を侵食する可能性があるかもしれない。自動車関連産業は、雇用機会の創出能力が大きく、輸出額も巨大な、日本の基幹産業である。米国に対し、「継続的に競争優位を維持してきた」唯一の産業と言っても良い。QMLで遅れることにより、自動車産業の競争力を失うことは、どうしても避けなければならない。QQMLを開発して、自動車産業の競争力を維持する努力は、必須と思われる。
 加えて、QMLの重要適用分野と考えられるのは、サイバーセキュリティである。この分野は、国際競争力という文脈からはやや離れるが、国家経済に与えるインパクトは大きい。しかも、際限なく高速性を求める分野でもある。このような理由から、QMLの重要適用分野と考えられる。

(4) 戦略設計
❶勝ち筋1・・・QQML
 これまでの議論を踏まえて戦略を設計すると、以下のようになる。MLの量子系への翻訳という意味でのQML(類型論的に言うと、CQMLとでも呼べるだろう)は、量子カーネル法であり、より良い近似(予測や分類)を得ることがゴールである。そして、これはNISQの時代にも可能なアプローチである。
 一方で、量子系ネイティブなQML(QQML)を開発できれば、高速かつ質的に異なるインサイトを得られる「可能性」がある。NISQの時代でも、QQMLが実現不可能というわけではないが、本命はFTQCの時代に登場すると考えるべきであろう。冒頭にある吉野家の牛丼との謎かけで言えば、QQMLは「はやい、やすい、うまい」と考えられる。やすいは、低消費電力と捉えれば良いだろう。美味いは、上手いと置き換えれば良いだろう。
 これを、QQMLは量子コンピュータの勝ち筋である一方、CQMLは勝ち筋とは言えない、と解釈することもできる。そうであれば、当面は、量子インスパイアード・古典アルゴリズムの開発が重要ということになるだろう。すなわち、量子インスパイアード・古典アルゴリズムは、QMLの、もう一つの勝ち筋になりうる。
❷勝ち筋2・・・量子インスパイアード・古典アルゴリズム
 量子インスパイアードとは、量子コンピューターを研究することで得られた知見を活かして、古典コンピューターを進化させることである。そして、量子インスパイアード古典アルゴリズムとは、量子アルゴリズムを研究することで発見される、従前知られているよりも高速な古典アルゴリズムである。つまり、量子インスパイアード・古典アルゴリズムは、高速性を目標とする。ニューラルネットワークあるいは、より直截的にディープラニングを高速化することを目標に、量子インスパイアード・古典アルゴリズムを開発するという方向は、勝ち筋につながる可能性がある。
❸テンソルネットワークを利用したアルゴリズムは、有望な量子インスパイアード・古典アルゴリズム
 機械学習における、有望な量子インスパイアード・古典アルゴリズムとして、テンソルネットワークを利用したアルゴリズムがある。古典コンピュータ上で古典アルゴリズムを走らせて、量子回路をシミュレートすると、膨大な時間がかかる。そのため量子回路をテンソルネットワークと見做して、計算時間を短縮するという発想が、テンソルネットワークを利用したQCLである。テンソルネットワークは、情報をうまく集約することができるため、古典系、量子系を問わず多体系の近似計算を効率的に実行できる。
 仏クレディ・アグリコルCIB⊕仏Pasqal(H/Wベンダー)⊕西マルチバース(S/Wベンダー)が、金融分野に活用した事例は、こちらのⅣとⅤを参照。

❚余 談❚
 2021年12月に、株式会社グリッドが発表した[*34]、ドイチュ・ジョザのアルゴリズムと古典的なクラスタリング手法を併用したアルゴリズムは、量子インスパイアード・古典アルゴリズムではないが、方向性は同じである。関数の大域的な性質を判断するという、ドイチュ・ジョザのアルゴリズムの特性を活かして、データ群の性質を一度で判断・分別するというアイデアである。
 [加筆修正あり]2019年にGoogleが達成を発表し、直後にIBMが反論した、量子超越性は「ランダム量子回路サンプリング」という問題で検証された。エクサスケールのスパコンがあれば、テンソルネットワークを使用することで、同問題がより"早く解ける"という論文[*129]が発表された(arXiv(ver,1)が21年10月27日、ver.2は同年11月22日)。Googleの量子コンピュータが200秒であるに対して、スパコンは304秒という。論文の著者は『「縮約の順序(contraction path)」計算に使ったソフトウェアCoTenGraの性能が低いため、"304秒"も要したのであり、カスタマイズすれば4~5倍速くなる』と主張している。

↑目次に戻る

 

【4】急募(QUBO)のみ対応で、NP困難も苦手? 
(0) 前捌き
 量子コンピュータが産業に大きなインパクトを与えるテーマとして、組み合わせ最適化問題があげられる(組み合わせ最適化問題以外にも、㊀量子コンピュータの使用を前提にワークフローを再構築することで競争力を向上させる。あるいは、㊁ビジネス・インテリジェンスに量子コンピュータを組込み、経営力を向上させる。というテーマが考えられるが、それらは取り扱わない)。組み合わせ最適化問題(離散最適化問題とも言う)は、その応用範囲が広い。国際的な産業競争力という文脈であれば、工場内の生産性の向上に帰着するだろう。
 ただし、組み合わせ最適化問題は(ゲート方式)量子コンピューター向きの分野ではなく❚追記❚、古典アルゴリズム(含む量子古典ハイブリッドアルゴリズム、量子インスパイアード・アルゴリズム)や疑似量子コンピューターが活躍する分野であると考えられる(量子コンピュータが、一部の最適化問題を高速に解けることについて、[*102]を参照)。そのため、出口を国内サービスのブラッシュアップに置いても、戦略上の問題はないだろう。
 また、組み合わせ最適化問題の多くは、サイバーセキュリティとは異なり、際限なく高速性を求めるような問題ではない。それは東芝が、疑似量子コンピューターを高速高頻度取引の有効性の検証に使ったこととも符合する。
 ちなみにマッキンゼーは最近、「量子技術を使った最適化問題タスクにおける、最も重要な短期的な利点」は、「結果を得る速度よりも、出力の品質が重要である問題で見つかる可能性がある」と言い出した[*120](弊社は従来から、量子コンピュータの本質的価値は、高速性ではなく「質の向上」にあると考えてきた。IBMの同じことを言い出している。こちらを参照)。加えて、最適化に特化した量子計算機が、誤り耐性型万能量子計算機に先行する可能性を指摘している(→マイクロソフトのAIMについて、[*124])。また、関連ユースケースとして、「無線通信におけるアンテナ配置の最適化や、小売における設置面積の最適化[*130]など、わずかな改善で大幅なコスト削減がもたらされる問題」を上げている(ただし、これはマッキンゼーが言ってることではなく、QuEra[*121]の受け売り)。ちなみに、[*120]でも[*102]のQuantum optimization of maximum independent set using Rydberg atom arraysが取り上げられている。
 いくつかの準備をする☛すぐに、移動 

❚追記❚
 豪州の量子ソフトウェア・スタートアップQ-CTRLは、「ゲート方式量子コンピュータ🛡1が、離散最適化問題🛡2で、量子アニーラ🛡3よりも優れた🛡4性能を発揮した例を初めて示した」論文@arXiv[*153]を発表した(24年6月3日)。なお、量子アルゴリズムは、QAOA(量子近似最適化アルゴリズム)である。公正に述べると[*153]は、「離散最適化問題では、一般的に、⓵量子アニーラ>⓶ゲート方式量子コンピュータ」がコンセンサスであるものの、「様々な工夫🛡5を凝らせば、⓶>⓵を実現可能」という論文である。
🛡1 もちろんNISQマシン。正確には、127量子ビットのIBM製NISQマシン。
🛡2 具体的な離散最適化問題は、「k次正則グラフ上の、最大カット問題(k=3~7)」と、「スピングラス・モデルの基底状態エネルギー探索問題」である。ただし、量子アニーラとの比較は、後者のみで行われている。前者は、QuantinuumのNISQマシンH2-1との比較が行われている(が、あまり意味はないだろう。H2-1が独自にチューンすれば、より良い結果が出るはず)。
🛡3 具体的には、D-WaveのPegasusである。
🛡4 "優れている"の意味は、「グランドトルゥースとの差が小さい」という意味である。グランドトルゥースは、CPLEXの解である。CPLEXは、IBMの最適化問題ソルバー。
🛡5 様々な工夫を、頭出しすると、㊀アンザッツの工夫、㊁(アンザッツの工夫に対応する)トランスパイラの工夫、㊂量子誤り緩和の工夫、㊃古典的オプティマイザの工夫、㊄ビット反転誤りに対する工夫、となる。詳しくは、以下の通り。
㊀:標準的なQAOAのアンザッツは、初期状態=n量子ビットの等しい重ね合わせ状態、である。Q-CTRLの手法(Q-CTRL法)では、初期状態=任意の回転演算子Ry(θj)を使用して生成された状態、である。θjは、量子ビット毎に異なる。こうすることで、Q-CTRL法のアンザッツは、より広範囲の潜在的な解を符号化でき、高品質の解に収束するために必要なQAOA層の数を減らすことができる、とされる。つまり、浅い回路を実現するために、パラメータを増やしている。
㊁:㊀のアンザッツを採用した結果、大規模回路の効率的なコンパイルが必要になる。
㊃:変分パラメータの最適化計算アルゴリズムは、ブラックボックス最適化の一つである、共分散行列適応進化戦略(CMA-ES)を使用して実装される。また、コスト関数には、CVaRが採用されている(つまり、期待値を最小化するのではなく、CVaRを最小化する)。CVaRは、金融でお馴染みの「条件付きバリュー・アット・リスク」である(金融では、期待ショートフォールとも呼ばれる)。
㊄:測定された出力分布における相関のないビット反転誤りを、純粋に古典的なポスト・プロセッシングで対処する。具体的には、出力されたビット文字列に対して、単純な貪欲法による最適化を実装する。

(1) 準備1:量子インスパイアード
 一般に、なんとなく認識(誤認)されている次の命題は、証明されていない。『古典コンピューターで実行される如何なる古典アルゴリズムよりも高速な、(量子コンピューターで実行可能な)量子アルゴリズムが常に存在する。』
 デイビッド・ドイチュは、量子版チューリング・マシンの定式化直後に、「量子版チューリング・マシンは、チューリング・マシンと比べて大して速くない」ことを、"証明(!)"したことになっている。このことからもわかるように、誕生した直後から、量子コンピューターにおいて高速計算は、必ずしも勝ち筋ではない。
 しかし、米ベル研(その後MITに移動)の数学者ピーター・ショアが示したように、古典アルゴリズムとは、"数桁違い"に速い量子アルゴリズムも、確かに存在する(発見は1994年、論文発表は1997年)。ただし、ショアのアルゴリズムは『証明可能な量子加速』を満たさない。ショアは(BB84の二人、ドイチュと共に)、2022年の基礎物理学部門ブレークスルー賞を受賞した。
 このような複雑な状況から、量子インスパイアードが生まれている。量子インスパイアードは、組み合わせ最適化問題で顕著である。同問題は、金融分野を含めて現実社会には数多く存在し、喫緊の課題である一方、量子コンピューターにとって得意な問題ではないからであろう。
 なお、米国の航空宇宙局(NASA)は、量子インスパイアード技術によって、宇宙探査機の通信網(DSN)の利用スケジュール作成を迅速化することができた。米マイクロソフト社の量子コンピューティングのクラウドサービス、Azure Quantumチームが開発した「量子インスパイアード最適化アルゴリズム」を活用して、2時間以上の作成時間を約2分に短縮したという[*41]。

(2) 準備2:疑似量子コンピューター
 疑似量子コンピューターは、量子ビットも使わないし、量子現象を演算処理に用いない。組み合わせ最適化問題専用機であるイジングマシンの演算処理に、疑似的な量子効果を取り入れたコンピューターが、疑似量子コンピューターである。
1⃣ 古典イジングマシン:疑似量子コンピューターではない 
 古典イジングマシンは、a)シミュレーテッドアニーリング法(SA)という古典アルゴリズムを、b)半導体デジタル回路で実装して、c)イジングモデルに帰着させた組み合わせ最適化問題を解く、コンピューターである。富士通の「デジタルアニーラ」は、古典イジングマシンであり、疑似量子コンピューターとは呼べない。
❶ デジタルアニーラ
㊀ 昭和電工(現レゾナック)は、半導体材料の最適な配合探索にかかる時間を、数十年以上から数十秒に高速化可能であることを実証した、と発表(2022年2月10日)[*37]。
㊁ 早稲田大学と慶応大学は、「固体表面への分子吸着の予測に成功した」と発表した(2023年4月5日)[*105]。
㊂ 早稲田大学は、(生産ラインなどで稼働している)ロボットアームの運動生成に要する時間を、1/4にできたと発表(23年10月17日)[*135]。440秒が100秒になった。しかし、仮に2次加速だと20秒ほどに短縮される(ので、高速化という意味ではショッパイ)。
㊃ ニトリは、全国80か所の配送センターの配車システムに、(デジタルアニーラを含む量子インスパイアード技術を活用した)配送最適化技術を導入したと発表(24年1月23日)[*144]。
❷ シミュレーテッド分岐マシン
 後述する(東芝が開発した)シミュレーテッド分岐マシン(SBM)も古典イジングマシンであるが、SBMは、疑似量子コンピュータである量子イジングマシンよりも高速である。なお、光コンピュータ(注:光量子コンピュータではない)を開発する米国のスタートアップLightelligenceは、同社のフォトニクスアクセラレータを用いると、SBMよりも25倍速くイジングモデルを解けると表明している[*35]。
 なお、東芝デジタルソリューションズは、AWS Marketplaceにて、SQBM+のAmazon Web Services版の提供を開始したことを発表した(23年2月10日)[*101]。SQBM+は、SBMを核とした量子インスパイアード最適化ソリューション。

2⃣ シミュレーテッドアニーリング法(SA)
 組み合わせ最適化問題を解くアルゴリズムとして、従来から「シミュレーテッド・アニーリング法」が知られていた。シミュレーテッド・アニーリング法(SA)は、アニーリング[*12]にヒントを得て開発された、近似解法(コンピューター・アルゴリズム)である。
 SAは、コンピューター上に、仮想的な熱ゆらぎを導入し、様々な状態間を遷移させる。ゆっくり冷やしていくことで、ほとんど全ての状態間を遷移することができ、各時刻で平衡状態に達する。温度がゼロにすることで、基底状態に近い状態(=コスト関数が最小の状態)が、高い確率で実現する。
 SAは、ほとんどの組み合わせ最適化問題に対して、大域最適解に漸近的に収束することが証明された、唯一の近似解法である(断熱量子計算を除く)。

3⃣ CMOSアニーリング:疑似量子コンピューター
 量子アニーリング法をマルコフ連鎖モンテカルロ法(MCMC)を用いて、古典的にシミュレートするSimulated Quantum Annealing(SQA)という手法がある。SQA は古くから知られていたものの、2016年にグーグルが量子効果を実証して有名になった。イジングモデルのレプリカを複数個作り、複数の計算を同時に行う。その計算は、最終的には一つに収束していくように実行される。そうすることで、量子効果の重ね合わせ原理を疑似的に再現する。
 SQAはソフトウェアで量子アニーリング法を近似的に実行しているが、日立の「CMOSアニーリング[*13]」は、ハードウェアで近似している。疑似的な量子効果を取り入れているので、疑似量子コンピューターと呼んで良いだろう。
 日立は、裁定取引に最適な株式ポートフォリオの構築を、CMOSアニーリングで可能にする技術を開発していたらしい[*126]。

4⃣ コヒーレントイジングマシン(CIM) :疑似量子コンピューター
 NTTのコヒーレントイジングマシン(CIM)[*14]、あるいは光イジングマシンは、少し毛色が異なる。イジングマシンであり、ナチュラル・コンピューターであるが、(熱も量子も)アニーリング法は使っていない。CIMは光発振器で、イジングモデルを物理実装している。光発振器(縮退光パラメトリック発振器)が発するパルスでスピンを模している。イジングモデルのスピン間相互作用を表現するように、光発振器をネットワーク連結すると、光発振器がイジングモデルの解に対応した発振基底を自発的に選んでくれる。ネットワークでつながれた光発振器間に、量子もつれに相当する状態をつくっているため、疑似量子コンピューターと呼んで良いだろう。

【参考・・・CIMの実行例】 読む↓|↑隠す 

5⃣ 離散的シミュレーテッド分岐マシン[*15]:疑似量子コンピューター
 シミュレーテッド分岐アルゴリズムをデジタル回路に実装した東芝のシミュレーテッド分岐マシンも、古典イジングマシンである。故に、疑似量子コンピューターとは呼べない。
 シミュレーテッド分岐マシンは量子分岐マシンの古典版、古典分岐マシンである。量子分岐マシンは、(断熱量子計算に基づく)イジングマシンとして提案された。量子分岐マシンの基本素子であるKPO(カー非線形性を有するパラメトリック発振器)は、真空状態から発振状態へと断熱的に変化させることで、量子力学的な重ね合わせ状態を模すことができる。数値シミュレーションの結果、理由は不明ながら、古典分岐マシンでもイジング問題が解けることがわかっていたが、実用化の着想には至らなかった。その後、CIMが大規模なイジングモデルを高速で解いたというニュースに触発され、高い並列性に由来する高速な組み合わせ最適化アルゴリズムを開発した。それが、シミュレーテッド分岐アルゴリズムである。
 一方、離散的シミュレーテッド分岐アルゴリズムを実装したマシン(シミュレーテッド分岐マシン)は、疑似的量子トンネル効果によってSAを(約2万倍)高速化している[*16]から、疑似量子コンピューターと呼んで良いだろう。

(3) 戦略設計
 量子コンピューターを使って組み合わせ最適化問題を解くというルートは、未来が約束されていない[*95],[*102]。このため、戦略目標は、量子インスパイアード・古典アルゴリズムの開発であろう。米フォードは、量子インスパイアード・古典アルゴリズムの活用に舵を切った"古典的な"好例と言われている[*17]。
 最近の好例として、東芝とダルマ・キャピタル株式会社による、高速高頻度取引の有効性の検証をあげることができる(2021年5月プレスリリース[*18])。シミュレーテッド分岐マシンを使用するとしている。なお、24年4月22日には、5G基地局におけるリソース制御に適用し、5Gに要求される低遅延を達成したと発表した[*150]。
 株式市場においては、種々の理由により株価が適正価格から大幅に乖離(ミスプライシング)して、一般の投資家が不利益を被る場合がある。高速高頻度取引(HFT)は、そのような局面において、速やかにミスプライシング状態を解消し、市場の効率性と流動性の向上に貢献していると見做されている。しかし従来のHFTでは、演算能力の制限により、高度な数理モデルに基づくミスプライシングの広域探索は実施されていなかった。ここに、疑似量子コンピューターの演算能力を投入しようというのが、検証の動機である。東芝によれば、投資戦略が稼働する金融取引システム環境の中に、疑似量子計算機を搭載した装置を実際に設置し、投資戦略の有効性を検証するという取り組みは、世界初である。今後東京証券取引所の上場株式のみならず、証券、コモディティ、デリバティブ等、多様な金融商品に適用する計画のようである。[*19]、[補記1]

(4) その他
1⃣ 広島大学
① 中野浩嗣教授とNTTデータによって、「アダプティブ・バルク・サーチ(ABS)法」と呼ばれる古典アルゴリズムが開発されている[*20]。同法は、CPUとGPUをバランスよく使い、遺伝的アルゴリズムを利用している。
② 中野教授とNTTデータは、順列生成イジングモデルのサイズと要求分解能を大幅に削減する設計手法を開発した(23年10月12日)[*133]。順列型組合せ最適化問題(例:巡回セールスマン問題)を量子アニーラーで解くには、順列生成イジングモデルを構成要素として含むイジングモデルに変換する必要がある。
③ ABS法に、探索アルゴリズムの動的自動選択機能が追加された「ABS2 QUBO ソルバー」GPUエンジンの、㈠実行バイナリと、㈡実行バイナリにアクセスするためのC++言語API、を無償かつ無保証で提供すると発表した(24年1月25日)[*143]。ただし、非商用かつ評価研究目的に限る。
2⃣ 東北大学 
① 確率的なSA(シミュレ―テッド・アニーリング法、SA)によって、従来の決定論的SAよりも速く、QA(量子アニーリング法)では対応できない、大規模な組み合わせ最適化問題を解くことに成功した[*40]。
④ 東工大と共同で、「連続変数関数の最適化においても、"ノイズの影響がなければ"、量子アニーリングは古典アルゴリズムをしのぐ優れた性能を持つことが示唆された」との研究成果を発表した(23年10月4日)[*134]。

【補記1・・・高頻度・統計的裁定取引のための量子アルゴリズム】 読む↓|↑隠す 
【補記2・・・アマゾン+BMW→製造業の最適化問題にQUBOは、役不足】 読む↓|↑隠す 
【参考・・・量子アニーラの戦略設計】 読む↓|↑隠す 

↑目次に戻る

 

【5】 金融分野における量子コンピューター活用の戦略設計
🗡量子×金融は、こちらも参照🗡
 註釈:以下は金融≒銀行として、議論展開している。
 資産ポートフォリオの最適化等の組み合わせ最適化問題は、量子コンピューターではなく、量子インスパイアード・古典アルゴリズムの守備範囲であろう。それとは異なり、金融でも、量子コンピューターが有望な分野がある。「多重積分」の計算である。
 仕組債(地銀等が金融庁から顧客軽視を問題視されことで有名になってしまった)なども含むデリバティブのプライシングや、市場リスク・信用リスク管理の計量化において、高次(数百~数千)の多重積分が要求されるケースがある。
(1) 量子積分アルゴリズム
 【3】で述べたように、量子多体系のハミルトニアンは、自由度の数に対して指数関数的に大きな次元を持つ。このことを反映して、入力が1次元であってもN量子ビットからなる量子コンピューターであれば、出力には、N次元表現が自然に含まれる。このような指数的に大きな次元を活用することで、量子機械学習は、学習能力を飛躍的に向上できる可能性を持つのであった。
 この「指数的に大きな次元」を多重積分の長方形近似計算に、利用するというのが量子積分アルゴリズムである。これは(下記に示す)量子モンテカルロ法とは異なる。

(2) 量子モンテカルロ法
 (古典的)モンテカルロ法(正確に言うと、重み付き(古典的)モンテカルロ法)は、長方形近似を計算しない。サンプル数Nが大きいとき、サンプル平均が「期待値」の良い近似になることを利用する。生成した乱数に従ってサンプリングして、ランダムに間引き計算を行うことで高速化を目指すのが、(古典的)モンテカルロ法である。
 ① 量子力学の文脈で現れる量子モンテカルロ法とは異なる量子モンテカルロ法
 ここで議論する量子モンテカルロ法は、量子力学の文脈で現れる量子モンテカルロ法とは異なる。(多重)積分を実行せずに、近似値を得る計算手法であることは共通しているが、量子デバイスで実行することを前提に開発された量子アルゴリズムである。つまり、古典機械学習アルゴリズムを、量子論的に翻訳したアルゴリズムではない。具体的には「(多重)積分の近似値は、複素確率振幅の推定に書き直せる」ことを利用する。これが、(量子)振幅推定法のアイデアである。
 量子コンピューターの計算結果は、確率的に状態が重ね合った状態であり、求めたい状態は、求めたい状態に応じて定まっている確率でしか得られない。その確率を増幅する手法が振幅増大法であり、改良アルゴリズムが振幅推定法である。2020年7月にJPモルガン・IBM・スイス連邦工科大学チューリヒ校(ETHZ)がarXivに投稿した、量子コンピューターを使ってオプション・プライシングを実行したという論文[*22]も振幅推定法を使って、高速化を実施している。
 量子振幅推定法は2000年に発明されたが、2015年にモンテカルロ法を2乗加速(2次関数的加速)できることが示された。このアルゴリズムは、FTQCでなければ実行できないが、2019年に開発された最尤量子振幅推定法はNISQで実行可能である[*33]。
 なお、量子力学の文脈で現れる量子モンテカルロ法は、基底状態を得る方法を、確率分布からのサンプリングを利用した計算に変換して、効率的に行うという手法である。

 ② 量子サンプル状態符号化と量子振幅推定法
 量子振幅推定法について、その背景をもう少し詳しく説明する。量子論のスケールでは、測定結果は、どんなに頑張っても、確率的にしか得られない。これを、次のようにポジティブ変換する:「量子ビットの測定」は、「(離散的な)確率分布からサンプリングすること」と数学的に等価である。数学的に等価であれば、情報理論の文脈でも、この等価性は成立する。うまく、この等価性を利用すると、測定結果が得られる確率(の平方根)を陽に表した形で、情報符号化が可能になる。この種類の情報符号化は、量子サンプル状態符号化と呼ばれる。
 ここで矩形近似(積分値=サンプル値×分割幅)を復活させて利用する。まずトンチ1として、矩形近似でよく現れる分割の幅Δxを、確率と見做す。一般的には、積分区間を等分割する。その場合は、一様分布からサンプリングしているが、当然、一様分布以外の確率分布(確率密度関数)からのサンプリングも可能である。その場合は、分割の幅は、採用した確率分布に応じた幅(サンプル確率)になる。こうして、積分値とサンプル確率が結びついた。
 量子サンプル状態符号化では、測定して量子ビットの値が得られる確率が陽に現れる。そして、これは古典的な確率分布から得られる、サンプリング確率と等価であった。トンチ2として、サンプル確率から積分値を求めるのと同様に、量子ビットの値が得られる確率から積分値(近似値)を求める。もちろん前者は古典的であるが、後者は量子論的な手続きであるため、相当複雑である。
 先に示した最尤量子振幅推定法は、FTQCでなくNISQで実行可能にするため、位相推定法を使わずに2次加速を達成した「Abrams等の量子振幅推定法」を改良したアルゴリズムである。Abrams等の量子振幅推定法は、ベルヌーイ試行による誤差範囲の調整を繰り返すことで、振幅の推定値(=積分の推定値)を求める手法である。最尤量子振幅推定法は、ベルヌーイ試行の結果から尤度関数を作り、最尤法を用いて積分の推定値を求める。Abrams等の量子振幅推定法及び、最尤量子振幅推定法は、パラメータの最適化に古典コンピュータを使う、量子古典ハイブリッドアルゴリズムと考えられる。

 ③ 量子モンテカルロ法の加速性
 量子コンピューター(量子デバイス)を使った量子モンテカルロ法は、古典的なモンテカルロ法よりも速い(効率的に計算することが可能である)。正確に言えば、被積分関数の評価回数(サンプル数N)が少ない。古典モンテカルロ法がNの2乗であれば、量子モンテカルロ法はNである。つまり2次加速である。2次加速は、量子アルゴリズムで多く観測される。例えば、量子ランダムウォークもそうである。これは、量子力学の確率の構造に起因していると考えられている。
 (ここで議論した)量子モンテカルロ法は、量子デバイスの使用を前提とした量子アルゴリズムであり、有望と考えられる。

(3) 戦略設計
(3-1)多重積分についての考察
 金融分野(銀行)で多重積分が活用される2大分野は、「デリバティブのプライシング」と「リスク管理」である。それぞれについて考察してみたい。
 日本の金融機関は、米系投資銀行に大きく遅れている。デリバティブ・プライシングのスピードで遅れを取ったからと言って、国際競争力に影響を及ぼすとは思えない。市場の歪みを、米系投資銀行より素早く見つけたとしても同様である。例えば、耳目を集めたアルケゴス・キャピタル・マネジメントとの取引で、ゴールドマン・サックスの損失は軽微であった一方、クレディ・スイスは大きな損失を出した(→結末は、23年6月UBSによる買収が完了)。この差は、顧客ネットワークの質や信用力の違いであると言われている。クレディ・スイスでもそうなのだから、野村証券は言うまでもなく、大きな損失を計上した。つまり、鉾だけ強化してもダメで、盾も強化しなければダメだということである。その認識が足りない以上、日本の金融機関による投資銀行業務に、大きな飛躍は期待できないだろう。
 市場や経済環境を常時注視し、機を見るに敏で、高収益をあげる。斯様なビジネスモデルであれば、量子コンピュータを使ったリスク管理シミュレーションを素早く実施することは重要であろう。しかし、そもそも銀行は、そういったビジネスモデルを追求すべきであろうか。紆余曲折・リーマンショックを経て、米系の投資銀行でさえ、そのような過去のビジネスモデルを追及できなくなっている。脱炭素時代の銀行は、脱炭素を支える技術の事業化・商業化や、再生エネルギー関連事業の拡大を融資で支えることを本業にすべきである。それは、日本産業の国際競争力を向上させることにもつながる。
 その一方で、国内金融サービスのブラッシュアップという意味であれば、多重積分を量子コンピューターで高速化する価値はあるだろう。

(3-2)銀行業における量子コンピューティングのユースケースの考察
 なお先述したThe Quantum Decade来るべき量子コンピューティングの時代に向けて[*32]には、『銀行及び金融市場における量子コンピューティングのユースケースは、「ターゲティングと予測」、「リスク・プロファイリング」、「トレーディングの最適化」の 3 つのカテゴリーに大別できる。』と書かれている(最新版の第4版(英語版23年12月公開)でも、変わらず)。
 「ターゲティングと予測」では、①顧客毎にパーソナライズされた商品を提供すること、②クレジットカードの不正検知精度を上げるために、クレジット・スコアリングの精度を上げること、を具体例として挙げている。「リスク・プロファイリング」では、③各種リスク・シミュレーション(含シナリオ分析、ストレステスト)の高精度化及び高速化、を具体例として挙げている。「トレーディングの最適化」では、④デリバティブのプライシング、⑤ポートフォリオの最適化、を具体例として挙げている。
 ①及び⑤は最適化計算で、量子コンピューター(=ゲート方式の量子コンピューター)の主戦場とは限らないと、弊社は考えている。②~④は多重積分計算のカテゴリーである。②は、国内金融サービスのブラッシュアップにつながる(ため量子コンピューターで高速化する価値はあるだろう)。一方、先述の通り、監督当局の国際的な見地での意向を鑑みても今後、銀行は、エキゾチックな金融商品を扱ったり、過度にレバレッジを効かすといった経営が難しくなるだろう。このため③及び④は、日本の金融機関(銀行)における大きなイシューとはならない、と弊社は考えている。

(3-3)銀行業における(量子コンピューターを使った)機械学習・深層学習・強化学習の考察
 ここでは、国際競争力の考察から離れて、機械学習・深層学習が銀行において付加価値をもたらす場面を考える。そのような場面として、①アンチマネーロンダリング(AML)、②顧客体験の向上による優良顧客離反の防止、③カードローンにおける適切な与信枠の適時設定、④ローン顧客のリードジェネレーション、⑤資産運用の高度化、などが考えられる(資産運用においては、強化学習の有効性が指摘されている)。これらの分野では、少しの精度改善が大きな利益に結び付く可能性がある。従って、QMLを追及する価値はあるだろう。
 もっとも、既出のZapataによるレポート[*96]によると、「金融業界(及び航空宇宙・自動車業界)は、シミュレーションとモデリングを量子コンピューティングの主要な使用例として挙げている」。この理由を、「金融業界では、従来の機械学習/分析/最適化アプリケーションの成熟度が、他業界に比べて高く、量子的な優位性を得るためのハードルが高いため」と分析している。
 マッキンゼーは、21年12月のレポート[*49]で、次のように予測している:NISQデバイスでは最適化(①トレーディング戦略最適化、②インデックス・トラッキング最適化(cf.【参考2】)、③担保資産活用(の最適化)が収益をもたらす。FTQCが実用化されれば、④信用リスクマネジメント、⑤市場リスクマネジメント及び、⑥サイバーリスク管理と⑦(資金洗浄等)金融犯罪の低減、が収益をもたらす。金額的インパクトはNISQ:①>②>③で、FTQC:④>⑤>⑥>⑦である。また、①≒⑤で、②≒⑥である。つまり④がインパクト最大である。
 マッキンゼーは別レポート[*70]で、『この先の日本における経済繁栄の恩恵を享受する絶好の位置にあるのは、人材戦略やデジタル変革、リスク管理といった分野を重視する銀行である』と述べている。証券子会社が相場操縦事件を起こす銀行が、量子コンピュータを導入しても、意味はないだろう。
 なお同レポートでは、6つの攻めテーマを特出ししている。サステナビリティ(実現に対する貢献)とデジタル(革新への対応)が最重要と思われる。守り(リスク防御体制の改善)では、8項目をあげている。サイバーセキュリティや責任あるAIプロセスの構築といったベタ項目は当然として、「サードパーティのモニタリング強化」や「非金融リスクへの備え」、といった指摘は傾聴に値する。

【参考1・・・QCBM対コピュラ】 読む↓|↑隠す 
【参考2・・・基数制約を課したポートフォリオ最適化問題を量子アニーラで】 読む↓|↑隠す 
【参考3・・・データの読み込みに必要なリソース(ゴールドマン・サックス)】 読む↓|↑隠す 

↑目次に戻る

 

【Appendix 1】 若干の準備
(1) 量子コンピューターの計算過程 
 量子コンピューターにおける「量子計算」の過程は、①入力、②計算、③測定の3プロセスで構成される。①の入力に関して述べると、量子コンピューターは、情報表現に量子力学的状態を用いる。いわゆる量子もつれ(エンタングルメント)と呼ばれる状態を用いる。量子コンピューターにおける情報の単位は、量子ビット(qビット)と呼ばれる。
 ②の計算に関して述べると、量子コンピューターは、量子ゲートと呼ばれる論理演算素子を用いる。詳細は、後述する。
 ③の測定は、量子コンピューターに特有の性質である。計算結果は、確率的に状態が重ね合った状態である。その状態から、個々の状態を得る必要がある。個々の状態が求めたい結果≒解である。しかし解は、解に応じて定まっている確率でしか得られない。そのため解を、誤差ε以下で求めるには、数多くの測定が必要となる。実際には、振幅推定法(AE、振幅増幅法(振幅増大法とも呼ばれる)AAの発展的手法)を用いて、その測定数を大幅に減らすことが可能である。

(2) 量子ゲート方式量子コンピューターと量子アニーラ
 ❶ 量子ゲート方式量子コンピューター
 量子ゲート方式量子コンピューターでは、量子ゲートを論理演算素子に用いる。量子ゲートは、入力量子状態をユニタリ演算子によって変換し、その変換した状態を出力する論理演算素子である。量子ゲートが、ユニタリ演算子でなければならない理由は、確率を保存したいからである。また、ゲートという言葉は、古典コンピューターで論理演算を実行するゲート回路に由来する。
 ❷ 量子アニーラ
 量子アニーリング法というアルゴリズムをハードウェア実装(物理実装)して、近似解を求めるコンピューターが、量子アニーラである。量子イジングマシンとも呼ばれる。一般的には、量子アニーリング法というアルゴリズムをソフトウェア実装したコンピューターが、疑似量子コンピューターと呼ばれる。量子アニーラは、2次制約なし2値最適化問題(Quadratic Unconstrained Binary Optimization problem: QUBO)しか扱うことができない。つまり、解決したい問題をQUBO形式に(人力で)変換する必要がある。もっとも、この変換作業を自動的に実行することも可能である。
 イジングマシンとは、イジングモデル(下記④を参照)に帰着させた組み合わせ最適化問題を解く専用機という意味である。量子アニーリング法は、イジングモデルと深い関係がある(下記③を参照)。
 量子アニーリング法は、量子スピン変数で記述される目的関数を最小化するアルゴリズムである。量子スピン変数に対応する量子ビットを、超伝導量子干渉計として物理実装し物理操作によって近似解を求める量子アニーラが、D-Waveマシンである。
 ❸ 量子アニーリング法
 量子アニーリング法は、スピングラスの研究者であった東工大の西森教授と、大学院生の門脇正史氏が、1998年に考案した。スピングラスの基底状態を「横磁場モデル」で近似的に探索するアルゴリズムが、量子アニーリング法である。横磁場モデルとは、イジングモデルに、外部(の横)磁場を導入したモデルである。量子相転移を記述することができる横磁場モデルは、量子モデルである。
 ❹ イジングモデル
 イジングモデルは、常磁性・強磁性相転移を記述する古典統計力学モデルである。広く知られているように、厳密解が得られる可解格子モデルである[*23]。

【量子アニーラを使った実例】
 ❶グルーヴノーツは量子アニーラを使うことで、トラックの走行台数を変えることなく1日当たりの土砂運搬量を約10%増加できることをことを実証した(発表:2021年1月17日)[*36]。清水建設との共同プログラム。
 ②NTTと三菱重工業は光イジングマシンを使って、人員計画の作成に要する工数を大幅に削減できる[可能性を確認した」(!)と発表した(発表:2022年4月25日)[*42]。
 ③KDDIエボルバとKDDI、日立製作所の3社は、シミュレーテッド量子アニーリング法(SQA)を使ってコンタクトセンター・スタッフの勤務シフトを自動作成し、シフト作成時間を5割超短縮できることを確認した(発表:2022年8月26日)[*51]。2023年以降の実用化を目指すとしている。
 ④積水化学工業と日立製作所は、材料開発において協業(協創)を開始すると発表した(22年9月20日)[*58]。ただし協業内容は、日立の疑似量子コンピュータ「CMOSアニーリング」を使った最適条件探索のみならず、材料開発統合ナレッジベースの開発や材料実験のDXを含む。
 ⑤株式会社トヨタシステムズと富士通株式会社は、トヨタ自動車株式会社に対し、富士通の量子インスパイアード技術「デジタルアニーラ」を、自動車生産業務へ適用することを発表した(22年10月21日)[*81]。
 ⑥損害保険ジャパン株式会社は、同社の損害保険業務において、日立製作所によるCMOSアニーリングの実務利用を開始することに合意した(22年3月29日)[*82]。自然災害リスクのポートフォリオに対して、多目的最適化を実行する。具体的には、再保険条件及び実務上考慮が必要なその他条件下で、保有すべきリスクと外部移転すべきリスクを分配し、リスク・リターンを最適化する。
 ⑦富士通は、スペインの金融機関であるKutxabank(クチャバンク)が推進する投資ポートフォリオの最適化検証プロジェクトにおいて、同社のデジタルアニーラを活用して開発された「問題の定式化に必要な変数の数を減らすアルゴリズム」の有効性が確認されたと発表した(22年12月22日)[*88]。従来のアルゴリズムより、適した投資配分の算出が可能なことを実証したと主張。
 ⑧住友商事はフィックスターズとパートナー契約を締結し、物流倉庫での実運用を開始したと発表した(22年10月)[*92]。住商グループのベルメゾンロジスコは、物流梱包業務の担当者割当作業を数時間から15分程度に短縮した[*93]。また、野村総合研究所は21年8月に、フィックスターズとパートナー契約を締結[*94]。データセンターの消費電力を最大10%削減することに成功したという[*93(再)]。
 ❾清水建設は、グルーヴノーツ、GEOTRA(三井物産とKDDIのJV)と共同で、「交通・防災・観光の最適化を図るためのデータ分析プラットフォームの開発に着手した」と発表した(23年2月)[*97]。"最適化"部分に、量子アニーラを利用する。アプリケーションとして面白い。
 ⑩米マスターカードは、インセンティブ・マーケティングを実施する顧客の抽出に、D-Waveの量子アニーラを使用しているという[*103]。
 ⓫グルーヴノーツは、量子アニーラを使って、惣菜製造ラインにおいて、ロボットと人が協働できるシフトを作成したと発表した(23年3月)[*108]。
 ⑫米国の広告(及びマーケティングサービス)会社インターパブリック(・グループ・オブ・カンパニーズ、IPG)は、「マーケティング キャンペーンの最適化に取り組むために設計された量子ハイブリッドアプリケーションの研究開発」でD-Waveと協力すると発表した(23年6月)[*111]。
 ⓭三菱UFJ銀行は、グルーヴノーツと資本・業務提携を締結したと発表した(23年7月13日)[*123]。信用及び市場リスク管理の高度化、評判リスクやオペレーショナル・リスク分析の精緻化、(店舗運営、ATM運用、コールセンター運営における)業務効率化など、に取り組む方針。
 ⑭伊のフィンテック・スタートアップSatispayは、D-Waveと共同で、顧客獲得のための顧客報酬プログラムを最適化するアプリケーションを開発したと発表した(23年10月13日)。Satispayは、個人間のモバイル決済ネットワークを提供している。
 ⑮NTTは東京電機大学と協力して、第6世代(6G)の無線リソースのリアルタイム最適化を実現した、と発表した(23年10月25日)[*140]。6Gに対応するため、今回、「伝搬QUBOモデル(22年12月発表済)」に、Fraunhofer近似を落とし込むことに成功した。また、実機(疎結合5,640量子ビット)で動作させることに成功。
 ⑯シャープは、東北大学と協力して、自動搬送ロボットの多台数同時制御に関する共同研究を開始した、と発表した(23年12月19日)[*142]。千台規模の自動搬送ロボットの最適経路を瞬時に計算できることを目指す。
 ⑰ロームは、Quanmaticと協働して、半導体製造工程(EDS工程)の生産効率を改善した、と発表した(23年12月5日)[*145]→24年4月に本格導入する予定。制約付き組み合わせ最適化問題を高精度に解く手法[*146]を適用していると思われる。
† 実ビジネスにおいて現れる、組み合わせ最適化問題に対する高精度解法を開発・提供する、スタートアップ。早稲田大学の研究成果をベースとしている。当面は、量子アニーラ向けのアルゴリズムを開発する。

(3) NISQとFTQC
 現在使用可能な、量子ゲート方式量子コンピューターは「NISQ(Noisy Intermediate-Scale Quantum)」と呼ばれている。将来主流になると見込まれる同方式量子コンピューターは、「誤り耐性量子コンピューター(FTQC)」と呼ばれている。NISQは、量子誤り訂正機能を実装していない中規模(50~100量子ビット)の量子コンピューターを意味する造語(名付け親は、量子コンピュータ研究の権威であるカリフォルニア工科大学のジョン・プレスキル)である。
 NISQは、古典コンピューターと量子コンピューターを組み合わせて使用されるが、その構図は、FTQCでも同じである。

↑目次に戻る

 

【Appendix 2】 量子誤り訂正と量子誤り抑制
(1) 古典的な誤り訂正と誤り耐性コンピューター
 古典コンピューターも計算エラーが発生するので、誤り訂正は必要である。古典コンピューターで誤り訂正符号を発明したのは、ベル研にいたリチャード・ハミングである。
 (通信ではなく、計算の文脈で用いる)誤り訂正とは、①冗長な符号を入力情報に加え、②出力結果を検査することで、③誤りを識別して、さらに④誤りを訂正する枠組みである。
 ①の冗長な符号が、誤り訂正符号である。冗長な符号を入力情報に加える(正確には、入力に生成行列(量子的な言い方をすれば、生成演算子)を掛けて、符号を生成する)ことが、符号化である。誤りを識別するために、出力に検査行列(検査演算子)を掛ける。
 古典的な演算素子が、一定の確率で誤動作しても、誤りを訂正して計算を行うことが可能な、誤り耐性のある古典コンピューターの理論は、フォンノイマンが確立した(1954年)。

(2) 量子誤り訂正符号とFTQC
 量子コンピューターは様々な理由で、古典コンピューター以上に計算エラーが発生する。そして、連続的に表現される=無限の自由度を持つ量子情報とノイズを識別することは、離散的に表現される古典的情報とノイズを識別することより、難しいことは容易に想像できる。量子情報とノイズの識別は、かつては不可能では?と考えられていた。その識別が可能なことを示したのは、ショアのアルゴリズムで知られる数学者ピーター・ショアである(1995年)。
 量子誤り訂正も、冗長な符号を入力情報に加えることで、ノイズから情報(量子ビット)を守る仕組みである。多体量子系が有する大きな空間の"性質の良い"部分空間に、情報を符号化して埋め込むことで、量子情報とノイズの識別することができる。それをショアが証明した。
 冗長な符号を加えて作られる複数の量子ビットを、"性質の良い"部分空間で、もつれさせ、「必ず同じように振る舞う」ようにする。誤りが発生すると、その量子ビット同士のもつれが崩れ、同じような振る舞いをしなくなる。それを検出することで誤りを識別し、さらにその誤りを訂正する。その一連のプロセスが、量子誤り訂正である。
 FTQCは、量子誤り訂正が可能な量子回路を設計することで、所望の精度を備えた解を得る量子コンピューターである。

(3) しきい値定理と0.0001%
 フォンノイマンが確立した、誤り耐性のある古典コンピューターと同様な理論が、量子コンピューターでも確立している。それが、しきい値定理である。
 しきい値定理によれば、『量子コンピューターの部品となるあらゆるデバイス、演算、測定等において、ノイズが含まれていても、それが誤りしきい値よりも小さければ、実用的な時間で任意の精度で量子計算を実行できる。』ことが証明されている。
 ところが、そのしきい値が0.0001%という値であったことから、FTQCは現実的ではないと考えられていた。

(4) トポロジカル量子誤り訂正符号・露払い 
 しきい値を0.0001%から1%に上げたのが、トポロジカル量子誤り訂正符号である。なぜ、それが可能になったかというと、ノイズに強いからである。
 ショアが証明したように、量子多体系が有する大きな空間の"性質の良い"部分空間に、情報を符号化して埋め込むことで、量子情報とノイズの識別することができた。トポロジカル符号では、縮退した基底状態が張るヒルベルト空間を、この部分空間としている。そして冗長性を加えた量子情報が、縮退した基底状態に符号化される。この縮退した基底状態が、ノイズに強いことが望ましい。もちろん、ノイズ検出が容易であることも望ましい。

(5) 巻き付き数というトポロジカル不変量
 唐突であるが、ある準位まで占有された波動関数を考える。言うまでもなく、波数空間とヒルベルト空間との間には写像関係を考えることができる。この関係を、占有された波動関数に対しても考える。占有された波動関数の場合、占有された波数空間(正確にはブリュアンゾーンであるが、ここでの理解のためには波数空間をイメージしても良い)とヒルベルト空間との間に写像関係を考えることができる。
 占有された波動関数の種類によっては、ヒルベルト空間内に写像された波数空間がヒルベルト空間に「巻き付いている」と考えられる場合がある。再び天下り的であるが、その巻き付いている数が、トポロジカル不変量となる。トポロジカル不変量は摂動に強い、つまりノイズに強い。こんな、木で鼻を括った(?)ような説明では、トポロジカル符号がノイズに強い理由が、わからない。こういう意見もあるだろう。そこで直感的な説明も、後述する。
 ここでは諸々、天下り的に飲み込む。その上で、ある準位まで占有された波動関数を「縮退した基底状態」と結び付ければ辻褄は合うので、話を進める。

(6) トポロジカル符号、トポロジカル不変量、トポロジカル秩序相。そしてトポロジカル量子ビット。
 そもそもトポロジカル符号は、トポロジカル秩序相の縮退した基底状態を符号化に用いているため、トポロジカルという名で呼ばれる。
 トポロジカル秩序相は、従来のパラダイムから逸脱した物質相(量子相)で、オーダーパラメーターで記述できる秩序が存在ない。トポロジカル秩序相は、オーダーパラメーターではなく、トポロジカル不変量と呼ばれる物理量によって相区分される物質相である。トポロジカル秩序相では、「縮退した基底状態が、物理系のトポロジーにより決定される。」という性質がある。  ここで、代表的なトポロジカル秩序相である、分数量子ホール系を取り上げよう。さらに、2次元で周期的境界条件を課して、トーラスで考える。このとき分数量子ホール系の基底状態は、ランダウ準位の占有率で決定される縮退度で縮退する。
 このようにして、トポロジカル秩序相を利用すれば、トポロジカル不変量を背景とするノイズに強い縮退した基底状態で張られる部分ヒルベルト空間で、量子情報を保護することができる。
 余談ながら、そんなにノイズに強いのなら、誤り訂正符号のみならず量子ビットにも使えば良いのでは?と考えるのは、自然な発想である。そのような量子ビットは、トポロジカル量子ビットと呼ばれる。トポロジカル量子ビットを使った量子コンピューターが、トポロジカル量子コンピューターであり、マイクロソフトが実現を狙っている。トポロジカル量子ビットは、ノイズには強い一方で、コントロールは難しいと言われている。
[参 考] トポロジカル量子コンピュータの進捗[*131] 
 マイクロソフトは、フィジカルレビュー(の論文[*132])にて、作成したヘテロ構造デバイスが、"トポロジカル・ギャップ・プロトコル"に合格した、と発表した(23年6月)。プロトコルに合格=マヨラナ・ゼロモードをホストするトポロジカル位相が検出される可能性が高い、である。
 マヨラナ・ゼロモードを使った量子ビットで、約10-4の誤り率を持つ物理量子ビットを実現することを、まず目指す。この量子ビットと Floquet誤り訂正符号を組み合わせて、誤り率10-6の論理量子ビット実現を、次に目指す。物理クロック速度は、数十MHzが目標である。
 マイクロソフトの量子コンピュータは測定型であるが、クラスター状態(あるいはリソース状態とも呼ばれる)を初期状態として準備する必要がない。

(7) もう少し直感的な説明
 トポロジカル符号が、ノイズに強い理由を、もう少し直感的に説明すると、次のようになる。トポロジカル符号で用いられる縮退した基底状態は、幾何的に表現すれば、非自明なループである。非自明なループに誤りが発生するとしたら、それは「非局所的」な誤りなので、発生確率が低い。つまり、縮退した基底状態でエンコードした符号は、誤り率が低いと考えられる。

(8) 量子誤り抑制
 NISQは、量子古典ハイブリッドアルゴリズムが実行され、量子誤り抑制で正確な答えを得る。量子誤り抑制は、計算の繰り返し回数を増やし、統計的な処理を行ってノイズを低減する仕組みである。このため、量子ビットを増やす必要がなく、NISQでも実装が可能となる。
 面白いことに、量子誤り抑制は量子誤り訂正を補完する。
① NTTと大阪大学の藤井啓祐教授は、量子誤り訂正に量子誤り抑制を組み合わせることで、計算精度が向上することを世界で初めて示した[*24]。つまり、NISQで量子古典ハイブリッドアルゴリズムを実行し、量子誤り抑制を研究することは、FTQCの時代に有用な資産となる。
 さらに、NTTと大阪大学量子情報・量子生命研究センターは共同で、量子誤り訂正と量子誤り抑制を組み合わせ、NISQで信頼性のある計算を行うハイブリッド量子誤り削減法を提案した(2022年3月18日)。今回提案された手法により、必要な量子ビットの数を最大で 80%削減できることが示された[*38]。量子誤り訂正符号で符号化された論理量子ビットに対して、効率的に行える操作は限定されてしまうため、量子誤り訂正を適用した後に残る誤りを、量子誤り抑制で取り除けるかは自明ではない。probabilistic error cancellation(確率的エラーキャンセル:2017年に、IBMの研究者が発表した手法)を採用し、推定する古典コンピュータの情報処理を少し書き換えるだけで量子誤り抑制を実行できることを示した。
② IBMのチームによって、クリフォードゲートに誤り訂正、非クリフォードゲートに誤り抑制を用いることで、NISQでも、量子誤り耐性計算を実行可能な量子コンピューターと同等の計算ができることが示された。[*45]

(9) 格子手術における誤り訂正(復号処理)
 代表的な量子誤り訂正符号である「表面符号」で保護された論理量子ビットを用いて、量子計算を行う手法として、格子手術という枠組みが提案されている。これまで、格子手術を用いた論理量子ビット同士の演算の誤り訂正を行うことはできなかった。
 慶応大学・名古屋大学・理化学研究所は、格子手術に対応可能な復号アルゴリズムを提案した。このアルゴリズムによって、論理量子ビット間で量子演算を行っている最中に生じるエラーを、高速に訂正できると期待できる[*39]。

(10) 量子誤り訂正 part2
 量子誤り訂正について、箇所を改めて、新しい動きをまとめる。
①[修正あり] 米国のプリンストン大・イェール大・ウィスコンシン大学マディソン校の研究チームは、斬新な手法を発表した(22年8月9日、natureコミュニケーションズに論文[*53]掲載)[*54]。量子誤りを消失誤りに変換して、量子誤り訂正を行う。モダリティは中性原子方式(ちなみに、原子はイッテルビウム)である。詳しくは、こちらを参照。
② リアルタイムで訂正を行う量子誤り訂正には、量子ビットの状態測定が不可欠である。誤り訂正における測定(シンドローム測定、パリティ・チェック(検査)とも言う)は、ハードウェア効率的ではないため、効率的な測定方法(連続測定)が、沖縄科学技術大学院大学・アイルランドのダブリン大学トリニティカレッジ・豪クイーンズランド大学の共同研究チーム、によって提案された(論文公開は、22年9月14日)[*55]。ただし現状では、誤り推定にかかる時間が量子ビット数に対して、指数関数的に増えるというデメリットがある。つまりFTQCを実現するために必要と目されている量子ビット数を少なくできる代わりに、量子コンピュータの高速性が失われるという、トレードオフが発生する。
③ Artemisプロジェクト・・・量子誤り訂正に必要な物理的リソース低減を目的に、強化学習を使用したリアルタイム・ニューラルネットワークを組み込んだ量子コントローラを開発するプロジェクト。商品化がゴールである。仏のH/WスタートアップAlice&Bob、イスラエルのS/WスタートアップQuantum Machines及び、仏リヨン高等師範学校、独マックスプランク光科学研究所が参加。期間は22年4月から3年間。[*56]
④ ボソニック符号について・・・チャルマース工科大学(スウェーデン、米Atlantic Quantumのパートナー)の研究者は、ボソニック符号化に必要な共振器を制御する新しい方法を開発した(22年7月)[*61]。その成果として、猫状態、GKP状態、二項状態に加えて、3次位相(cubic phase)状態まで作成できた。開発された方法は、システムパラメータの変動に対して、ロバストだと言う。
連続量変数で測定型の万能量子計算を実行するには、ガウス型操作(ゲート)に加えて非ガウス型操作(ゲート)が必要である。非ガウス型操作は、任意の1種類で良いことがわかっている(cf.回路型量子計算のTゲート)。確率論的量子ゲートは(信頼性がないため)計算ゲートには使えないので、決定論的(つまり確率1の)量子ゲートが必要となる。その代表例が、3次位相ゲートであり、東大の古澤研究室などで研究されているが、大変煩雑な処理が必要である。チャルマース工科大の成果を取り入れることで、研究が加速できるだろうか?
⑤ 猫符号について・・・スイス連邦工科大学ローザンヌ校の研究者は、新しい猫符号を提案した(論文[*113]の公開は、23年6月7日)。従来の猫符号には、㊀光子駆動と光子損失により安定化させている「散逸猫符号」と、㊁光子駆動と非線形性により安定化させている「Kerr猫符号」がある。新しい猫符号「臨界猫符号」は、光子駆動、光子損失、Kerr非線形性が共存して、安定化させている。この臨界猫符号は、複数量子ビット動作の特徴であるランダムな周波数シフトに対して特に耐性がある、と主張している。(論文の著者は、1次相転移からcriticalという文言を採取しているので、criticalに臨界という訳語を用いた。)

(11) 量子誤り抑制 part2
 量子誤り抑制について、箇所を改めて、新しい動きや商用製品等をまとめる。
① 起源不明のノイズの影響を受けた量子状態であっても、効率的に量子誤り抑制できる方法(一般化量子部分空間展開法)を、東京大学・NTT・産総研・大阪大学が開発した[*57]。基底状態の量子シミュレーションで発生するエラーを効率的に抑制できる。NISQマシンを使った新素材開発等に貢献することが期待できる。
② カナダの量子ソフトウェア・スタートアップ1QBit、加ウォータールー大学、および加ペリメーター理論物理学研究所の研究者は、基底状態の(量子シミュレーションにおける)推定値を改善できる新しい誤り抑制法を開発した。nature machine intelligenceに論文投稿した(22年7月20日)[*58]。投稿誌からも分かるように、機械学習を活用する。具体的にはTransformerを使って量子状態トモグラフィを行い、基底状態を推定する(この推定した基底状態が、変分モンテカルロ法の入力。変分モンテカルロ法の計算結果が、最終的に求めたい基底状態となる)。
③ True-Q・・・カナダのスタートアップQuantum Benchmark(加ウォータールー大と米ローレンス・バークレー国立研究所の研究者が設立。21年5月、米キーサイトテクノロジーズが買収)が開発した、NISQ用量子誤り抑制用ソフトウェア。True-Qは、Randomized CompilingというQuantum Benchmarkが開発した技術がベースとなっている。2016年に最初に概念化されたRandomized Compiling(RC)は、計算対象の量子回路に対して、使用するゲートの種類を変えた等価な量子回路を複数用意し、統計的に量子誤りの効果を分散させて、演算の精度を高める技術である[*59]。RCは、誤り訂正する代わりに、誤りが量子ビットに影響を与える方向をランダム化することで誤りを"軽減"する。誤り訂正するためには補助量子ビットを(大幅に)追加しなければならず、問題をより複雑化する懸念があるからだ。
 富士通は、誤り抑制(軽減)技術として、このRCを担いでいる。
④ Mitiq・・・パイソンベースの(NISQ用)量子誤り抑制ソフトウェアパッケージ。誤り抑制法として、ゼロ・ノイズ外挿(ZNE)、確率的エラーキャンセル(PEC)、 クリフォード・データ回帰といった手法が実装されている。環境は、Qiskit(IBM)、Cirq(Google)、pyQuil(Rigetti)、PennyLane(Xanadu)をカバーしている。👉 Mitiqを開発したUnitary Fundは、米NSF(国立科学財団)から、およそUS$1.5milの助成金を授与された(期間:23年8月15日~25年7月31日予定)[*127]。助成金は、Mitiqプロジェクトを中心としたオープンソースエコシステムを強化するため使われる。
 ちなみに、東京大学は22年10月12日、クリフォード・データ回帰を適用することで、強レーザー場によって駆動される窒素分子イオンの電子波束の時間発展を定性的に再現することに成功した、と発表した[*71]。クリフォード・データ回帰は、「非クリフォード・ゲートの一部をクリフォード・ゲートで置換した量子回路を、量子コンピューターと古典コンピューターとでシミュレートし、両者を比較することによって、量子計算誤りの大きさを評価する」という誤り抑制法である。
⑤ IPA(情報処理推進機構)2020年度未踏ターゲット事業の採択プロジェクトの一つ「機械学習を用いたNISQアルゴリズム向けの誤り補償手法の開発」では、『注意機構付き機械学習モデル(以下、Att-ML)は、量子誤り抑制に有用か』が検証された。ざっくり言うと、②と同じようなことを行った。対象は、パラメータ付き量子回路であり、言うまでもなくTransformerは代表的なAtt-MLである。具体的には、以下の通り:i)Depolarizingエラー[*60]では、Att-MLは線形モデルと同程度の有用性がある。ii)Amplitude-Dampingエラーでは、線形モデルが低減できないエラーをAtt-MLでは抑制可能であるケースを発見。
 Depolarizingエラーは、Depolarizingチャネル(脱分極チャネルあるいは、分極解消チャネル)が、量子計算過程に作用することで発生するエラーである。具体的には、「確率pで"X、Y、Zエラーが等確率(つまり1/3)"で発生し、確率1-pでエラーが発生しない」というエラーである。Xエラー=ビット反転エラー、Zエラー=位相反転エラー、Yエラー=位相ビット反転エラー、である。宇野(2021)には、「実機上でのノイズがほぼDepolarizing noise でモデル化出来る」との記述がある。一方、長田・山崎・野口(2021)では「(脱分極エラーは)実際には非現実的で、その対称性による理論的な取り扱いやすさから導入されたものと思われる」とある。一般に、位相反転エラーは、ビット反転エラーより高頻度に起きるから、ややキツイ仮定と言える。しきい値の議論は、脱分極エラーを対象に行われているわけだが、やや心配になる。
 Amplitude-Dampingエラーは、量子系からエネルギーが損失することに起因する一般的なエラーである。長田・山崎・野口(2021)では、「現実に起こるエラーとして最も重要」と記述されている。ちなみに、量子コンピュータの文脈では、チャネルとは、量子系の状態変換を記述する写像である。
⑥ 東大は、量子誤り抑制に必要な量子コンピュータの実行回数が、量子演算の実行回数に対して指数関数的に増加することを示した(23年11月23日)[*141]。つまり、大規模な量子演算を実行する場合には、量子誤り抑制は実行不能。

(12) 量子誤り抑制 part3
 米IBMは、23年6月15日、自社公式ブログ[*117]及び、論文[*118](natureにて同日公開。以下、本論文)で以下のように主張した:物理シミュレーションでは、NISQマシンであっても量子誤り抑制(緩和とも言う)を用いることで、量子計算は、古典計算では得ることができない結果を得ることができる。IBMも述べているように、これは量子コンピュータの"高速性"をアピールしていない。あくまで精度(あるいは、計算の"質")が向上するというアピールである。
1⃣ 概要
 先の述べた内容を、正確に言い表すと、以下の通りである。
① 物理シミュレーションは、トロッター分解による2次元横磁場イジングモデルの時間発展シミュレーション(ハミルトニアン・シミュレーション)である。
② 量子計算は、上記ハミルトニアン・シミュレーションを、1量子ビットX回転ゲートと2量子ビットZZ回転ゲートからなる量子回路で実行する。
③ 量子誤り緩和は、ゼロノイズ外挿法(ZNE)である。 確率的エラーキャンセル (PEC) は効果的であるものの、サンプリング オーバーヘッドが大きい。そこで、サンプリングコストが低いZNEを採用した。外挿は、線形外挿よりもバイアスが小さいという理由で、指数外挿を採用。
④ NISQマシンは、127量子ビットのIBM Eagle(ヘビーヘックス・レイアウト(※1))を使用している。
⑤ 古典計算は、上記ハミルトニアン・シミュレーションを、テンソルネットワークを用いて(テンソルネットワーク法で)実行する。実際には、1次元の行列積状態(MPS)と、2次元のアイソメトリック・テンソルネットワーク(isoTNS)を使用している。
⑥ ハードウェアは、ローレンス バークレー国立研究所・エネルギー研究科学計算センター(NERSC)及びパデュー大学にあるスパコンが使われた。実施者は、カリフォルニア大学バークレー校の研究者達である。
※1・・・ヘビーヘックス・レイアウトは、IBMが考案した量子ビットの接続方式。正方格子だと4個の量子ビットが隣接しており、量子ビット操作に用いるマイクロ波周波数の衝突が頻繁に起きる。それは、量子誤りを惹起する。マイクロ波周波数の衝突による量子誤りを低減させるため、隣接する量子ビットの数を減らした接続方式が、ヘビーヘックス・レイアウトである。なお、ヘビーヘックスとは六角ナットの意味。

2⃣ 本論文の主張
 本論文の主張 は、以下の通り:❶ZNEは有効に機能し、❷テンソルネットワーク法(による古典計算)では得ることができない結果を、量子計算では得ることができ、❸テンソルネットワーク法では実行不可能な、”長い”時間にわたるシミュレーションが、量子計算では可能。
 以下、❶~❸について補足する。

3⃣ 本論文の主張詳述
 ❶は、横磁場ゼロのイジングモデルを対象に評価された。また、クリフォード回路のみの量子回路で、量子計算が実行された。1量子ビット回転ゲートのパラメータである「角度」をπ/2の倍数に制限することで、クリフォード回路のみにできる。量子計算は、ZNEありとZNEなし行われ、比較対象は「磁化」の期待値「平均磁化」(パウリZで測定)である。ZNEのノイズには、疎なパウリ・リンドブラッド・モデル(※2)が用いられている。
 トロッターステップが20まで(その場合、CNOTゲートは60まで)増加しても、つまりハミルトニアン・シミュレーションを長い時間行っても、ZNEあり量子計算で算出された平均磁化は、理論値との乖離が少なかった。この場合、理論値とは、期待値1である。一方、ZNEなし量子計算は、ハミルトニアン・シミュレーションを長い時間行うと、平均磁化は0に向かって単調に減少していく。
 ❷は、2次元横磁場イジングモデルを対象に評価された。非クリフォード回路を含む量子回路で実行した量子計算の結果を、テンソルネットワークを使った古典計算の結果と比較している。量子計算は、127量子ビットの超伝導量子プロセッサを使用して、トロッターステップを5(その場合、CNOTゲートは15)に限定して実行される。パラメータ(角度)は0 と π/2 の間で振っている。
 クリフォード回路と異なり、非クリフォード回路は、古典的に有効なシミュレーションが不可能である(GottesmanーKnillの定理)。従って、古典計算(テンソルネットワーク法)との比較は、角度= π/2付近での比較としている。テンソルネットワーク法は、結合次元2,048の1次元MPS及び、結合次元17の2次元isoTNSである。
 オブザーバブルとして、正確に検証可能な量が3つ選択されている。㊀磁化、㊁固有値 +1を持つ角度= π/2における量子回路のスタビライザー状態、㊂固有値 ー1を持つ角度= π/2における量子回路のスタビライザー状態、である。
 ZNEありの量子計算は、0~π/2の間で、㊀~㊂とも正解を再現できている。一方、古典計算(テンソルネットワーク法)の結果は、正解を全く再現できていない。つまり量子計算により、古典計算では再現できない結果を、得ることができた。
 Supplementary information[*119]によると、㊀の正解は、光円錐および深さ低減 (LCDR) 回路に対する総当たり古典的シミュレーションで計算している。㊁の正解は、26量子ビットのLCDR回路に対する総当たり古典的シミュレーションで計算している。㊂の正解は、47量子ビットのLCDR回路に対する、結合次元2,048の古典的シミュレーションで計算している。
 ❸は、トロッターステップ20に相当する”長い”時間にわたるハミルトニアン・シミュレーションを、テンソルネットワーク法で行う場合、スタビライザー状態とその時間発展を正確に表すのに必要な結合次元は、7.2 × 1016と計算されている。そして、その場合に必要なメモリは1万クエタ・バイトを超える(クエタは10の30乗、つまりペタの2乗)。つまり、実行不能である。
※2 パウリ・リンドブラッド・モデル[*122]では、エラー(量子計算における計算の誤り)の影響で変化する量子状態を、時間発展方程式に従って遷移する量子状態と表現する。この場合の時間発展方程式は、量子開放系の時間発展を記述するリンドブラッド方程式である。リンドブラッド方程式におけるリンドブラディアンは、シュレディンガー方程式のハミルトニアンに相当する。リンドブラディアンは、"環境の変化を無視できる時間スケール"において、量子状態(密度演算子)の時間発展を司る線形超演算子である。
 本論文のパウリ・リンドブラッド・モデルでは、リンドブラディアンにおいて、ハミルトニアンによる時間発展を無視する。また、リンドブラッド演算子=係数×パウリ演算子で表す(係数は非負)。そうすると、リンドブラディアンは(パウリ演算子のユニタリ性から)、極めてシンプルになる。
 疎なパウリ・リンドブラッド・モデルの「疎」とは、パウリエラーを表現するパウリ行列が、疎行列であることを意味している。つまり、回路の一部にのみパウリエラーが生じている。任意のノイズ(チャネル)は、Pauli Twirlingによってパウリ(ノイズ)チャネルに変換できる(はずだ)から、パウリエラーを仮定することは、汎用性を失わない(はず)。
 なお、パウリ・リンドブラッド・モデルは、ZNEに限定されるわけではない。また、特殊なノイズチャネルを表現するモデルでもない。また、(量子マスター方程式である)リンドブラッド方程式は、(連続時間の)マルコフ過程を前提としているから、パウリ・リンドブラッド・モデルを使った量子誤り緩和は、非マルコフ・ノイズには、有効でない(はず)。

4⃣ 考察
(1) トロッター分解による2次元横磁場イジングモデルの時間発展シミュレーションは元々、量子ゲートを使った量子計算と相性が良い。とは言え、量子誤り緩和を使うことによりNISQでも、”長時間”の時間発展をシミュレートできる、という成果はポジティブであろう。
(2) 特段の工夫を凝らすことなく、普通にZNEを適用して良い結果を得た、というところに価値があるのだろう。実際、ノイズ・スケーリングに関しては、特段の改善はなされていないと思われる。
(3) 一方、外挿法に関しては、工夫が凝らされている(と思われる)。IBMは、「ノイズゲインレベルが小さい場合であっても『期待値がゼロ付近に集中している+回路が深い』場合、指数外挿が不安定になる可能性がある」ことを発見した。そこで、この不安定性を調整する方法を考案・実行している。具体的には、まず、外挿推定値の不確実性の"しきい値"として0.5を設定する。続いて、この"しきい値"に基づいて、外挿推定値を、㊀指数関数フィットから線形フィットに、㊁線形フィットから(ノイズ・ゲイン・レベル1 で得られた)緩和されていない結果に、連続的にダウングレードする。外挿推定値の不確実性は、(オブザーバブルの期待値を適合させる)フィット・ルーチンによって返される、共分散行列の対角要素の平方根としている。
(4) 今回、ZNEを適用してうまくいった。とは言え、ZNE(やPEC)は、nLλ(量子ビット数n、量子回路の深さL及び、ハードウェアの"誤り率"λ)が、小さい場合に有効であることに変わりはない。つまりNISQマシンの範疇であっても、誤り率を下げていくことが今後の方針であることに、変わりはない。

【参考】誤りを減らす工夫 読む↓|↑隠す 

↑目次に戻る

 

【Appendix 3】 歴史に学ぶ~コンピュータの導入史[*63]、[*64]、[*65]、[*66]、[*67]、[*68]、[*69]
 量子コンピュータが最初に導入されるのは、どんな企業・アプリケーションかを、歴史に学ぼうという意図である。日本において、外国製コンピュータが、いつ・どの組織に導入されたかを「抜き身」で書き出すと、以下のようになる。
 0) 1920年:ホレリス式統計機械を使って第一回国勢調査を実施。
 1) 1923年:内閣統計局、鉄道省、横浜税関が、パワーズ式統計機械を導入。
 2) 1925年:日本陶器名古屋工場が、ホレリス式統計機械を導入。給与計算や海外統計に使用。
 3) 1925年:日本生命、パワーズ式統計機械を導入。
 4) 1937年:住友生命、ホレリス式統計機械を導入。
 5) 1938年:第一生命、川崎飛行機、ホレリス式統計機械を導入。
 6) 1947年:塩野義製薬が、事務処理用に、IBMのパンチカードシステムを導入。
 7) 1955年:UNIVAC 120が、野村証券、東京証券取引所に導入。UNIVACは、エッカート・モークリー・コンピュータ・コーポレーション(EMCC)が開発。EMCCはレミントンランドに買収される。
 8) 1957年:BENDIX G15が、国鉄鉄道技術研究所、三菱電機に導入。技術計算用。→国鉄は(日立製作所と共同で)、座席予約システムを構築。
 9) 1958年:IBM 650が、日本原子力研究所に導入。事務処理用。
 10) 1959年:UFCが、国鉄本社、山一証券、小野田セメントに導入。UFCは、世界初の本格的プログラム内蔵式事務用計算機。UFCは、レミントンランド社(→スペリーランドに買収)製。
 11) 1959年:IBM 704が、気象庁予報部に導入。台風の進路予測に使用。704は、IBM初の本格的技術計算用コンピュータ。
 12) 1959年:IBM 650が、三和銀行に導入。銀行としては、初。
 13) 1959年:UNIVAC USS-90が、東芝に導入。(重電系の)設計計算等に使用。
 14) 1959~1960年:IBM 650 MDDPMが、三菱原子力(現在は、三菱重工)、新三菱重工(現在は、三菱重工)、日本生命、三井生命、塩野義製薬、早川電機(現シャープ)、古河電工、トヨタ自動車、東洋工業(現マツダ)等に導入。
 15) 1960年:IBM 7070が、日立製作所に導入。7070は事務処理用。
 16) 1961年:IBM 705が、総理府統計局に導入。
 17) 1961年:IBM 7070が、日本鋼管(現JFEスチール)、八幡製鉄(現在は、日本製鉄)、日本鉱業(現ENEOSホールディングス)、東海銀行(現在は、三菱UFJ銀行)」等に導入。
 18) 1961年:UNIVACⅡが、東京電力に導入。事務処理用。
 19) 1961年:IBM 1401が、八幡製鉄に導入。事務処理用。
 20) 1963年:UNIVACⅢが、野村証券、山一証券に導入。大量の株式売買処理に加えて、予測なども行う。
 21) 1964年:UNIVAC 490が、国鉄に導入。貨物列車運行管理用。
 22) 1964年:UNIVACⅢが、川崎製鉄、いすゞ自動車、労働省、東京証券取引所に導入。
 23) 1964年:UNIVAC 1050が、日本板硝子に導入。
 24) 1964年:UNIVAC 418が、富士銀行(現みずほ銀行)に導入。
 25) 1965年:UNIVAC 1050が、防衛庁に導入。海上幕僚部において物資補給の管理を行うために使用。
 26) 1965年:UNIVAC 1050が、八幡製鉄、伊勢丹に導入。

 (少なくとも)グローバルでは、「計算機の始まりのキラーアプリは、シミュレーション」であった。ABC(アタナソフ=ベリー・コンピュータ)は、大規模連立一次方程式を解く専用機として開発された(1942年)。ENIACも、弾道計算専用機として開発された(1946年。実際は、様々な用途に用いられた)。独のコンラート・ツーゼも、科学技術計算専用機として、Zシリーズを開発した(Z3は、1941年)。また、富士写真フィルムの技術者が独力で作り上げた日本初の電子計算機FUJICは、レンズ設計専用機であった(1956年)。なお、最初のコンピュータはどれか?問題に、大きな興味はないが、1973年10月、米ミネアポリス連邦地裁は、ENIACはABCを参考につくられたものであるという判断を示した。
 しかし、計算機の商業的成功は、シミュレーションでは達成されなかった。最初に、商業的な成功した計算機は、レミントンランド社のUNIVACである。ENIACを開発した二人組が作った計算機で、国勢調査のため、米人口統計局に納入された(1951年)。計算機の商業的大成功をもたらしたIBM360は、事務処理用計算機と科学技術計算用計算機をmergeしたことがミソだった。そして、シミュレーションの権化たるスパコンは、商業的にmake senseしていない。そもそも、市場規模が76億ドル(2021年)程度しかないのだから。スパコンの代名詞Crayは、1996年シリコングラフィックスSGIに買収された後、(SGIが)2000年にテラ・コンピュータへ売却。さらにテラ(クレイInc.に社名変更)は2019年、HPに買収された。日本では、NECがスパコン開発から撤退し(2009年)、富士通も悪戦苦闘している。ちなみに、世界初の(ベクトル型)スパコン「CDC-STAR100」の最初の顧客はGMであった(1971年)。Cray初号機(Cray-1)の最初の顧客は、米国立大気研究センター(NCAR)である(1976年)。地球シミュレータは、気候変動などを研究する「海洋研究開発機構」に納入された(2002年)。2022年5月時点のスパコン1位は、HP製のスパコン「Frontier」で初のエクサ級コンピュータであり、米エネルギー省によって運用されている。
 改めて、日本への導入リストを見ると、経済的にmake senseする事務処理用計算機から導入されていることがわかる。業種で言うと、生命保険、製薬会社、鉄道、証券会社、銀行、電機、製鉄、自動車。計算分野では、三菱電機、気象庁、東芝で使用されている。リストには明示されていないが、[*68]によれば、シミュレーションは、まず自動車業界が取り組み、鉄鋼、造船、電気(ママ)、化学工業等に広がった。
 歴史的事実のみから強引に結論を引き出すと、グローバルでは、最初にシミュレーション分野で量子コンピュータが導入されるだろう。しかし、不思議の国日本では、"事務処理"分野で、最初に導入される可能性が捨てきれない。もちろん、量子コンピュータに"事務処理"分野はないが、対応分野として、(量子)機械学習及び最適化問題向けのアプリケーションが考えられる。当該アプリケーションは(日本では)、生命保険、証券、銀行、物流(鉄道)、といった業種で導入されるだろうという推論が導かれる。そして、シミュレーション分野が続く。産業セクターでは、まず自動車。次に、電機、化学、製鉄といったセクターに導入されると推論できる。強引に引き出した結論ではあるものの、業種としては、大きな違和感はないだろう。

↑目次に戻る

 

【Appendix 4】 IBMが語る超伝導型量子コンピュータの未来
 IBMは、The Future of Quantum Computing with Superconducting QubitsというホワイトペーパーをarXivに公開(22年9月16日)[*72]し、掲題について幅広く議論展開している。エッセンスをまとめて、コメントを付した。
 (1)量子誤り訂正符号
 量子誤り訂正符号が満たすべき3つの条件を示している。①しきい値が十分に高いこと。誤りが発生する割合がしきい値を下回っている場合、十分に大きな符号距離をとることで、論理量子ビットの寿命を任意に長くすることができる。つまり、損益分岐点の議論でもある。②復号アルゴリズムが高速であること。冗長化した量子ビットに埋め込んで保護した元の情報を、復元することを復号(デコード)という。一般的なスタビライザー符号の復号処理は、最悪の場合、NP 困難になる。③当然であるが、符号化した状態で量子計算ができなければならない。つまり、誤り耐性計算が可能でなければならない。
 上記の性質を満たす符号として、(キタエフと(IBMの)ブラヴィが開発した)2次元表面符号が有望とみなされている。例えば、(脱分極エラー[*60を参照]に対する)しきい値は、1%と(それなりに十分)大きい。しかし、大きな欠点が2つ存在する。
 其の壱:サイズが大きくなる。量子計算を担う物理量子ビットに、誤り測定や誤り訂正のために付け加える補助量子ビットの数が超巨大になる。このため、誤り耐性計算に必要と考えられている量子ビット数が、数百万~数千万に膨れ上がってしまう(表面符号を前提とすると、1論理量子ビットをつくるのに、1,000個の物理量子ビットを要するとされる。1,000論理量子ビット=100万物理量子ビット、100万論理量子ビット=10億物理量子ビットとなる)。
 其の弐:魔法状態蒸留のオーバーヘッドがハンパない。表面符号(正確には、カラー符号を含めたトポロジカル符号)は、Tゲートを実行できない。Tゲートが実行できなければ、古典計算以上のパフォーマンスが得られないことは、広く知られている(ゴッテスマン・ニルの定理)。Tゲートを実行するには、(同じくキタエフとブラヴィが開発した)魔法状態と呼ばれる補助状態を作る必要がある。魔法状態は、冗長に符号化されていない状況からつくる。そこから、十分冗長なサイズまで大きくしていくが、その過程でエラーが混入する。そこで、(十分冗長化された)魔法状態を多数集めて、制御演算や測定(蒸留ゲート)を実施し、エラーを減らす必要がある。そのエラーを減らしていく行程を蒸留と呼ぶ。この蒸留工程に、とんでもなく大量の量子ビットを要する。トータルで、1億量子ビットが必要かも?と言われる所以である。1億量子ビットの超伝導式量子コンピュータを作るのに必要な金額は、100兆円である。これは、さすがにアウトであろう。
 そこで、解決策が必要となる。IBMは、解決策/方針として、以下を挙げている。①より効率的な蒸留法の開発、②魔法状態を冗長化する過程でエラー混入を減らす方法の開発、③蒸留ゲートのより優れた表面符号実装法の開発、そして④魔法状態蒸留ではなく、2次元表面符号で、CCZゲート(トフォリ位相反転ゲート)を実行する方法[B.J.Brown,“A fault-tolerant non-Clifford gate for the surface code in two dimensions,”Science Advances 6,eaay4929(2020)]、である。

 (2)誤り抑制(軽減あるいは緩和など、いくつかの呼び方がある)
1⃣ 未解決ではあるが有望と(IBMが考えている?)アイデアとして、PECとZNEの組み合わせを提起している。PEC(確率的エラーキャンセレーション)もZNE(ゼロノイズ外挿)も単体ではメジャーな誤り抑制策である。また、ZNEでは有効に対応できない非マルコフ的ノイズに有効な誤り抑制手法として、(Googleが開発した)仮想蒸留法を紹介している。ノイズにより生じた混合状態同士のコピーを干渉させることで、純粋状態へと蒸留する操作を仮想蒸留と呼ぶ。仮想蒸留法は、オーバーヘッドが大きい。
 クリフォード・ゲートに誤り訂正、Tゲートに誤り抑制を用いることで、魔法状態蒸留に頼ることなく、ユニバーサル論理回路をシミュレートできる、と述べている。これは、[*45]でも述べられている。
2⃣ リアルなユースケースという迫力は、ないが(仮想蒸留のデモンストレーションとして?)・・・
 グーグル、独Covestro、仏Pasqal他は、量子化学シミュレーションに(事後選択+)仮想蒸留を使うことで、物理量を正確に再現できた、と発表した(論文[*136]のオンライン公開は、23年10月12日)。Hartree-Fock(平均場)近似を越えた、量子化学シミュレーションの一歩として、セニオリティ†1ゼロの部分空間において、UpCCSD法†2を用いた電子系のシミュレーションが対象。具体的には、リチャードソン・ゴーディン(RG)模型†3(及びシクロブテンの開環問題)を、10量子ビットでシミュレートした。結果として、仮想蒸留(及びエコー検証†4)を使ったUpCCSD法は、基底状態のエネルギーと秩序パラメータを正確に再現できた(誤り緩和策を用いない場合に比べて、推定値が1~2桁向上した)。
 また、50量子ビットを使うとした場合、仮想蒸留では、108ショットが必要であり、計算時間はおよそ1時間と推定している。ちなみに、エコー検証の場合は、109ショットが必要であり、計算時間はおよそ10時間と推定している。
 さらに、50量子ビットを使うとした場合、2量子ビットゲートの誤り率は、3×10-4以下である必要がある、と推定した。
†1 元は、ペアになっていない核子の個数を意味する量子数。ここでは、スピンがペア(↑と↓)になっていない電子の個数を指している。セニオリティ・ゼロは、二重否定で分かりにくいが、すべての電子がペアになっていることを意味している。
†2 ユニタリーペアCCSD法。CCSD法は、多体電子系の高精度な近似解法として知られている(CCSDは2体まで正確)。CCは結合クラスター法を意味し、SD(single double)は2励起まで考慮していることを意味している。UpCCSDとCCSDとでは、2励起の取り込み方が異なる[*137]。
†3 RG模型は、可積分なフェルミオン模型の一つで、標準的なベンチマークとして知られている。
†4 エコー検証(echo verification:正式な和訳は、存在しないと思われる)は、仮想蒸留と同系統の誤り緩和法である。仮想蒸留は、混合状態の密度演算子ρに対するM番目の蒸留状態ρ(M)で測定することを、ρのM個のコピーによる集団的測定に置き換える(故に蒸留が仮想的)。
 仮想蒸留が空間的に離れたコピーを使うのに対して、エコー検証は、時間的に離れたコピーを使う[*138]。他の違いとして、エコー検証はGHZ(グリーンバーガー・ホーン・ツァイリンガー)状態の準備が必要となる。

 (3)モジュラーアプローチ
 量子ビット数を誤り耐性量子計算が可能なレベルにまでスケールアップする手法として、モジュラーアプローチは、広くコンセンサスを得ているアプローチである。ハードウェアの構築及び構成という観点から見ると、(QPUの)設計とテストが簡素化され、欠陥がある場合でも交換が容易になる。その一方でQPU間には、超低遅延・超低損失・低クロストークが要求され、高帯域幅で忠実度の高いリンクが必要となる。
 モジュラーアプローチといっても、いくつかのレベルがある。IBMでは、5種類に分けている(以下にあげる名称は、説明上、勝手に付けた)。①QPUの古典的並列化:QPUがコントローラを介して、ユニバーサル・バスと古典的通信を実施、②多層チップでQPUを構成:離れたチップ間を2量子ゲートを通じて量子通信を実施、③QPUの量子並列化:モジュール間をマイクロ波あるいはケーブルでリンクして、量子通信を実施、④大規模な拡張:古典的通信を行うチップを長距離カプラで繋いでサイズを大きくし、それらを量子通信で結ぶ、⑤ネットワーキング:異なる希釈冷凍器内のQPUを、光ファイバーでリンクする。これはモジュラーアプローチというより「ネットワーキング・アプローチ」かもしれない。

 (4)量子中心のスパコン
 IBMは、「コンピューティングの未来は、QPU、CPU、GPU がすべて連携して計算を高速化する量子中心のスーパーコンピューターになる」と考えている。そのヴィジョンの実現には、以下のような要件がクリアされる必要がある、とIBMは考えている。
 ①厳密な同期を維持しながら、異なるコンポーネント間で低遅延でデータを移動できる制御ハードウェアが必要になる。この低遅延を実現するには、コントローラーは QPU のすぐ近くに配置されなければならない。現在、コントローラーは必要な柔軟性を提供するためにFPGAを使用して構築されているが、今後ASICあるいはコールドCMOS が必要になる。
 ②誤り訂正は高速に行う必要があるため、量子コンピュータと古典コンピュータは、統合される必要がある(クラウドでつながるような構成は無理)。
 ③高度な古典計算と量子計算を組み合わせることができるソフトウェアが必要となる。ここで言及したソフトウェアは、「回路編み、合成、レイアウトとルーティング、および最適化を含む高度な回路コンパイル」を可能とする。
 回路編み(Circuit Knitting)は、量子コンピュータの適用を促進するための技術で、(業界では珍しくない)IBM発の用語である。量子コンピューター上で小規模な量子計算を実行し、その結果を古典コンピュータで繋ぎ合わせて、より大きな量子計算結果を推定するプロセス。量子計算を小規模化する3種類のアプローチがあげられている:①回路切断=(専用の)古典コンピューターを使用して、大きな回路を多くの小さな回路に「分割」して、量子計算を小規模化する。②エンタングルメント・フォージング(鍛造)=量子系を2分割し、それぞれを(両者間のエンタングルメントを考慮して)量子コンピュータ上で個別にモデル化することで、量子計算を小規模化する。③量子埋め込み法=量子計算から古典的にシミュレートできる部分を「分離」して、量子計算を小規模化する、である。動的平均場理論、密度行列埋め込み理論そして、密度汎関数埋め込み理論が、量子埋め込み法と相性が良い。
 回路切断は、動的回路(ダイナミック回路)とも呼ばれる。この手法のデメリットとしては、回路切断によって発生するスケーリングやオーバーヘッドがあげられる。このため、最適な切断位置を見つけることや、切断回数を最小限に抑えるといった方法を開発する必要がある。米デルは、古典コンピューターに量子コンピュータを統合する手法として、回路切断に注目している。

↑目次に戻る

 

【Appendix 5】 全米量子イニシアティブ諮問委員会の委員プロフィール
 2022年12月9日(現地時間)ホワイトハウスは、全米量子イニシアティブ諮問委員会(NQAIC)の委員を任命した。NQIACは、全米量子イニシアティブ(NQI)法で要請された連邦諮問委員会で、どの連邦機関よりも"上"である、と強調されている。NQIACは、NQIプログラムの独立した評価を行い、大統領、議会、国家科学技術会議(NSTC)量子情報科学小委員会、NSTC量子科学の経済・安全保障への影響小委員会がNQIプログラムの見直しと改訂を検討するための提案を行うことを任務とする。
 同様の機関(委員会)が日本で発足するケースを想定し、ベンチマークという意識を持って、「全米の産業界、学界、連邦研究所における該当分野のリーダーである」委員のプロフィールを公開情報を基にまとめた(一部推測含む)。

↑目次に戻る

【尾 注】
*1 池田一毅、幾何学的ラングランズ予想と量子ホール効果、加速器・物理合同ILC夏の合宿2017@乗鞍高原・資料(https://agenda.linearcollider.org/event/7684/contributions/39501/attachments/31949/48249/ILC2017.pdf)
*2 当時、IBMのフェローだった。
*3 ドイチュは後に、量子版チューリング・マシンとは異なる、量子回路モデルと呼ばれる計算モデルを提案した。1993年、アンドリュー・ヤオによって、両者が同等であることが証明されている。
*4 https://www.itmedia.co.jp/pcuser/articles/1111/22/news032.html
なお、D-WaveのSQUIDの消費電力は、20数kWとのことである(出所:https://www.scat.or.jp/cms/wp-content/uploads/2020/06/scat104_seminar_02.pdf)。また、先代のスパコン京の電気代は約600万円/日(出所:ibid)であり、富岳は約1,200万円/日(出所:https://www.r-ccs.riken.jp/intro-hpc/hellosc-fugaku/05.html)である。
*5 出典:日経クロステック編集、富岳 世界4冠スパコンが日本を救う 圧倒的1位に輝いた国産技術の神髄、日経BP、2021
*6 ザパタ・コンピューティングは2020年9月、シリーズBラウンドで投資家から3,800万ドルの資金を調達した。シリーズAのリード・インベスターは、BASFやロバートボッシュのコーポレートVC。シリーズBには、伊藤忠商事等が参加している。
*7 キュナシスは2019年11月、シリーズAラウンドで、投資家から2億8000万円を調達した。
*8 https://dojo.qulacs.org/ja/latest/notebooks/6.3_subspace_search_VQE.html。
*9 出典:御手洗光祐・藤井啓祐、シリーズ「人工知能と物理学」量子コンピューターを用いた変分アルゴリズムと機械学習、日本物理学会誌、74巻(2019)9号、p.610 https://www.jstage.jst.go.jp/article/butsuri/74/9/74_604/_pdf/-char/ja
*10 https://www.keio.ac.jp/ja/press-releases/2021/5/26/28-80161/
*11出典:御手洗光祐・藤井啓祐、シリーズ「人工知能と物理学」量子コンピューターを用いた変分アルゴリズムと機械学習、日本物理学会誌、74巻(2019)9号、pp.607-609 https://www.jstage.jst.go.jp/article/butsuri/74/9/74_604/_pdf/-char/ja
*12 アニーリング(焼き鈍し)は、残留応力の除去等を目的として、加熱後ゆっくり冷やすという処理であり、機械加工の分野で広く用いられてきた。1980年代、アニーリングのモンテカルロ・シミュレーションが、組み合わせ最適化プロセスと相似していることに注目した学者がいた。そして「物理(機械加工)において、ゆっくり冷やして、エネルギー最小の状態に落ち着く」ことは、「組み合わせ最適化問題において、大域最適解への収束」に該当するのではないか、と考えた。それは、後に数学的に証明される。
*13 CMOSアニーリングは第3世代からSQAを利用している。また第3世代では、CMOSではなくFPGAでデジタル回路を構成している。
*14 例えば、https://www.nii.ac.jp/news/release/2019/0525.html
*15 例えば、https://www.jps.or.jp/books/gakkaishi/2020/02/75-02_083researches2.pdf
*16 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/21/2102-02.html
*17 https://www.ipa.go.jp/ikc/reports/how-companies-get-quantum-computing-ready-02.html
*18 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/21/2105-01.html
*19 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/21/2105-01.html
*20 https://www.nttdata.com/jp/ja/data-insight/2020/0914/
*21 観山正道・大関真之、量子アニーラの最新動向、表面と真空Vol.63、No.3、pp.104-111、2020(https://www.jstage.jst.go.jp/article/vss/63/3/63_20180522/_pdf/-char/ja) 
*22 https://arxiv.org/pdf/1905.02666.pdf。プライシングの対象となったオプションは、実用性から選んでいる。具体的には、バスケットオプション、アジアンオプション、バリアオプション(ノックイン、ノックアウト)のプライシングを行っている。加えて、ストラドルやバタフライのような、オプションを組み合わせた取引(オプション・ポートフォリオ)についてもプライシングを行っている。
*23 オンサーガーの論文を読んだ南部陽一郎先生は、独自に厳密解に到達したらしい。兵役についていた南部先生は、そのとき学部を卒業していたに過ぎなかった。
*24 https://journal.ntt.co.jp/article/11045
*25 https://www.preferred.jp/ja/news/pr20210706/
*26 https://arxiv.org/pdf/1704.01212.pdf 
*27 https://www.ds-pharma.co.jp/ir/news/2020/20200130.html 
*28 https://www.iis.u-tokyo.ac.jp/ja/news/3569/
*29 AIの人知超え前倒しも 量子計算機、グーグル幹部言及(2021年8月24日付け日経新聞朝刊17面記事)
*30 https://www.uec.ac.jp/news/announcement/2021/20210726_3571.html
*31 例えば、バイラテラルAI(https://www.keio.ac.jp/ja/press-releases/files/2020/9/28/200925-1.pdf)など。
*32 https://www.ibm.com/downloads/cas/KRWEWO8D
 ちなみに、このレポートの主な主張は、次の3つと思われる。(1)量子コンピュータは、古典コンピュータとAIと組み合わせて使用すると考えるべき。(2)量子コンピュータの適用分野は優先順位をつけるべき。優先順位をつける仕組みも提示している。(3)ワークフローやビジネスインテリジェンスを量子コンピュータを前提に再構築すべき。
*33 https://qforum.org/topics/interview12
*34 https://gridpredict.jp/news/1223/
*35 https://eetimes.itmedia.co.jp/ee/articles/2201/07/news032.html
*36 https://www.magellanic-clouds.com/blocks/2022/01/17/shimz/
*37 https://www.sdk.co.jp/news/2022/41712.html
*38 https://www.jst.go.jp/pr/announce/20220318-4/pdf/20220318-4.pdf
*39 https://www.keio.ac.jp/ja/press-releases/files/2022/4/1/220401-1.pdf
*40 https://www.tohoku.ac.jp/japanese/newimg/pressimg/tohokuuniv-press20220401_02web_Annealing.pdf
*41 https://techtarget.itmedia.co.jp/tt/news/2203/29/news09.html#utm_medium=email&utm_source=tt_news&utm_campaign=2022/03/30
*42 https://www.mhi.com/jp/news/22042502.html
*43 https://arxiv.org/pdf/2111.15605.pdf
*44  https://proceedings-of-deim.github.io/DEIM2022/papers/H34-4.pdf
*45 Z.ナザリオ、最大の難関「エラー訂正」を実行する新手法、日経サイエンス、2022年08月号
*46 https://ionq.com/links/Quantum_Computing_for_Risk_Aggregation_20220622.pdf
*47 Maria Schuld、Supervised quantum machine learning models are kernel methods(https://arxiv.org/abs/2101.11020)
*48 https://ai.googleblog.com/2022/06/quantum-advantage-in-learning-from.html
*49 Quantum computing:An emerging ecosystem and industry use cases(December 2021)
https://www.mckinsey.com/~/media/mckinsey/business%20functions/mckinsey%20digital/our%20insights/quantum%20computing%20use%20cases%20are%20getting%20real%20what%20you%20need%20to%20know/quantum-computing-an-emerging-ecosystem.pdf
*50 https://discover.lanl.gov/news/0816-quantum-annealing 
*51 https://www.itmedia.co.jp/enterprise/articles/2208/29/news050.html#utm_medium=email&utm_source=tt_news&utm_campaign=2022/08/30
*52 https://iopscience.iop.org/article/10.1088/1367-2630/ac7f26 
*53 https://www.nature.com/articles/s41467-022-32094-6 
*54 https://phys.org/news/2022-09-erasure-key-quantum.html
*55 Sangkha Borah et al.、Measurement-based estimator scheme for continuous quantum error correction、https://journals.aps.org/prresearch/pdf/10.1103/PhysRevResearch.4.033207 
*56 https://physinfo.fr/artemis/
*57 https://www.jst.go.jp/pr/announce/20220706/index.html
*58 https://www.nature.com/articles/s42256-022-00509-0 
*59 量子コンピューティング-従来は不可能だった課題の解決を目指して-、富士通テクニカルレビュー(https://www.fujitsu.com/jp/documents/about/resources/publications/technicalreview/topics/article008.pdf)
*60 depolarizingエラーをブロッホ球で表現すると、確率的にいずれかの軸に関してスピン反転を起こすエラーと解釈できる。これは、分極を失う様子と同じなので、depolarizingエラーと呼ばれる。ちなみに、植田優基(北海道大学大学院理学院数学専攻)、Factorizability of tensoring quantum channels with the completely depolarizing channel(https://www.math.sci.hokudai.ac.jp/~wakate/mcyr/2019/pdf/005900_ueda_yuki.pdf)には、「どのように和訳されるのかは筆者は知らない」とある。長田・山崎・野口(2021)には、脱分極という訳語があてられている。分極解消との訳語もある(https://www.icepp.s.u-tokyo.ac.jp/download/master/m2021_okubo.pdf)。物理コミュニティと数学コミュニティとの交流が少ないことを示唆しているのかもしれない。2023年時点で、脱分極という文言でコンセンサスが得られてると思われる。
*61 Robust Preparation of Wigner-Negative States with Optimized SNAP-Displacement Sequences (https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.3.030301)
*62 https://www.quantinuum.com/pressrelease/quantinuum-sets-new-record-with-highest-ever-quantum-volume
*63 小田徹、コンピュータ開発のはてしない物語 起源から驚きの近未来まで、技術評論社、2016
*64 岡本行二、日本の情報システムとコンピュータ利用、情報システム学会誌Vol.2,No.1 (https://www.issj.net/journal/jissj/Vol2_No1/A04V2N1.pdf)
*65 山田昭彦、コンピュータ開発史概要と資料保存状況-第3世代・第3.5世代コンピュータ及びスーパーコンピュータについて-、国立科学博物館技術の系統化調査報告第2集 2002年3月 (https://sts.kahaku.go.jp/diversity/document/system/pdf/006.pdf)
*66 情報処理 Vol.4,No.2(March 1963) (https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=9052&file_id=1&file_no=1)
*67 情報処理 Vol.6,No.4(July 1965) (https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=8856&file_id=1&file_no=1)
*68 小畑秀之、コンピュータ化80年、弓削商船高等専門学校紀要第24号(平成14年) (https://www.yuge.ac.jp/wp-content/themes/yugekousen/data/download/kiyou/vol24_14.pdf)
*69 宮崎晋生、日本における電子計算機産業政策での政策決定プロセス、国際関係・比較文化研究、第6巻第2号 (https://u-shizuoka-ken.repo.nii.ac.jp/index.php?action=pages_view_main&active_action=repository_action_common_download&item_id=1175&item_no=1&attribute_id=40&file_no=1&page_id=13&block_id=21)
*70 銀行の進化:日本の未来の繁栄に向けて(2022年7月) https://www.mckinsey.com/jp/~/media/mckinsey/industries/financial%20services/our%20insights/banking%20on%20growth%20ensuring%20the%20future%20prosperity%20of%20japan/banking-on-growth-ensuring-the-future-prosperity-of-japan-jp.pdf
*71 https://www.s.u-tokyo.ac.jp/ja/press/2022/8093/
*72 S.Bravyi et al.、The Future of Quantum Computing with Superconducting Qubits (https://arxiv.org/pdf/2209.06841.pdf)
*73 https://arxiv.org/abs/2206.03505 
*74 https://blog.albert2005.co.jp/2020/07/17/mechanical-system-nn/
*75 https://arxiv.org/abs/2201.05624
*76 https://www.hpcwire.com/2022/10/19/cerebras-chip-part-of-project-to-spot-post-exascale-technology/
 アルゴンヌ国立研究所は、2022年10月19日、米国初のエクサ級スパコン「オーロラ」を導入した。4つの領域で突破口を開くことを目指している:①脳の複雑な接続のマッピング、②がん細胞の広がり方、③核融合エネルギーへの道筋を見つける、④真の素粒子探求。参照:https://www.hpcwire.com/off-the-wire/argonne-outlines-4-science-advances-coming-in-the-exascale-era/
*77 https://japan.zdnet.com/article/35179312/
*78 https://eetimes.itmedia.co.jp/ee/articles/2104/30/news074_2.html
*79 https://www.businesswire.com/news/home/20210824005645/ja/
*80 https://www.ricos.co.jp/tech/simulation_accelerates/
*81 https://pr.fujitsu.com/jp/news/2022/10/21.html
*82 https://www.sompo-hd.com/-/media/hd/files/news/2022/20220329_1.pdf?la=ja-JP
*83 https://www.memcpu.com/blog/memcomputing-vs-quantum-computing/
*84 https://www.nature.com/articles/s41586-022-04992-8
*85 https://www.it-chiba.ac.jp/media/pr20221124.pdf
*86 https://arxiv.org/pdf/2211.15631.pdf
*87 https://www.frontiersin.org/articles/10.3389/fphy.2022.1069985/full
*88 https://pr.fujitsu.com/jp/news/2022/12/22.html
*89 https://www.militaryaerospace.com/computers/article/14287396/quantum-computing-military-missions-swap
*90 https://iopscience.iop.org/article/10.1088/2058-9565/ac6f19/pdf
*91 Dorit Aharonov et al.、A polynomial-time classical algorithm for noisy random circuit sampling https://arxiv.org/abs/2211.03999
*92 https://news.fixstars.com/2513/
*93 https://eetimes.itmedia.co.jp/ee/articles/2301/12/news101_2.html
*94 https://news.fixstars.com/2165/
*95 組み合わせ最適化問題を厳密に解くことは古典コンピュータでも量子コンピュータでも難しいが、"近似的に解く"場合では、量子コンピュータが優位性を示す。そう主張する論文が、Niklas Pirnay et al.、A super-polynomial quantum advantage for combinatorial optimization problems(https://arxiv.org/abs/2212.08678)である(22年12月16日)。正確な主張は「ある組み合わせ最適化問題に対して、量子誤り訂正付き量子コンピュータによる近似は、古典コンピュータによる近似に比べて、超多項式的加速を示す」。あくまで、超多項式である。
*96 Enterprise Quantum Computing Adoption、https://www.zapatacomputing.com/enterprise-quantum-adoption-2022/
 なお、このレポートにおける調査は『2022年の推定収益が、US$250milを超える大規模なグローバル企業の300人の意思決定リーダー(CIO、CTO、およびその他の副社長レベル以上の幹部)を対象に、22年11月に実施された』。
*97 https://www.shimz.co.jp/company/about/news-release/2023/2022066.html
*98 https://aws.amazon.com/jp/blogs/quantum-computing/optimization-of-robot-trajectory-planning-with-nature-inspired-and-hybrid-quantum-algorithms/
*99 https://www.keio.ac.jp/ja/press-releases/files/2023/2/9/230209-1.pdf
*100 https://xtellix.com/
*101 https://www.global.toshiba/jp/company/digitalsolution/news/2023/0210.html
*102 リュードベリ原子配列は、単位円盤グラフ上の最大独立集合問題を、自然に符号化する。このため、最大独立集合問題の解をリュードベリ原子配列を用いた量子アルゴリズムで求める場合、最適化された古典的シミュレーテッド・アニーリング法に比べて、超線形加速が観測されている(S. EBADI et al.、Quantum optimization of maximum independent set using Rydberg atom arrays https://www.science.org/doi/10.1126/science.abo6587)。米スタートアップのQuEra、米ハーバード大、墺インスブルック大の研究者は、Physical Review Xで23年2月14日に公開された論文(Minh-Thi Nguyen et al.、Quantum Optimization with Arbitrary Connectivity Using Rydberg Atom Arrays https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.4.010316)で、リュードベリ原子を用いた符号化というアプローチを、任意の接続性を持つグラフ上で定義される問題へと拡張した。詳細は、こちらのAppendix Dを参照。
*103 https://www.americanbanker.com/payments/news/mastercard-testing-quantum-computing-for-loyalty-and-rewards
*104 Gerard McCaul et al.、Towards single atom computing via high harmonic generation https://link.springer.com/article/10.1140/epjp/s13360-023-03649-3
*105 https://www.keio.ac.jp/ja/press-releases/files/2023/4/5/230405-1.pdf
*106 A.K. Fedorov et al.、Quantum computing at the quantum advantage threshold:a down-to-business review https://arxiv.org/pdf/2203.17181.pdf
 この論文は、「量子コンピューティングの最先端技術、有望な計算モデル、物理プラットフォーム、潜在的なアプリケーション、アプリケーションによってもたらされる要件、これらの要件に対処するための技術的経路」について説明した総合的なレビューである。ただし、アーキテクチャは範囲外。また、「数学や物理学の高度なバックグラウンドを持たない読者にもアクセスできる」内容となっている。
*107 上記[*106]には、「新しいアーキテクチャ、最適化、アプリケーションに依存したプロセッサの特殊化によって、古典的なコンピュータの開発にはさらに多くの機会が開かれる」との記述がある。スパコンの進化は止まらないという意見である。(少なくとも)ノイマン・ボトルネックを回避できるアーキテクチャが実用化されて初めて、そう言えるように思われる。
*108 https://www.magellanic-clouds.com/blocks/2023/03/22/robot-friendly-5/
*109 https://lightsolver.com/lightsolver-all-laser-technology-poised-to-outperform-and-outpace-quantum-and-classical-hpc/
*110 https://arxiv.org/pdf/2302.06926.pdf
*111 https://www.businesswire.com/news/home/20230601005271/en/
*112 Deepesh Singh et al.、Proof-of-work consensus by quantum sampling、https://arxiv.org/pdf/2305.19865.pdf
*113 Luca Gravina et al.、Critical Schrödinger Cat Qubit、https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.4.020337
*114 Quantum Advantage: Hope and Hype、https://cloudblogs.microsoft.com/quantum/2023/05/01/quantum-advantage-hope-and-hype/
あるいは、arXivへの投稿論文https://arxiv.org/pdf/2307.00523.pdfを参照。
*115 Lucas Friedrich and Jonas Maziero、Quantum neural network cost function concentration dependency on the parametrization expressivity、https://www.nature.com/articles/s41598-023-37003-5
*116 Sukin Sim et al.、Expressibility and entangling capability of parameterized quantum circuits for hybrid quantum-classical algorithms、https://arxiv.org/pdf/1905.10876.pdf
 原文では、[an] ability to generate(pure)states that are well representative of the Hilbert space.
*117 https://research.ibm.com/blog/utility-toward-useful-quantum
*118 Youngseok Kim et al.、Evidence for the utility of quantum computing before fault tolerance、https://www.nature.com/articles/s41586-023-06096-3
*119 https://static-content.springer.com/esm/art%3A10.1038%2Fs41586-023-06096-3/MediaObjects/41586_2023_6096_MOESM1_ESM.pdf
*120 https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/tech-forward/early-value-an-introduction-to-quantum-optimizers
*121 Jonathan Wurtz et al.、Industry applications of neutral-atom quantum computing solving independent set problems、https://arxiv.org/pdf/2205.08500.pdf
*122 主に、以下を参考にした:Ewout van den Berg et al.、Probabilistic error cancellation with sparse Pauli-Lindblad models on noisy quantum processors、https://arxiv.org/pdf/2201.09866.pdf
*123 https://www.bk.mufg.jp/news/admin/news0713.pdf 約18%を出資して持分法適用会社にしたのだから、"classicalな"銀行カルチャから見ると、前のめりと言えるだろう。
*124 マイクロソフト(リサーチ)は該社公式ブログ(23年6月27日付け、※)にて、該社におけるAnalog Iterative Machine(AIM:アナログ反復マシン)の位置付けを詳細に語った。AIMは、光を線形操作・非線形操作することで演算を行うアナログ光コンピュータである。AIMはストレージと演算装置の間でデータのやり取り(フォン・ノイマン・ボトルネック)がないため、高速演算が可能。加えて、該社がQUMO(二次制約のない混合最適化)と呼ぶ、QUBOよりも幅広いクラスの最適化問題に対応できる、と主張している。英バークレイズと、金融取引の最適化問題をターゲットとして、1年間の研究契約を結んだことも発表した。
※ https://www.microsoft.com/en-us/research/blog/unlocking-the-future-of-computing-the-analog-iterative-machines-lightning-fast-approach-to-optimization/
*125 https://eetimes.itmedia.co.jp/ee/articles/2307/28/news156.html#utm_medium=email&utm_source=ee-elemb&utm_campaign=20230731
*126 https://www.hitachi.co.jp/rd/news/topics/2021/2110_cmos.html
*127 https://www.nsf.gov/awardsearch/showAward?AWD_ID=2303643&HistoricalAwards=false
*128 ちなみに東大の古澤先生は、2014年の時点で「量子コンピュータはなぜか、古典コンピュータよりも高速でなくてはならないという呪縛があって、それは、問題設定が間違っていると思います。古典的なアルゴリズムでも良いので、今までのコンピュータよりも消費電力が1/10のコンピュータや、今までのペースで発展していっても破綻しないようなコンピュータであれば、アルゴリズム的に速いコンピュータの必要性はありません」と仰っている。出典:https://eetimes.itmedia.co.jp/ee/articles/1410/28/news034_5.html
*129 Yong(Alexander)Liu et al.、Closing the “Quantum Supremacy” Gap: Achieving Real-Time Simulation of a Random Quantum Circuit Using a New Sunway Supercomputer、https://arxiv.org/pdf/2110.14502.pdf
 ゴードンベル賞受賞によって、より広く知られているバージョンは、https://dl.acm.org/doi/pdf/10.1145/3458817.3487399
*130 携帯電話基地局ベンダー大手のエリクソン(スウェーデン)は、「アンテナの傾きの最適化」において、量子アルゴリズム(量子畳み込みニューラルネットワーク,QNN)は古典アルゴリズムより学習効率が高い、という内容を該社公式ブログに投稿した(23年9月20日)。最適なアンテナの傾きは、トレードオフの関係にある「通話品質、通信容量、カバレッジ」を最適化し、無線リンクの効率化を向上させる、という。同程度の予測精度をもたらす量子アルゴリズムの学習可能パラメータは、古典アルゴリズムの1/10以下であるため、学習効率が高い(学習のオーバーヘッドが小さい)、と結論している。新サービス追加時などに、再学習が必要なので、高い学習効率には、大きな利点がある。
 実務上の古典アルゴリズムは(強化学習の)Deep Q-Networkであるが、量子アルゴリズムとの比較モデルは、多層パーセプトロンのニューラルネットワーク。Deep Q-Networkを、教師あり学習問題に変換している(ため、厳密な比較ではないし、他にも若干グレーな部分はある)。QNNのオプティマイザーはCOBYLA、符号化には(回転ゲートと位相ゲートの、それぞれの角度を使って符号化する)「dense角度符号化」を使用。ちなみに、「活性化関数=tanh、オプティマイザー=Adam」古典アルゴリズムで、予測精度90.24%(最良)。
 出所・・・https://www.ericsson.com/en/blog/2023/9/how-a-real-5g-quantum-ai-use-case-could-disrupt-antenna-tilting
*131 https://quantumcomputingreport.com/a-deeper-dive-into-microsofts-topological-quantum-computer-roadmap/
*132 Morteza Aghaee et al.、InAs-Al hybrid devices passing the topological gap protocol、Phys.Rev.B 107,245423(2023)、https://journals.aps.org/prb/abstract/10.1103/PhysRevB.107.245423
*133 https://www.hiroshima-u.ac.jp/news/78491
*134 https://www.titech.ac.jp/news/2023/067565
*135 https://www.waseda.jp/inst/research/news/75406
*136 T.E.O'Brien et al.、Purification-based quantum error mitigation of pair-correlated electron simulations、https://www.nature.com/articles/s41567-023-02240-y
*137 Joonho Lee et al.、Generalized Unitary Coupled Cluster Wavefunctions for Quantum Computation、https://arxiv.org/pdf/1810.02327.pdf
*138 Zhenyu Cai et al.、Quantum Error Mitigation、https://arxiv.org/pdf/2210.00921.pdf
*139 https://www.eetasia.com/novel-memory-architecture-bolsters-security/
*140 https://www.dendai.ac.jp/news/20231025-01.html
*141 https://www.t.u-tokyo.ac.jp/press/pr2023-11-23-001
*142 https://www.tohoku.ac.jp/japanese/2023/12/press20231219-02-annealing.html
*143 https://www.hiroshima-u.ac.jp/system/files/224731/ABS2-release3.pdf
*144 https://pr.fujitsu.com/jp/news/2024/01/23.html
*145 https://www.rohm.co.jp/news-detail?news-title=2023-12-05_news&defaultGroupId=false
*146 https://www.jst.go.jp/pr/announce/20240314-3/index.html
*147 https://btq.com/blog/quantum-energy-advantage
*148 https://alice-bob.com/blog/more-quantum-computing-with-fewer-qubits-meet-our-new-error-correction-code/
*149 M.Cerezo et al.、Challenges and opportunities in quantum machine learning、https://www.nature.com/articles/s43588-022-00311-3
*150 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/24/2404-02.html
*151 Nobuyuki Yoshioka et al.、Hunting for quantum-classical crossover in condensed matter problems、https://www.nature.com/articles/s41534-024-00839-4
*152 https://www.quantinuum.com/news/quantinuums-h-series-hits-56-physical-qubits-that-are-all-to-all-connected-and-departs-the-era-of-classical-simulation
*153 Natasha Sachdeva et al.、Quantum optimization using a 127-qubit gate-model IBM quantum computer can outperform quantum annealers for nontrivial binary optimization problems、https://arxiv.org/pdf/2406.01743

【参考資料】 
1 藤井啓祐、驚異の量子コンピューター―宇宙最強マシンへの挑戦、岩波書店、2019
2 寺師弘二、量子機械学習のHEP応用、2020年8月12日(https://indico.cern.ch/event/929823/contributions/3908946/attachments/2086997/3506325/QML_Terascale_120820.pdf)
3 http://lab.inf.shizuoka.ac.jp/masakiowari/research.html
4 初貝安弘、トポロジカル秩序と幾何学的位相、平成23年9月5日版(http://rhodia.ph.tsukuba.ac.jp/~hatsugai/modules/pico/PDF/kaisetsu/Hatsugai-Kaishi-Sep5w.pdf)
5 羽部哲朗、トポロジカル物質-バンドのトポロジー理論-(https://www.topo.hokudai.ac.jp/education/SpecialLecture/121102.pdf)
6 佐藤昌利、トポロジカル超伝導体入門(https://core.ac.uk/download/pdf/39295805.pdf)
7 加藤公一、量子コンピューターを用いた数値積分計算について(https://www.unisys.co.jp/tec_info/tr90/9003.pdf)
8 宇野隼平、量子コンピューターを用いた高速数値積分、みずほ情報総研技報 Vol.10 No.1(2019年10月)(https://www.mizuho-ir.co.jp/publication/giho/pdf/010_01.pdf)
9 羽田野直道、ハバート模型の量子モンテカルロ・アルゴリズム(https://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/94585/1/KJ00004788834.pdf)
10 大関真之(監訳)、量子コンピュータによる機械学習、共立出版、2020
11 宇野隼平、ノイズのある量子コンピュータ上での量子振幅推定、みずほリサーチ&テクノロジーズ 技報 Vol.1 No.1(2021年8月)(https://www.mizuho-rt.co.jp/publication/giho/pdf/mhrt001_05.pdf)
12 長田有登・山崎歴舟・野口篤史、Q-LEAP量子技術教育プログラム 量子技術序論、2021年3月 (https://www.sqei.c.u-tokyo.ac.jp/qed/QEd_textbook.pdf)


お問い合わせ
  

TOP