量子コンピューターの戦略設計
(1) ボソン・サンプリングは当初、量子的な優位性を実証するための問題として純粋に導入されたが、化学(分子振動スペクトルの計算、2015年)や数学(グラフ類似性、2020年)に応用できることが発見された[*106]。よくある話である。また、BTQ Technologies(リヒテンシュタイン)他の研究者によると、ボソン・サンプリングは、ブロックチェーンのコンセンサス・アルゴリズム(プルーフ・オブ・ワーク:PoW)として機能する可能性がある(arXivで23年5月31日、論文[*112]公開)。👉PoWにボソン・サンプリングが適用できることを実証した、とブログ[*147]に投稿(24年3月13日)。エネルギー効率が高いと喧伝するが、その起源は計算速度なので、堂々巡り。
(2) 沖縄科学技術大学院大学の研究者は、ボソンサンプリングに対する、実用的な応用例を初めて示したと主張(プレスリリース25年6月25日、論文[*213]発表は25年5月28日)。画像識別に適用した。量子特徴量を使うことで、画像識別タスクの性能を上げたという解釈ができるだろう。ボソン・サンプリングを使って、量子特徴量空間を構築する。
【1】 量子コンピューターの勝ち筋
【2】 勝ち筋の、戦略設計
【3】 吉野家の牛丼とかけて、量子機械学習と解く。その心は?
【4】 急募(QUBO)のみ対応で、NP困難も苦手?
【5】 金融分野における量子コンピューター活用の戦略設計
❚Appendix❚
【A6】調査(24年春,夏)✙白書(24年末)
✙MITREレポート(25年1月)✙OECDレポート(25年1月)✙NQCCレポート(25年3月)✙A&B他(25年9月)✙WEFとアクセンチュア(25年10月)✙ノボHDs量子投資アニュアル・レビュー(25年11月)✙米中経済安全保障検討委員会2025 Annual Report(25年11月)
【A1】若干の準備 【A2】量子誤り訂正と量子誤り緩和
【A3】歴史に学ぶ~コンピューターの導入史 【A4】IBMが語る超伝導型量子コンピュータの未来
量子コンピューターは、国家戦略上重要な技術体系と位置づけられているから、ビジネス実装されて、日本の産業競争力向上に貢献するべきである。国内サービスの品質向上といった矮小化された目標を考えるべきではない。そのためには、戦略目標を明確にする必要がある。そこまで大仰に構えなくても良いのでは、という考えもあるだろう。しかし、「技術で勝って、事業で負ける」という、日本のお家芸を防ぐには、少なくとも予め、勝ち筋を考え抜くべきであろう。
なお、誤り耐性量子ゲート方式量子コンピューター(FTQC)は実現しないと想定して、FTQCへの研究開発投資を疑問視する向きもあるが、少なくとも以下の3点で、否定すべきと思われる。①FTQC実現に向けた研究開発を行わなければ、「副産物」として得られるはずの、量子インスパイアード技術が得られない。それは、日本の国際競争力を考える上で、望ましくない。②FTQCを実現するためには、高度で精密なエンジニアリング力が要求される。FTQC実現に向けた研究開発を行わず、高度で精密なエンジニアリング力で諸外国に劣後することは、日本の国際競争力を考える上で、望ましくない。③量子インターネット及び量子暗号と親和性が高い「光量子コンピューター」に関する各種知見において、対中国(及び対米国)で優位性を保つことは、経済上の意味を越えた戦略的重要性を持つと思われる。その重要性は、誤り耐性光量子コンピューターが実現しなくても、変わらない。
(1) 戦略設計
戦略を設計するために、量子コンピューターの出自を知ることは有用である。出自から量子コンピューターの勝ち筋を2つ導き、戦略を設計する。勝ち筋とは、量子コンピューターが古典コンピューターに比べて、本質的な競争優位性を確保している適用分野を指している。
それとは別に、産業に与えるインパクトが大きなテーマについても、戦略設計を試みる。
(2) 長期戦略
量子コンピューターを国家戦略に位置づけるならば、基礎研究への長期的かつ重点的な投資が必要である。基礎研究の結果をビジネスに実装できる人材の配備が、重要なことは、言うまでもない。
数学であれば、「幾何学的ラングランズ予想」が挙げられるだろう🐾。幾何学的ラングランズ予想は、量子ホール効果のバルク・エッジ対応が成立する仕組みを数学的に示している[*1]。トポロジカル物質の本質であると考えられるバルク・エッジ対応を説明する数学理論としては、アティヤ・シンガー指数定理がある。バルク・エッジ対応は、K理論ともかかわりが深い。幾何学的ラングランズ予想(数学の大統一理論)は、M理論(≃物理の大統一理論)とも深くかかわっている。これらの分野は、重点的に資源投入すべき数学分野と思われる。
物理であれば、高エネルギー実験・素粒子実験が挙げられるだろう。量子データを量子アルゴリズムで学習する、量子機械学習(類型論でいうところのQQアプローチに相当。QQMLとする。)は、古典データを古典アルゴリズム(類型論でいうところのCCアプローチに相当。いわゆる普通のML。)あるいは量子アルゴリズム(類型論でいうところのCQアプローチに相当。CQMLとする。)で学習する機械学習の能力向上に、大きく貢献するだろう。なお、量子情報理論とゲージ重力対応(AdS/CFT対応)との結びつきは明らかであるものの、量子情報理論がゲージ重力対応の基礎メカニズムを明らかにする方向で、研究が進むと思われる。
🐾 幾何学的ラングランズ予想は、証明された(らしい)[*181]。証明した論文は5本で構成されていて、足し合わせると43 + 448 + 330 + 64 + 54 = 939頁になる。5月に発表されたらしいが、1~3本目の論文の"最新"の日付は、2024年9月11日。4本目は9月13日、5本目は9月16日。独マックスプランク数学研究所と米イェール大学の数学者を中心に研究が行われた。独マックスプランク数学研究所は、望月新一・京大数理解析研究所教授の宇宙際タイヒミュラー理論を批判する急先鋒、ピーター・ショルツ(ボン大学教授)が所長を務めている。
👉 2025年のブレークスルー賞(数学部門)を受賞するらしい。
量子コンピューターに関する初歩的な整理はAppendix 1を参照。量子誤り訂正(符号)に関しては、Appendix 2を参照。
【1】量子コンピューターの勝ち筋
結論を先取りすると、量子コンピューターが活躍する勝ち筋は、2つある。
(1) 計算にエネルギーは必要か?
ロルフ・ランダウア[*2]の「情報消去の原理」によれば、可逆計算はエネルギーを消費しない。従って、可逆演算だけで全ての演算を実行できれば、エネルギーを消費することなく計算が可能である。(一方で、情報消去に、エネルギー消費は避けられない。それは、マックスウェルの悪魔を情報理論向けにチューニングした思考実験により、レオ・シラードが明らかにした。)可逆演算だけで全ての演算を実行し、さらに演算結果のみを取り出す手法を考案したのは、MITのエドワード・フレドキンとトマッソ・トフォリであった。
この手法を実現するには、「可逆な物理プロセス」を見つける必要がある。米アルゴンヌ国立研究所の物理学者ポール・ベニオフは、可逆な物理プロセスとして、量子力学を提案し、理論化した(1980年~1981年)。これが、量子コンピューター誕生の第一歩である。なお、ベニオフは(次項に現れる)ドイチュ(※表記をドイチュに統一)とは、独立に量子版チューリング・マシンを定式化している。
つまり、エネルギーを消費しない計算を追及した結果として、量子コンピューターに辿り着いている。
(2) 君たちは、間違った物理を使っている!
ファインマンは、ランダウア、フレドキン、トフォリ等が主催した研究会で、「自然をコンピューターでシミュレーションしたければ、量子力学で動作するコンピューターを作製すべき」と述べた(1982年)。古典コンピューターで量子現象を忠実にシミュレートしようとすると、計算量が爆発して手に負えないという指摘である。同じころ、オックスフォード大学の物理学者デイビッド・ドイチュが、「君たちは、間違った物理を使っている」と指摘した。そして、「計算の原理は、古典的な論理演算に限定される必要はない」と気付いたドイチュは、チューリング・マシン(古典コンピューター)の量子版である、量子版チューリング・マシン[*3](量子コンピューター)を定式化した(1985年)。
つまり、シミュレーションの忠実さを追及した結果として、量子コンピューターに辿り着いている(シミュレーションの速さを追及した結果でないことに注意)。ドイチュは(BB84の二人、P.ショアと共に)、2022年の基礎物理学部門ブレークスルー賞を受賞した。
【2】勝ち筋の、戦略設計
(1) 超低消費電力計算という勝ち筋
ユーザー目線では、現行スパコンの能力は、まだまだ不十分である。にも関わらず、ノイマン・ボトルネックと消費電力が絡む障害によって、スパコンの高速化が止まるとユーザーは困る。そこで、現時点でスパコンが担っている革新インパクトを、量子コンピューターに承継する。平たく言うと、そういうルートである。もちろんハードウェア(デバイス)・ソフトウェア、アーキテクチャ含めて、日本がFTQCを独自に開発できることが、前提である。
1⃣ スパコン高速化の限界
スーパーコンピューター(スパコン)の定義は、各時代において圧倒的に速いコンピューターである。グーグルが量子超越性を示した2019年の実験で、ベンチマークとしたのは、IBMのサミットというスパコンであった。ここで述べたいことは量子超越性ではなく、スパコンの限界である[*107]。
演算速度に比べてメモリの出し入れ速度は遅い。このため、(フォンノイマン型)コンピューターの演算性能が十分に発揮できな問題は、フォンノイマン・ボトルネックと呼ばれて、コンピューターの黎明期から存在する。
ノイマン・ボトルネックの解消のために、メモリの高速化やメモリアーキテクチャの工夫等が、行われてきた。その中で、新たな問題となったのが消費電力の問題である。演算速度をなるべく犠牲にしないため、キャッシュメモリで使われるDRAMは、揮発性メモリである。このため、常に電力を消費し、高速なコンピューター(今の場合はスパコン)は、洒落にならないくらい電力を消費する(エクサスケールコンピュータは、原子力発電所2基分の電力が必要とも言われている[*4])。
2⃣ 限界の突破手法1
➊ ストーレージ・クラス・メモリ(SCM)
この問題を解決するアプローチとしてIBMが提唱したのがストレージクラスメモリSCMである。SCMの守備範囲は広いが、今の文脈では、DRAM並みの速度を持つ不揮発性メモリを開発して、キャッシュメモリ(L3、L4)として使いましょうということである。他にもSRAMであるL1、L2をMRAMで置き換えるという(苦戦中の)アプローチや、SRAMを3次元積層=大容量化して、L3やL4を不要にするというアプローチもある(こちらは既に実現している)。英国Blueshift Memoryは、同社が「ケンブリッジ・アーキテクチャ」と呼ぶ独自のチップ設計により、CPUとの通信を高速化し、データ保護を向上させる、よりスマートなメモリを作成している。特定のデータ中心のアプリケーションに対して、最大1,000倍高速なメモリアクセスが可能とする[*139]。
しかし、DRAM並みの速度を持つ不揮発性メモリの開発は難航を極めた。そんな中、インテルがOptane DC Persistent MemoryというSCMを開発した。Persistent Memoryの正確な正体は知られていないと思われるが、ReRAM(抵抗変化型メモリ)あるいは、相変化メモリー(PCM)と考えられている。ただし、インテルは7月28日に発表した2022年第2四半期の決算報告で、Optaneメモリビジネスを終了させていくことを明らかにした。SCMを使ったアプローチは、(少なくとも当面)とん挫したと考えられる。
SCMを使用したスパコンとしては、PFNのMN-3が知られている。ただ、PFNの取り組みは、インメモリーコンピューティングと捉えるべきであろう(⤵)。
なお、動作が素早い不揮発性メモリを使った消費電力低減策としては、動作が素早い不揮発性メモリでノーマリーオフ・コンピューティングを実現するというアプローチも存在する。
❷ インメモリー・コンピューティング
⓪ 日本のAIベンチャーとして知られるプリファード・ネットワークス(PFN)は、スパコンを自社開発している。MN-3は2020年6月に発表されたGreen500リストで世界第1位に認定されている(2020年11月は世界2位、2021年6月に再び世界1位)。スクラッチパッドメモリ・アーキテクチャを採用したMN-3は、Optane DC Persistent Memoryを各ノードに3テラバイトずつ搭載している[*5]。
① インメモリー・コンピューティングというアプローチでは例えば、東京大学生産技術研究所が中心となって、プロセッサの配線層上に強誘電体メモリを3次元集積する、という取り組みが進んでいる[*28]。AI処理に絞っても、低消費電力あるいはエッジの文脈でReRAM(パナソニックなど)やPCM(STマイクロエレクトロニクスなど)をAIチップに組み込む形でインメモリー・コンピューティングが実行されている。
② ReRAMを使ったインメモリーコンピューティングにおける新手法が、22年8月17日、natureにて公開された(A compute-in-memory chip based on resistive random-access memory[*84])。以前と異なる点は、アナログ方式で動作するところ。300万のメモリセルと数千のニューロンを含み、NeuRAMと呼称している。AIワークロードを強く意識しており、最大で1000倍エネルギー効率が高いという。精度は、MNISTで99.0%、CIFAR-10画像分類で85.7%、Google音声コマンド認識で84.7%を達成。また、ベイズモデルに基づく画像復元法では、70%の画像復元エラー低減を実現した。
③ 千葉工大は、スパイキングニューラルネットワークを用いたインメモリー・コンピューティング回路を提案している(22年11月24日)[*85]。
④ 米Sagence AI(旧Analog Inference)は、AI推論を対象としたアナログ・インメモリコンピューティングを手がけている。24年11月19日にステルス・モードから脱した。GPUと比較し、消費電力1/10を達成するという[*184]。日本のTDKが出資している。
⑤ 日本のフローディアが、インメモリー・コンピューティングに関する技術を開発している[*216]。SONOS構造のフラッシュメモリーを使う。
⑥ 東京大学は、ReRAMを使ったインメモリー・コンピューティング(Computation-in-Memory:CiM)において、多値記憶による大容量化と10年記憶の両立に成功した、と発表(25年9月11日)[*221]。
❸ LightSolver
① イスラエルのスタートアップLightSolver(2020年創業)は、レーザーベースのプロセッシング・ユニット(LPU)を発表した(23年5月9日[*109])。ざっくり言うと、NTTのコヒーレントイジングマシン(CIM)に近い。NP困難な最適化問題を解決することを目指した疑似量子コンピュータと考えられ、最適化問題はQUBO形式に変換される(CIMは光発振器で、イジングモデルを物理実装していた)。LightSolverのLPUは、具体的には、以下のようなステップを経て解を得る。
最適化問題の各変数は、専用レーザーに割り当てられ、レーザービットになる。→最適化問題の制約と相互作用は、レーザービット間の結合に変換される。→最適化問題を実行すると、レーザービットは相互作用し、課された制約に従って変化し、望ましい状態に達し、解に収束する。→最後に、収束解を元の変数に変換する。
最大充足可能性問題(MAX-SAT)を(正確にはMAX-2-SATを)、深層学習アルゴリズムと比べて最大1000倍高速に解くことができた、とする[*110]。
② 欧州イノベーション会議(EIC)から、助成金€2.5mil+株式投資€10mil=€12.5milを獲得したと発表(24年8月7日)[*161]。
③ 該社(LightSolver)のコンピューティング技術を、米Ansysのシミュレーション・ソフトウェアLS-DYNAと統合したと発表(25年2月11日)[*188]。該社技術は、疎行列の並べ替え最適化に適用される❚補足❚。なお、米SynopsysによるAnsysの買収(金額は、およそUS$35bil)が、25年7月17日に完了した‖為参考‖。
❚補足❚ LS-DYNAは有限要素法を使った構造解析ソフト(流体解析も可能らしい)。有限要素法では、偏微分方程式を、疎行列を係数とする連立一次方程式に変換して解を得る。疎行列を係数とする連立一次方程式を直接法で解く場合、疎行列は三角行列に分解される。このとき、疎行列ではゼロだった行列要素に非ゼロが現れることがある(フィルイン)。フィルインを最小化するために、疎行列の行番号や列番号を並び替える処理を行う。この処理(リ・オーダリング)の最適化に該社技術を使う(ということらしい)。
👔補足の補足👔 Ansysは、デフォルト仕様のヒューリスティクス🐾1に代えて、変分量子虚時間発展アルゴリズム(VarQITE)🐾2をリ・オーダリング最適化に使う🐾2と、計算時間が(最大で)約12%削減される🐾3と発表した(25年3月17日@arXiv[*192])。ここでいう計算時間は、wall-clock time(WCT:経過実時間)。すなわち、タスクが終了した時刻とタスクが開始した時刻の差🐾4。ただし、WCTが削減できたのは「血液ポンプ」を解析した場合のみである。ルーフ・クラッシュ🐾5解析と、振動解析🐾6では、計算時間が増えている。"量子優位性"が、特定ケースに限定されるというパターンが、ここでも見られる。
🐾1 具体的には、明示されていない。ただ、ハイパーグラフ分割問題に対する代表的なヒューリスティクスとして、Kernighan-Lin(カーニハン-リン)アルゴリズムと、Fiduccia-Mattheyses(フィデュッチア-マッセイセス)アルゴリズムがあげられている。
🐾2 言わずもがな、最適化問題を、(最適化問題を符号化した)ハミルトニアンの基底状態を探索する問題に変換している。虚時間発展法では、十分な時間発展を行うと固有エネルギーの差が指数的に減衰するので、基底状態を効率的に求めることができる。ただし、虚時間発展演算子はユニタリ演算子ではないので、量子コンピューターには実装できない。そこで、VarQITEでは、パラメータ付き量子回路(アンザッツ)で虚時間発展演算子を『近似』する、というアプローチを採用する。
🐾3 IonQのノイズなし状態ベクトル・シミュレータを使った、シミュレーション結果。シミュレーション結果ではあるものの、実用的に意味のあるアプリケーションで、量子優位性が初めて示された、と言えなくもない。
🐾4 「タスクの始まりから終わりまで」ではあるが、当然これは、「エンドツーエンド」を意味していない。状態準備から結果の読出しまで含めたエンドツーエンドで、量子優位性を示すまでの道のりは遠い。
🐾5 事故で自動車が転覆し、屋根部分が押しつぶされる状況を、ルーフ・クラッシュという。[*192]では、トヨタ・プリウス(のデータ)に対して行われた。
🐾6 [*192]では、ホンダ・アコード(のデータ)に対して、行われた。
‖為参考‖
一聞ではピンとこないかもしれない、EDAツール・ベンダーのSynopsysが数値解析ツール・ベンダーのAnsysを買収する理由は、次の例でピンと来るだろう:3次元積層メモリ(の設計)やチップレット(の設計)では熱管理が極めて重要であり、従って、熱解析シミュレーションが重要である。
SynopsysのライバルCadence Design Systemsも数値解析事業を買収している。瑞Hexagonの設計&エンジニアリング事業をUS$316milで買収すると発表(25年9月4日)。同事業は、Nastran、Adamsを保有している。
④ LPUで偏微分方程式を解く数学的枠組みを確立した、と発表(25年7月27日)[*225]。偏微分演算子と境界条件をLPUで表現し、反復計算を行う。
❹ 負性容量トランジスタ
集積回路の低消費電力化を実現するにはトランジスタを駆動する電源電圧を下げることが最も効果的とされる。そのためには、トランジスタを急峻にスイッチさせる必要がある。その急峻さを表現する指標として、サブスレッショルド係数(SS係数)が知られている。ただ、MOSFETのSS係数には、(室温で)が60mV/桁†1という、統計物理から導かれる理論限界が存在する(ので、急峻さに限界がある)。つまり、この限界は、MOSFETではない新たなトランジスタ構造でなければ、打破できない。そのような新しいトランジスタとして、負性容量トランジスタ(NCFET)がある。NCFETは、強誘電体(薄膜)をゲート絶縁膜とすることで実現できる。二酸化ハフニウム(HfO2)という優れた強誘電体の登場により、NCFETは現実的になった、とされる。
スイスの量子技術スタートアップTerra Quantum(TQ)は、ファウンドリー・グレード†2のNCFETの製造と検証に成功したと発表した(25年7月14日)[*214]。SS係数は、30mV/桁未満を達成した、と主張。さらに、MOSFETより40倍速く動作し、1/20のエネルギー(0.5フェムト・ジュール)で動作する、と主張している。言わずもがなであるが、CPUのみならず、GPUにも適用可能である。TQのビジネスモデルとしては、IPライセンスが想定されている。ちなみに、独ブランデンブルク政策投資銀行を通じて管理されている欧州地域開発基金(ERDF)†3から、資金提供を受けている。
†1 ここで言う桁とは、電流が10倍になる、という意味である。英語では、decadeという単語(あるいは略してdec)が充てられている。
†2 シリコン基板を使い、CMOSプロセスで製造可能、という意味であろう。
†3 元々は、EU内の裕福な地域と、そうでない地域の富の再配分を行うために(1975年に)設立された基金らしい。インフラ整備、雇用創出、生産投資、地域開発プロジェクト、中小企業の事業活動支援が投資対象。出所https://www.jetro.go.jp/ext_images/jfile/report/07000469/eurotrend_chikikaihatsu.pdf
❺ Q.ANT
① アナログ・フォトニック・コンピューティングを手掛けている独スタートアップ。2018年設立。高性能コンピューティング(HPC)の主要国際会議であるISC 2025にて、デモンストレーションを行った(2025年6月4日)。独自の薄膜ニオブ酸リチウム(TFLN)フォトニックチップを使って、複雑な非線形数学演算を光領域で直接実行する。データセンターフレームワークにおいてラックあたりのコンピューティング密度を最大100倍向上、アプリケーションあたりの消費電力を最大1/90に削減できる、と主張[*217]。
② シリーズAで、€62milを調達したと発表(25年7月17日)[*218]。
③ 独ライプニッツ・スパコン・センターに該社のアナログ光プロセッサを納入したことを発表(25年7月22日)[*219]。運用中のHPC環境に光プロセッサを統合するのは、初とする。
④ 第2世代フォトニックプロセッサQ.ANT NPU 2を発表(25年11月18日)[*237]。
❻ その他
① 米xtellix[*100]は、量子ニューロモルフィックにインスパイアされたアルゴリズムを発表する予定と発表した(23年2月7日)。スパコンで5日を要していた降雨・浸水予想モデルの計算を、2秒に短縮できたと主張している。
② 米テューレーン大学(ルイジアナ州ニューオーリンズ)の研究者は「計算可能な最小システムが、単一原子のレベルで実在し、計算は純粋に光学プロセスで実行できる」ことを示した[*104]。
③ 英ランカスター大学のスピンアウト・スタートアップQUINAS Technologyは、Ultraram™という不揮発性メモリーを開発している。フラッシュメモリと同様に、浮遊ゲートに電子を蓄える。ただし、ウルトラRAMは量子井戸に電荷を蓄え、量子井戸間の共鳴量子トンネル効果により、電荷を移動させる。量子トンネル効果の使用により、DRAN以上の高速性かつ耐久性(持久力)を持つメモリとなっている(と主張)。耐久性については、1千万回の書き込み/消去が可能とする。フラッシュの耐久性は、MLC(マルチ・レベル・セル)タイプで、およそ1万回とされる。なお、材料にはⅢ-V化合物半導体(GaSb、InAsやAlSb)を使用する。
2025 WIPO Global Awards Winnersに選ばれている(☞https://www.wipo.int/web/awards/global/2025)。
④ 米スタートアップEfficient Computerは、Electron E1評価キット(EVK)の提供開始を発表した(25年12月9日)[*239]。Electron E1は該社のFabricアーキテクチャに基づいて開発されたCPUである。Fabricアーキテクチャは、超省エネルギーを実現するプロセッサ・アーキテクチャで、フォン・ノイマン型を否定したアーキテクチャである。フォン・ノイマン型アーキテクチャは、サイクル毎にプログラム命令とデータを非効率的にシャッフルするらしい。そして、このプロセスは「しばしば非効率であり、多くの場合、非常に低速である」と該社は主張する。対して、Fabricでは「プログラム・コードは、データフローグラフに変換され、最大限の効率性が実現するように最適化される」らしい。結果としてElectron E1は、(Arm製含む)従来CPUに比べ100倍のエネルギー効率を達成する、と該社は主張する。
3⃣ 限界の突破手法2
メモリでスパコンの限界を突破するという前項とは異なるアプローチが、計算速度を上げるというアプローチである。
機械学習とシミュレーションを組み合わせて(観測データand/orシミュレーション結果で、機械学習モデルを学習させて)、高速化を目指す代理モデルというアプローチが存在する。科学技術計算では、Physics-Informed Neural Network(PINNs)と呼ばれるアプローチが存在する。PINNsについては、こちらを参照。ちなみに、仏Pasqal(中性原子方式の量子H/Wベンダー)はPINNsに独自の強みを持つと言われている。
日本では、科学計算総合研究所(RICOS)という企業が、グラフニューラルネットワーク(GCN)を使ってシミュレーション結果を高速・高精度に予測する技術を有する[*80]。従来の代理モデルでは、畳み込みニューラルネットワーク(CNN)を適用することが多かった。しかしCNNは、直交格子のメッシュ形状にモデルが制限されていた。一方、GNNには、このような制約がないため、汎用性が高い。
4⃣ 量子コンピューターという選択肢
フォンノイマン・ボトルネックを解消する、深層学習を利用して計算の高速化をはかる、とは異次元のアプローチで、高速かつ低消費電力の計算を実現するのが量子コンピューターである。先にあげたNNSAが探るポスト・エクサ級技術候補には、当然、量子コンピュータが含まれている。量子コンピューターはエネルギーを消費しない計算が可能だからである。もっとも、量子コンピューター全体でエネルギー消費ゼロというわけではない。例えば、代表的な量子ビットである超伝導量子ビットは極低温を維持する必要があり、電力を消費する⚔。
重要なポイントは、計算速度が速くなる将来のロードマップが示されているのであれば、量子コンピューターの計算速度がスパコンと同程度であったとしても、置き換えるという選択肢に意味はあるという主張である。従来型スパコンの進化が頭打ちになることが見えているからである[*128]。量子コンピューターの超低消費電力という特徴を活かして、(機械)学習モデル構築のコストを100万分の1あるいは1000万分の1にする[*29]という方向も、このカテゴリーに入る。
⚔ 量子コンピューターは、本当にエネルギー消費量が古典コンピュータより少ないのか?
㈠ [*148]では、1,000物理量子ビットの(超伝導方式)量子コンピュータを稼働させるのに50kW必要(1物理量子ビットに換算すれば50W)。量子誤り訂正符号として表面符号を前提とすると、実用的な計算を可能とするには、100万物理量子ビットが必要とされる。単純にスケールさせると、50メガ・ワットが必要となる。これは、いわゆる原発1基分!つまり、これ(技術革新がない、モダリティとして超伝導方式を仮定)だと、話が随分違ってくる。
[*170]では、超伝導方式の1物理量子ビットを操作するには、10Wが必要と書かれている。つまり、[*148]の1/5。
㈡ 米Quantinuum(イオントラップ方式H/Wベンダー)は、該社の量子プロセッサH2-1で、ランダム回路サンプリングに要する電力(消費電力)は、スパコンの「3万分の1」であると発表した(24年6月5日@公式ブログ[*152])。H2-1は32量子ビットから56量子ビットにアップグレードされた。2量子ビットゲートの忠実度は99.9%と主張している。
㈢ 中国の研究者は、「ランダム量子回路サンプリングにおいて、(Googleの)Sycamoreを速度と”電力消費量”の両方で上回った」と主張する論文を発表した(24年6月30日)。下記🦅追 記🐼〖2〗を参照。
㈣ フランスは、「量子回路のエネルギー最適化(OECQ)」プロジェクトを始動する(24年7月10日)[*155]。これは、量子処理ユニット(QPU)周りの補助デバイスを含めた量子コンピューターのスタック全体にわたるエネルギー消費を包括的に測定し、量子コンピューティングにおけるエネルギー消費を最適化するプロジェクトである。EDF🐾1、アリス&ボブ🐾2、Quandela🐾3、CNRS🐾4がメンバー。予算は€6.1mil。
🐾1 フランス電力公社。23年6月に(再び)国有化された(仏政府が100%の株式を保有)。
🐾2 モダリティ=超伝導。
🐾3 モダリティ=光。
🐾4 フランス国立科学研究センター。
🦅追 記🐼
〖1〗2019年にGoogleが達成を発表し、直後にIBMが反論した、量子超越性は「ランダム量子回路サンプリング」という問題で検証された。エクサスケールのスパコンがあれば、テンソルネットワークを使用することで、同問題がより"早く解ける"という論文[*129]が発表された(arXiv(ver,1)が21年10月27日、ver.2は同年11月22日)。Googleの量子コンピュータが200秒であるに対して、スパコンは304秒という。論文の著者は『「縮約の順序(contraction path)」計算に使ったソフトウェアCoTenGraの性能が低いため、"304秒"も要したのであり、カスタマイズすれば4~5倍速くなる』と主張している。
〖2〗中国の上海AI研究所他🐾の研究者は、「ランダム量子回路サンプリングにおいて、(Googleの)Sycamoreを速度と電力消費量の両方で上回った」と主張する論文を発表した(24年6月30日@arXiv[*154])。やはり、テンソルネットワーク(TN)を活用する。時間は600秒→17.18秒に、電力消費量は4.3kWh→0.29kWhに削減した。キモは、通信オーバーヘッドの削減である。TNはタスクを細分化して、並列処理を行うことで高速化を目指す。並列処理には、GPUを活用する。ただし、タスク細分化は通信オーバーヘッドをもたらす。ザックリ言うと[*154]では、"量子化"で通信オーバーヘッドを削減している。この場合の量子化は、「数値の精度を落とす」意味である。通信用及び計算用のデータを、単精度浮動小数点データから半精度浮動小数点データに変換している。加えて、ノード間通信の一部をノード内通信で肩代わりすることでも、通信オーバーヘッドを削減している。計算時間はともかく、消費電力で古典コンピュータに負けるとは、衝撃的。
🐾 他=中国科学技術大学、中国科学院。
5⃣ 戦略設計
戦略目標は、古典コンピューターでは継続性が危ぶまれる、高速高性能な計算環境を継続的に提供することで、日本の産業競争力向上を支援することである。
現行スパコンが担っている全ての計算を量子コンピューターに移管する前提なので、FTQCが要求される。古典コンピューターとのインターフェースの最適化、量子誤り訂正の実装に向けたスケーラブルなハードウェア構成と設計方法の確立が要求される。実現時期は、かなり先である。
ユーザー目線に立てば、スパコンからスムーズに移行できることが望ましい。つまり、従来のコードがそのまま実行できて、検証ができることが望ましい。そのためのソフトウェア環境に加えて、使い勝手の良いソフトウェア開発キット(SDK)、デバッガ、検証ツールなどを揃える必要がある。
(2) 量子現象を忠実にシミュレートするという勝ち筋
日本が競争優位を保持する産業では特に、量子コンピューターを使った量子現象のシミュレーションを産業競争力に結びつける努力が欠かせない。
① マテリアルズ・インフォマティクスの衝撃
量子化学計算(QC)・分子動力学法(MD)・分子軌道法(MO)は量子コンピューターの宗家である。そしてQC・MD・MOは、材料開発及び創薬支援に貢献しうる。素材開発分野では、スパコン時代においてさえ、マテリアルズ・インフォマティクス(MI)が衝撃を与えた。2012年、マサチューセッツ工科大学とサムスン電子はMIを用い、わずか数年で、従来の材料が持つ問題点を克服した、リチウムイオン電池の新しい固体電解質材料を発見した。
MIとは統計分析などを活用したインフォマティクスの手法により、材料開発を高効率化する取り組みである。従来の材料開発は、研究者の勘と経験と知識に基づいており、日本が圧倒的に強い分野であった。しかし、材料データベースの整備が進展し、AI関連技術が急速に発達したことで、MIが実用レベルに達した。それが量子コンピューターによって、さらに加速することは間違いない。
② 基底状態を求める量子古典ハイブリッドアルゴリズム
量子化学シミュレーションの分野は宗家だけあって、すでに有力な量子古典ハイブリッドアルゴリズムが存在する。その代表例は、VQE(variational quantum eigenvalue solver)である。VQEは変分法である。variationalは変分法、変分原理を意味している。eigenvalueは固有値である。変分法は、元の系が無限大の次元を持っていたとしても、ハミルトニアンを有限の行列として表現する(有限の基底空間でハミルトニアンを考える)ことで、対角化を経て、近似解(固有値=固有エネルギー)を得ることができる。つまりNISQのように、量子ビットが少ない量子コンピューターに適合した解法、ということになる。
VQEは、ザパタ・コンピューティング[*6]の共同創業者で、トロント大学化学科(2018年6月までは、ハーバード大学化学科)のアラン・アスプル=グジック教授他が、2014年に発表した論文の中で提示した。VQE は古典アルゴリズムに比べて高速であると証明されているわけではない。
③ 励起状態を求める量子古典ハイブリッドアルゴリズム
VQEはもともと量子化学の分野で、分子の基底状態を探索するアルゴリズムとして開発されたため、有用範囲が限定的である。以下にような、実用的な励起状態まで求められるアルゴリズムも存在する。シュレーディンガー方程式の解は、完全系を成す直交基底となる。つまり、基底状態と励起状態(第一励起状態、第二励起状態、・・・)は全て直交している。これを逐次的に利用する。つまり、基底状態と直交する関数のうちで、固有値が最小のものを探すことにより、第一励起状態が得られる。また、それらと直交する関数から、固有値が最小のものを探せば第二励起状態が得られる。
(本質的なアイデアは同じであるが)他に、qEOM-VQE法、VQD(Variational Quantum Deflation)法あるいは、米国のQCウェアが開発したMC (multistate-contracted)-VQE法などがある。
励起状態は、基底状態及び、より低位の励起状態と直交するという性質を利用することは同じであるが、㊀日本のキュナシス社[*7]が開発した、低エネルギーの部分空間を求めるSS-VQE(部分空間探索VQE)は、次のようなステップを踏む[*8]。i) 互いに直交する、複数の初期状態を準備する。初期状態はインデックスで分別する。ii) 夫々の初期状態に適当な量子回路U(θ)を作用させ、試行状態を生成する。試行状態もインデックスで分別される。iii) コスト関数を最小化するようにθを決定する。コスト関数は、インデックスに対応する重みが付いている。iv) 収束したθにおいて、0番目のインデックスに対応する試行状態が基底状態。1番目の試行状態が、1番目の励起状態である。
㊁三菱ケミカルグループ、慶應義塾大学、日本IBMは、分子の励起状態エネルギーを求める新しいアルゴリズムを開発したと発表した(23年2月9日)[*99]。(先にも上がった)VQD法におけるパラメータを無視できるような制約条件をつけることで、対象分子の構造に依存せず、共通して適用可能なアルゴリズムの開発に成功した。制約条件自動調整変分量子固有値法(VQE/AC法)と名付けられた。
④ VQE×機械学習(量子回路学習)
VQEを高速化する試みとして、機械学習とVQEの融合というアプローチがある。以下は、(日本発の量子機械学習である)量子回路学習とVQEのコラボである。
例えば、ある物理量Aが様々な値を取ることに伴う基底エネルギーの変化を、VQEによって求めるプロセスは、逐次プロセスとなる。つまり、Aの個々の値Ai (i=1,2,・・・,n)に応じてハミルトニアンを構成し、その各ハミルトニアンにVQEを適用して、基底エネルギーの変化を求める。最適化計算は古典コンピュータを使うのが常套手段であるが、そこに量子コンピュータ(NISQ)を使うところが面白い。
上記の逐次プロセスを、以下のようなプロセスで置き換えれば、機械学習(正確には、量子回路学習QCL)で置き換えたことになるだろう[*9]。a) Aiを、量子回路(ユニタリ作用素)のパラメータθに反映させる。b) 「Aiとθ(Ai)」という"データセット"を少数用意する(例えばi=1,2,・・・,m)。c) この少数のデータセットで学習することで、未知のAi (例えばi=m,m+1,・・・,n)に対しても、パラメータθを出力するモデルを構築する。d) c)のモデル利用して、未知のAiに対しても、基底エネルギーを出力するモデルを構築する。
a)の量子回路の工夫、及びc)のモデルの工夫次第で、単純なVQEより高速なアルゴリズムになることが期待されている。
⑤ 実用的な材料での量子古典ハイブリッドアルゴリズムの実用化
量子古典ハイブリッドアルゴリズムの開発や機械学習との融合などで、一定のグローバル・プレゼンスを有すると考えられる日本は、結果も出している。量子コンピューターを用いた実用材料の励起状態計算に、世界で初めて成功したという発表が、2021年5月26日に行われた[*10]。三菱ケミカル、JSR、日本IBMおよび慶應義塾大学の成果。このグループには、キュナシスも加わっている。
実用材料とは、有機EL発光材料の一つである TADF である。励起状態を扱える量子古典ハイブリッドアルゴリズムを用いた上で、「量子トモグラフィー」をベースとした、新しい量子誤り緩和手法を導入した。
⑥材料開発・創薬支援における量子化学計算(QC)と深層学習(DL)の立ち位置
材料開発あるいは創薬において、QCだけで完結できるケースは、まずないだろう。例えば、有機化合物の素材開発であれば、合成条件(パラメータ)を同定する必要がある。そして、パラメータの同定をQCの結果だけで行うことは、ほぼ不可能である。このように、製品化(あるいは上市)までには、QCだけでは対応できない、様々なステップが存在する。AIであれば、ラストワンマイルを越えてマーケティングまでカバーできる。いずれにしても、材料開発あるいは創薬支援における正しいフォーメーションは、QC×DLとなるだろう。
データが不十分な場合はQCで補い、適当量のデータが集まれば、それを訓練データとして(まずは古典的、いずれ量子的)DLモデルを構築する。構築したDLモデルで、物性予測や合成条件のパラメータ同定などが可能となる。実際、そのアプローチが実施されている。研究成果は、こちらにまとめた。
商業ベースの話題としては、プリファード・ネットワークスとエネオスは、2021年7月6日、汎用原子レベルシミュレーター「Matlantis(マトランティス)」を開発し、クラウドでのサービス提供を開始したと発表している[*25]。マトランティスは、QC(材料開発の文脈では、密度汎関数法DFT)を実行せずに、DFTを実行して得られる物性値を、深層学習を使って得ることが出来る。
最後に、創薬支援におけるQCとDLの立ち位置を整理する。化合物による医薬品開発を考えた場合、疾患に関与する(生体内)タンパク質との相互作用が強い化合物が、有力な医薬品候補として選択される。つまり、結合自由エネルギーの大きさでスクリーニングを行う。メディアではバイオ医薬品が注目されているが、低分子化合物は、医薬品の候補物質として今後も引き続き重要と考えられている。例えば、抗がん剤として有望なアプローチである抗体薬物複合体(ADC)に用いられる薬物は、低分子化合物(あるいは中分子化合物)である。最近(~22年央)話題の、タンパク質分解薬も低分子化合物である。
タンパク質と化合物との相互作用を評価するアプローチは主に、3つある:a.ドッキングシミュレーション、b.分子動力学法(MD)、c.分子軌道法(MO)。a.はQCとは無関係である。
MDは、原子間の相互作用を古典近似しているために、精度が低い。b.に関するDLのトピックスは、MD+DLという合わせ技で精度と計算コストのバランスを取る、である。QCの結果得られる原子間の相互作用を再現するような深層学習システムが導入される。この場合の深層学習システムとしては、ニューラルネットワークポテンシャルNeural Network Potential(NNP)が広く用いられている。
MO法は、代数方程式を(近似的に)解くことでエネルギー固有値及び分子軌道(分子の波動関数)を求める。c.に関するDLのトピックスは、グラフ畳み込みニューラルネットワーク(GCN)あるいはメッセージパッシング・ニューラルネットワーク(MPNN)である。MPNNは、分子グラフから特徴抽出することによって、化学構造から、単一分子の物性を予測することを可能とする(既に、複数分子を組み合わせた材料に対する拡張も行われている)。2017年6月のグーグルの論文[*26]では、MPNNはDFT計算よりも、10万倍速く物性予測が可能と書かれている。
⑦ 戦略設計
既にある程度の成果が得られているものの、射程を、本格的な創薬支援や触媒の設計といったところまで延ばせば、道半ばであることは明確である。改めて戦略目標を明示すれば、それは、素材開発において日本が現在有しているグローバル競争力の維持及び強化である。触媒で言えば、脱炭素社会の実現に貢献する触媒の開発が戦略目標である。創薬では、作用機序が新しい医薬品候補を迅速に、臨床試験に送り込むことが戦略目標である。例:大日本住友製薬と英新興企業のExscientiaは、2020年1月30日、AIを活用して創製した強迫性障害治療薬に対する新薬候補化合物の臨床試験(フェーズ1)を日本で開始したと発表した。平均して4年半かかる探索研究を、12カ月未満で完了したという[*27]。
韓国が素材開発において日本の優位性を脅かした場合、その影響は電子部品に及び、さらには幅広い工業製品にまで波及する可能性がある。日本は、韓国さらには中国によって、そのようなシナリオが実現されることを防がなければならない。
素材開発において、量子コンピューターを使った量子化学シミュレーションは、必ずしも答えを提供する必要はない。開発スピードを促進・加速するヒントを提供できれば、十分に有用である。NISQで試行錯誤を繰り返し、ライブラリや「量子誤り緩和」を含む知的財産を積み上げることが、攻守両面で肝要である。FTQCまで待つ必然性は全くない。
⓪ 古典コンピュータとの比較において、QCが問題を解くのに、2週間以上要するアプリケーションは考えない。
① QCは古典コンピュータに対して、問題のサイズに漸近的に高速であることを鑑みると、2次加速では意味がない。超多項式の加速が必要である。
② QCは操作を実行するための出力帯域幅が制限されている。例:機械学習によく使用されるグラフィック処理ユニットなどの帯域幅の1/10,000しか処理できない。
③ 量子システムにデータを出し入れすることが大きなボトルネックであること、及び②を考慮すると、㊀大規模データセットでの機械学習、㊁大規模な連立(線形一次)方程式を解く気候予測、㊂Groverのアルゴリズムに依存する創薬アプローチ、等では古典コンピュータに対する優位性を示せない。
④ QCが優位性を示せるアプリケーションは『計算化学と材料科学に関連するアプリケーション』である。
━ 追記1 ━
MIT Technology Review🦅1は上記を踏まえた上で、計算化学と材料科学分野でも、「量子コンピューターが活躍する場面は、想定より少ないかもしれない」という内容の記事を掲載した(24年11月7日)[*176]。ニューラルネットワークが代替えするという主張である。弱相関電子系の多くは、DFT計算結果で学習させたニューラルネットワークで十分、とする。さらに、強相関電子系も、強化学習を使って基底状態を求めることができる[*177]ため、誤り耐性量子コンピューターが活躍する場面は少ないだろうと予想している。
🦅1 米マサチューセッツ工科大学(MIT)が所有するメディア企業Technology Review,Inc.が刊行する科学技術誌。
━ 追記2 ━
スタンフォード新興技術レビュー(Stanford Emerging Technology Review:SETR)🦅22025年版[*205]は、25年2月25日に公開された。191頁に及ぶレポートは、10の技術を取り上げているが、そこに、量子は存在しない。8.半導体の中で、わずかに言及されているのみである。しかも、その内容は『量子コンピューティングは、たとえ成功したとしても、「暗号、材料科学、複雑なシミュレーション」などの分野における特定の複雑な問題にしか役立たず、現在の半導体技術に取って代わることはないだろう』というもの→大きく紙幅を割くだけの価値はない、との判断だろう。
🦅2 フーヴァー研究所とスタンフォード大学(スクール・オブ・エンジニアリング)が著者である。SETRは、「意思決定者に、重要な新興技術が、どのように世界を変えているかについての包括的な概要を提供」する。なお、フーヴァー研究所は、スタンフォード大学の付属機関である。
━ 追記3 ━
米化学会(American Chemical Society:ACS)が発行する雑誌C&EN(Chemical & Engineering News)のWhite PaperとしてマイクロソフトがしたためたCHEMISTRY’S QUANTUM AGE IS NEARLY HERE. WHAT’S ON THE HORIZON?[*230]は、「論理量子ビット数が100を超えるNISQマシン向けに、量子化学分野で、どのようなアプリケーション開発を開始できるか」について議論している。その結果は、以下の通り:
⓪ 化学系のシミュレーションは(相互に関連する変数を伴う複雑な問題であると同時に)『比較的小規模なデータセットに依存する』問題でもある。これは量子コンピュータにとって理想的である。←データ・ローディングを鑑みて。
① 強相関電子系のシミュレーション
② 触媒反応のシミュレーション
③ ベンゼンのシミュレーション
❚閲覧推奨❚
東大・阪大は、物性シミュレーションにおいて、量子優位性が現れる物理量子ビット数が、105オーダーと推定した論文[*151]を発表した(24年4月29日)。詳細は、こちらを参照。
ブラジルのサンタマリア連邦大学の研究者は、「アンザッツの表現力は、変分量子アルゴリズムの精度(正確には、パラメータの探索能力)を抑制する」という論文(以下、本論文[*115])を発表した(23年6月20日)。変分量子アルゴリズムがピンとこなければ、量子機械学習に置き換えても良いだろう。
現時点で、現実的な量子コンピュータは、言わずもがなNISQマシンである。NISQマシンを前提とすれば、量子的手法を利用する最適化タスクは、変分量子回路を使った最適化タスクとなるだろう。この最適化タスクでは、コスト関数が最小となるようなパラメータが、古典コンピュータで探索・更新される。通常、1量子ビット回転ゲートが、パラメータ化された量子回路である(この場合のパラメータは、1量子ビット回転ゲートの角度)。
変分量子回路を使った最適化タスクにおけるパラメータの探索には、コスト関数の勾配が使用される。この方法では、回路規模が大きくなるにつれて、勾配が消失する(いわゆる「不毛な台地」)という問題が発生する。さらに、勾配消失は、パラメータ化量子回路(アンザッツ)の高い表現力にも関連していることが(2022年に)示されている。本論文は、アンザッツの表現力がコスト関数にどのような影響を与えるかを定量的に分析している。なお、表現力の定義は、「ヒルベルト空間をよく表す(純粋)状態を生成する量子回路の能力」である[*116]。
本論文の結果は『アンザッツの表現力が増加するほど、コスト関数の平均値が固定値Tr[O]/d に留まる』である。ここで、Trはトレース、Oはオブザーバブル、d=2n(nはアンザッツの量子ビット数)である。変分量子アルゴリズムでは、アンザッツの表現力と精度との間には相関関係があり、一般に表現力が高ければ高いほど、精度も高くなる、と信じられていた。しかし、本論文によると、アンザッツの表現力は、勾配消失現象と、直接関連している。つまり、アンザッツの表現力を高めたからと言って、精度は、必ずしも上がらない。別の表現を使うと、「探索能力を高めても、その探索能力が活かされない」。
この問題の根は、複雑である。つまり、勾配消失を避ける最適化方法を見つけても、解消されない。コスト関数自体が固定値周辺に集中するためである(そもそも、アンザッツの量子ビット数が大きくなれば、コスト関数は0に近づく)。
計算コストが高いQPEは、そもそもNISQでは無理ゲーだという意見もあるだろう。例えば、トヨタ北米先端研究所と加ザナドゥ🐾1は、量子(欠陥)埋め込み理論を使ってハミルトニアンの規模を小さくした上で、QPE🐾2を適用するという研究を行った[*173]🐾3。結論は、QPEがリソースを喰うから、量子(欠陥)埋め込み理論を使っても、NISQではキツイ(であると理解)。蛇足ながら『NISQでも使えるんです!』キャンペーン金融編であれば、JPモルガン・チェース及びAWSによる”ポートフォリオを細かく分割して実行する、ポートフォリオ最適化計算”[*174]がある🐾4。
🐾1 連続量の量子光を使った測定型量子計算方式の、量子コンピューターを開発しているカナダのスタートアップ。ザナドゥ自身より、ザナドゥが開発した、量子機械学習に特化した量子プログラミング用SDK(ソフトウェア開発キット)であるPennyLaneの方が有名かもしれない。
🐾2 オリジナル、つまり、(逆)量子フーリエ変換(QFT)を使ったQPEのようである。
🐾3 量子センサーを念頭に、物質の欠陥の光電子特性を評価するという内容。
🐾4 混合整数2次制約2次計画問題形式のポートフォリオ最適化問題を解く。ポートフォリオの分割には、制約条件の分割も含めている。
❚補足❚ 古典的シャドウ
量子状態に符号化されているシミュレーション結果を、サンプリング・ベースで読み取る手法の一つ。スコット・アーロンソンが考案した。古典的シャドウのモチベーションは、少ない測定回数でトモグラフィーを成功裏に実行することである。アーロンソンは、「量子系の完全な古典的記述を要求することは過剰であり、特定の性質(ターゲット関数)を正確に予測できれば十分な」こと、及び「ターゲット関数 は、密度行列ρの線形関数であることが多い」ことを指摘した。ここで、量子状態ρ自体が未知であっても、ρに対する最小の(=十分なサイズの)古典的スケッチSρ(古典的シャドウ)があれば、ターゲット関数は推定できるところが、肝である。古典的シャドウは、 「ユニタリー変換ρ → UρU†を適用し、計算基底の全ての量子ビットを測定する」という手順を繰り返す。Uは、ユニタリー演算子の”アンサンブル”からランダムに選ばれる(ところも重要)。測定回数は、システムサイズに依存しない。
測定結果に、古典的事後処理を適用することにより、複数の期待値を同時に推定する。サンプル複雑性(今の場合、意味のある結果を得るために必要な測定の数)を軽減できる、とされる。
2⃣ ロンドン大学キングス・カレッジ及びケンブリッジ大学(Alumni)の研究者は、ヘモシアニン🐾5という分子に対して、不純物アンダーソン模型(AIM)+動的平均場理論(DMFT)🐾6という座組でモデル構築し、VQEシミュレーション🐾7を実施した[*175](24年10月16日@arXiv)。VQEシミュレーションの精度には、アンザッツの選択が大きな影響を及ぼすとして、その影響などを調査している。
AIMとは、不純物サイトのみに相互作用が存在する模型(なので、軽い)。AIM+DMFTは、電子間相互作用のある格子系のモデルをAIMにマッピングして、AIMを(可能な限り正確に)解くことで、局所相関を高精度に取り入れた計算を行うことができる。正確に言えば、[*175]はマルチサイトAIMを適用している。マルチサイトAIMとは、AIMをマルチサイト化したAIMであり、非局所相関を取り入れることができる。
アンザッツは、UCCS🐾8アンザッツ、UCCSD🐾9アンザッツ、ハードウェア効率の良いアンザッツを使用した。アンザッツの選択結果は以下の通り:一般化🐾10UCCSアンザッツは、一般化UCCSDアンザッツよりも早く(つまり最も早く)正解に収束する。ハードウェア効率の良いアンザッツは、不毛な台地に収束した。スピン保存UCCSDアンザッツも比較的速やかに収束するが、途中でサチュる(不毛な台地に収束)。
🐾5 がん治療ワクチンの主要成分であり、表在性膀胱がん(膀胱表面の粘膜にとどまっており、膀胱の筋肉の層には広がっていない根の浅いがん)治療用の非特異的免疫刺激剤としても使用されている。また、一部の無脊椎動物の血液中の酸素を輸送するタンパク質でもある。
🐾6 AIMでは、動的平均場を、「bath」と呼ばれるフェルミオン(を表す生成消滅演算子)と局所電子(を表す生成消滅演算子)との混成によって表現する。
🐾7 H/Wは、IBM実機、Quantinuum実機、IBMの量子シミュレータ(ノイズあり/なし)。H/Wにqiskit VQE アルゴリズムを実装した。
🐾8 CCは結合クラスター法を意味する。Sは励起演算子を、一重励起(1電子励起)で打ち切ったことを意味する(結合クラスター法は励起演算子を用いて多電子波動関数を表現する)。Uは、ユニタリー量子回路に、結合クラスター法を実装することを意味している。
🐾9 Dは、2重励起(2電子励起)まで考慮することを意味する。
🐾10 ここで言う一般化とは、一重励起項と二重励起項が、占有軌道と非占有軌道を区別しないことを意味する(らしい)。
3⃣ 慶應義塾大学・富士フィルム・blueqatは、「分子量が大きい分子の量子化学計算に適用できるワークフロー」を開発した、と発表(24年12月3日)[*178]。分子量が大きい分子=ベンゼン、クロロベンゼン、ニトロベンゼン、である。「古典計算で問題のサイズを縮小し、量子計算に繋ぐ」という考え方は1⃣と共通。ただし量子アルゴリズムには、VQEではなく、反復量子位相推定法(IQPE)を採用している。VQEでなくOPEを採用した理由は、誤り耐性量子計算を見据えているから。QPEバリアントの中では、(日本発の)量子位相差推定法等も検討したが、IQPEは、補助量子ビットが1つで実装できるために選ばれた。IQPEの結果は、完全活性空間配置間相互作用法による結果と、ほぼ一致した。
4⃣ 米の量子H/WスタートアップInfleqtion(モダリティ:中性原子)は『論理量子ビット』を搭載した材料科学アプリケーションの世界初のデモンストレーションを発表した(24年12月10日)[*179]。NVIDIAのサイト[*180]によると、NVIDIA CUDA-Q プラットフォームを活用し、シカゴ大学およびウィスコンシン大学と共同で実施したこのデモンストレーションでは、論理量子ビットによる計算の誤り率が、物理量子ビットによる計算の誤り率の1/6であった。しかも、この計算は、強相関電子系モデルである不純物アンダーソン模型(AIM)に対して行われた。
各論理量子ビットは [[4,2,2]]量子誤り検出符号で符号化されている。2つの論理量子ビットが 4つの物理量子ビットとして符号化されている。ただ、量子誤りを検出して「破棄する」ことはできるが、訂正することはできない。
5⃣ ドイツの「グリーンエネルギー移行のための量子強化高性能コンピューティング(qHPC-GREEN)」プロジェクトでも、古典計算機とNISQマシンを組み合わせる。独連邦教育研究省が€1.8milを提供する(25年2月12日発表[*186])。詳細は開示されていないが、生物学的窒素固定(定温定圧でのアンモニア生産)のメカニズムを解明することが目的。弱い相関領域の計算をスパコンに、強い相関領域の計算をNISQに割り当てる。独ヘルムホルツセンター・ドレスデン・ローゼンドルフ研究所Center for Advanced Systems Understandingが主導する。IBMチューリッヒ研究所(スイス)、ウォーレンバーグ量子技術センター(スウェーデン)、Algorithmiq(フィンランド)、独ユーリッヒ・スーパーコンピューティング・センターが協働する。
6⃣ 日本のQuemix・旭化成・東京大学・量子科学技術研究開発機構は、古典的な取り扱いが困難である、「ウルツ鉱型🐾11窒化アルミニウムにおけるスピン欠陥のスピン1重項状態」の基底状態と励起状態を計算した(論文[*191]発表は、25年3月10日)。計算は各々の長所を活かし、古典計算と、それに続く量子計算の2段階で行う。㊀密度汎関数法に基づいて、大域的な電子構造を古典的に計算する(定番のQuantumエスプレッソを使用)。㊁制限乱雑位相近似(cRPA)を用いて、大域的な電子構造から「低エネルギー有効ハミルトニアン」を構築する。低エネルギー有効ハミルトニアンで表現されるモデルに量子アルゴリズムを適用して、基底状態と励起状態を求める。量子アルゴリズムには、確率的虚時間発展法(PITE)を採用。H/Wは、クオンティニュアムのNISQマシン(20量子ビット)実機とシミュレータを使った。
PITE法は2次加速を保証するが、多数のゲート操作が必要であり、量子誤り検出(QED)および量子誤り訂正(QEC)を組み込んでいない量子デバイスは、適していない。そこで本研究では、Iceberg符号と呼ばれる⟦n+2,n,2⟧QED符号を実装した。QED符号は、量子誤りの検出のみ可能で、量子誤り訂正はできない。中間回路測定で量子誤りが検出された量子ビットを破棄することで、量子計算の結果に量子誤りの影響が及ぶことを回避すること(すなわち、誤り耐性計算)が期待される。QED符号を使うことで、実際に成功確率が上がることが確認された。成功確率=成功状態が得られる確率、成功状態=入力状態が虚時間発展した状態=基底状態、である。
虚時間発展演算子はユニタリー演算子ではないので、ユニタリー演算子の中に埋め込んだ上で、ハードウェアに実装する必要がある。その上で、虚時間発展演算子の部分が作用した状態のみを抽出する必要がある。
🐾11 ウルツ鉱構造を有する窒化物は、優れた機能性物質。代表例としては、窒化ガリウム(GaN)、窒化アルミニウム(AlN)があげられる。
7⃣⃣ 米クオンティニュアムは、生成量子固有値ソルバー(Generative Quantum Eigensolver:GQE)というアプローチを(25年5月1日付け)同社ブログ[*207]にて紹介した(論文@arXiv[*208]は1月28日付け)。(GQE自体は、もっと幅広い概念であるが、[*208]で扱われている)GQEは、トランスフォーマー(⋍生成AI)を使って基底エネルギーを探索する、というアプローチである。トランスフォーマーへの入力値は、量子回路が生成する。つまり、量子ネイティブな問題に対して、量子ネイティブな入力値を使うので、良い結果(高い精度)が得られるであろうと期待できる。トランスフォーマーは(返す刀で!)、低いエネルギー状態を準備する可能性が高い量子回路を提案する。提案された量子回路からの出力(の測定結果)を、新たな入力値として、トランスフォーマーの学習を進める。水素分子の基底状態エネルギーを求めるタスクに対して、GQE🐾12は厳密解を再現し、化学的精度で基底状態を見つけることができた。LiH、BeH、N2に対しても、ほぼ厳密解を再現出来ている(結合長が長くなると、誤差がやや大きくなる)。なお、GQEの量子優位性は保証されていない。
同じような発想は、量子モンテカルロ法(QMC)にも導入されている。量子モンテカルロ法の初期値として用いる試行波動関数を、量子回路を使って準備するというアプローチが、それである🐾13。ただ、普通に実行すると、指数関数的な古典的事後処理が必要となるので、そのままでは使えない。リバーレーンは、この指数関数的事後処理を回避できた、と主張する[*209]。ただし、「従来のQMCを上回る性能が得られる保証は、必ずしもない」と注意喚起している。
━註1━ 独KIPU Quantumが提起しているデジタル・アナログ量子コンピューティングも、似たような発想である。デジタル・アナログ量子コンピューティングとは、解析対象となる問題を量子回路に物理的に実装し(アナログ)、それをゲート方式量子コンピューター(デジタル)で解く、というアプローチである。
━註2━ KIPUは、シーケンシャル量子コンピューティング(SQC)というアプローチが有効である、とも主張している。雑に言うとSQCとは、量子アニーラ(QA)とゲート方式量子コンピューターをシームレスに繋いで、精度と計算効率を上げるというアプローチである。つまり、QAの解を初期値とすることで、ゲート方式量子コンピューターは、ウォーム・スタートが期待できるので、精度と計算効率が上がるだろうと期待できる、という発想である。[*215]では、HUBO(コスト関数の次数が3以上の多項式である高次制約なし二値最適化)問題に対して、SQCは量子アニーリングやBF-DCQO(☞こちらを参照)に比べて、高精度かつ高効率であった。グランドトルゥースは、CPLEXの解と設定されている。高効率とは、同程度の精度を得るために要する「(反復計算における)反復回数+測定回数」が少ない、という意味である。
🐾12 量子化学計算に使われているGQEは、オリジナルのGQEで、GPT-QEと呼ばれる。組み合わせ最適化問題には、条件付きGQEと呼ばれるGQEが使われる[*210]。
🐾13 もっとも、これを「量子デバイスをサンプリング・マシンとして使うというアイデア」と見做せば、量子アニーリング・マシンにおいて実施済である(ので、発想自体に、オリジナリティがあるわけではない)。
8⃣ 米クオンティニュアムと理化学研究所が、部分的誤り耐性量子計算を量子化学に適用した研究は、こちら。米IBMと米ロッキード・マーティンが、SQDを開殻分子に適用した研究は、こちら。米クリーブランド・クリニックが溶媒モデルに適用した結果は、こちら。
9⃣ 米IonQ、創薬領域における量子古典ハイブリッド・アルゴリズムの実行時間を(推定で)、約20倍短縮した、と発表した(25年6月9日付けIonQの公式ブログ[*212])。ただし、この加速は『古典計算パート』で達成した。具体的には、以下の通り:①マッチゲート・シャドウの採用、②GPUによる行列計算の高速化、③GPUとCPUの最適な並列化。この成果は、英国の製薬大手アストラゼネカ🐾14、米AWS🐾15、米NVIDIAと協業した結果であり、②及び③にはNVIDIAが貢献した。
マッチゲート・シャドウ🐾16は、古典的シャドウの一つである。古典的シャドウは、上記⤴❚補足❚を参照。古典的シャドウは、サンプル複雑性を軽減できるとされるが、それでも古典的事後処理にかかる計算コストは高いと考えられている。マッチゲート・シャドウは、(古典的シャドウにおいて最悪の場合に発生する)指数関数的な古典的事後処理コスト🐾17を回避できる、とされる。
IonQとアストラゼネカは、創薬領域における重要なユースケース探索において、以下に重点を置いた:創薬パイプラインにおいて精度が制約要因となっている領域。かつ、候補薬における強相関電子と複雑な反応機構を、高精度でシミュレーションすることが肝要なケース。見出したユースケースは、 遷移金属を、候補薬の生成を助ける触媒として用いる化学反応の設計であった。遷移金属触媒が特に有効な例として、候補薬が光学対掌体を持つ場合があげられる。
量子古典ハイブリッド・アルゴリズムは、量子古典補助場量子モンテカルロ(QC-AFQMC)アルゴリズムである。QC-AFQMC+{上記①,②,③}を、ニッケル触媒を用いた鈴木・宮浦クロスカップリング(反応)🐾18に適用し、実行時間の短縮を実証した。①のみによって(実測で)、9倍の加速がもたらされた(1週間が18時間に削減されることに相当)。
🐾14 「オンコロジー(がん)」、「循環器・腎・代謝疾患」、「呼吸器・免疫疾患」、「ワクチン・免疫療法」の4つを重点領域と定めている。
🐾15 IonQのQPU、NVIDIAのGPUはAWSのクラウド経由で提供された。
🐾16 クリフォード・ゲートの代わりに、ランダム・マッチゲート回路と呼ばれる回路を使用して得られた、古典的シャドウをマッチゲート・シャドウと呼ぶ。
🐾17 量子的な処理を古典的な処理で置き換える場合、通常(特殊な工夫を施さない場合)は、指数関数的なコストがかかる。ノーフリーランチの原則と考えると、肚落ちする。
🐾18 元々は『パラジウム触媒』を用いて、有機ホウ素化合物と有機ハロゲン化合物を、クロスカップリングさせる反応。日本人の名を冠する反応の中では、もっとも有名かつ実用性の高い反応の一つらしい。近年では、オリジナルの『パラジウム触媒』以外の遷移金属触媒を用いた鈴木・宮浦クロスカップリングも多く報告されているらしい。出典:https://www.chem-station.com/odos/2009/06/--suzuki-miyaura-cross-couplin.html
❚10❚ 広く言えば、FTQCに至らずともNISQでも役に立ちますキャンペーンの一環。慶應大学他🐾19の研究者は、量子位相推定法(QPE)ファミリーである「量子位相差推定法🐾20(QPDE)」を使って、量子アルゴリズムが扱える計算対象のサイズを5倍以上に拡大した🐾21、と主張する論文[*220]を発表した(25年7月24日)。すなわち、「化学的精度を達成した」とか「量子優位性を示した」という内容ではない!ことに注意。
「5倍以上の拡大」を可能にした技術的要因は、量子ゲートを、テンソルネットワーク(具体的には、行列積演算子:MPO)を使って、古典的に効率的に準備できたことである。 つまり、サイズを圧縮した量子回路でQPDEを実行することを可能とした。この圧縮量子回路には、4つの利点🐾22があるとする。
圧縮量子回路はIBMの実機に実装され、2つの実ケースに適用された。一つは、1次元ハバード模型。もう一つは、 π共役電子系🐾23である🐾24。なお、豪Q-CTRLの量子誤り抑制モジュールが使用されている。
🐾19 三菱ケミカル及びソフトバンク。
🐾20 大阪市立大学(当時、現大阪公立大学)の杉﨑研司博士が開発したアルゴリズム。杉﨑博士は、その後、慶應義塾大学に移り、25年4月からはデロイト・トーマツでコンサルティングに従事されているらしい。
🐾21 QPEの6量子ビットに対して、QPDEは33量子ビットなので5倍以上。33=32+1補助量子ビット。ただし、1次元ハバードモデルに対して。
🐾22 ①(量子ゲート・オーバーヘッドが大きい)SWAP演算子なしで並列化可能、②VQEのように大量の量子-古典通信が発生しない、③状態準備ゲートは MPO によって十分に近似可能、④脱分極ノイズの影響は量子ビット数に対して指数関数的に抑制される。
🐾23 正確には、線形π共役ポリエン。具体的には、1,3,5-ヘキサトリエン、1,3,5,7-オクタテトラエン、及び1,3,5,7,9-デカペンタエンが扱われた。なお、線形π共役ポリエン・シミュレーションには、最大21量子ビットが使われた(⤴🐾21)。
🐾24 軌道局在化及びインデックス並べ替え技術を使用して、1次元のシミュレーションに変換されている(らしい)。
❚11❚ 韓国科学技術院の研究者は、多成分多孔質材料に対して、その基底状態に対応する化学構造を、正確に予測・設計する枠組みを開発した、と発表(25年8月22日)した。詳しくは、こちらを参照。
❚12❚ ADAPT-VQEより高性能な変分量子アルゴリズムHive-ADAPTを、米クオンティニュアムがAIで自動生成した、と発表(25年12月11日)。詳しくは、こちらを参照。
↑目次に戻る
(1) 勝ち筋を見定めるときに考慮すべき2つの基軸
量子機械学習(QML)のほとんどは、量子コンピュータの勝ち筋ではない。結論を言えば、勝ち筋は二つあり、量子系ネイティブなQML(詳細は後述)は勝ち筋となるであろう。
QMLの勝ち筋を考える場合に考慮すべき基軸は2つある。一つ目の基軸は、複雑性である。機械学習を対象とした場合、考察すべき複雑性として、(漸近的)計算複雑性、サンプル複雑性、モデル複雑性の3つが適当と考えられる。もう1つは、考察対象とするQMLが、MLを量子系に翻訳したQMLなのか、それとも量子系ネイティブなQMLかという基軸である。
(1-1) 複雑性の基軸
①速さ
QMLに限らず、量子コンピュータの実用場面で最初に言及される訴求点は、速さである。それは、「ショアのアルゴリズム」の衝撃が大きかったせいであろうし、2019年10月に、グーグルが10億倍速いという「量子超越性」の実現を主張したためであろう。アルゴリズムの実行速度に関する指標が、(漸近的)計算複雑性である。なお10億倍は、「10の9乗」倍であるが、量子アルゴリズムが古典アルゴリズムより10のべき乗で速くなることを量子超越性と呼ぶ。対して、2乗で速くなることは、量子優位性と呼ばれる。
計算複雑性に限定しても、議論はかなり複雑である。いわゆる量子加速と呼ばれるものは、正確には5種類存在する。最上位の「証明可能な量子加速」とは、量子アルゴリズムより速い古典アルゴリズムが存在しないことが、数学的に証明されているカテゴリーである。有名どころでは、グローバーのアルゴリズムが該当する。次席の「強力な量子加速」とは、ものすごく頑張って、量子アルゴリズムより速い古典アルゴリズムを探したけれど、今のところ見つかっていないというカテゴリーである。ショアのアルゴリズムは、これに該当する。
つまり、速さのみを基準として量子アルゴリズムに賭けることは、かなりリスクがある。「証明可能な量子加速」アルゴリズムは、少数である。加えて、量子加速が観測されている量子アルゴリズムでは、データセットにスパース性や冗長性の条件が課されることが普通である。そして、ある日突然、量子アルゴリズムより速い古典アルゴリズムが発見されることがありうる。さらに言うと、ファイン・チューンすることで古典アルゴリズムは、速くなる。グーグルが量子超越性を主張した時に、IBMが行った反論は、本質的にそういうことであり、1万年が2.5日に短縮された。
しかも、それだけではない。古典的機械学習アルゴリズムの実行時間と、量子機械学習(QML)アルゴリズムの実行時間とを比較する場合、アルゴリズムの学習速度のみならず、前処理:「状態準備(符号化)に要する時間」と後処理:「測定(読み出し)に要する時間」も考慮しなければならない。それらの時間は、符号化の種類、データセットの構造に依存する。QMLにおける前処理・後処理は、古典系とは比べ物にならないほど複雑怪奇で、思い通りには行かない。
高速性を前提にQMLへ投資すると、経営層が投資対効果に失望するリスクが大きいと弊社では、考えている。別の表現を用いれば、QMLの本質は、スピードではないと考えている。もっとも、これはそれほどオリジナリティがある主張ではない。むしろ、広く認識されている主張のようである。
②データ量
サンプル複雑性は、学習モデルの汎化に必要なデータ量に関する複雑性である。これは結論が単純明快であり、量子加速は存在しないことが知られている(出典は、本ページ末【参考資料】10)。
❚註1❚ 量子機械学習のレビュー論文[*149]によれば、「量子センサー,量子メモリ,量子コンピューターを使用して、実験から量子情報を取得・保存・処理できる場合、サンプル複雑性において指数関数的な量子優位性があることが示された」。
❚註2❚e.g.「機械学習用の量子コンピュータ・アルゴリズムは、古典コンピュータに必要な学習データよりも少ない学習データで、より高速で正確な結果を達成できることを約束する」[*185]。
③表現力
モデル複雑性は、学習モデルの表現力に関する複雑性である。分かり易さを優先して厳密さを犠牲にすれば、より良い近似能力と言って良いかもしれない。過学習の議論も、モデル複雑性の範疇である。モデル複雑性については、以下のことが知られている。
まず、過学習について。量子回路を使った機械学習では本質的に、過学習が抑えられることが証明された[*30]。ただし、過学習が抑えられるという特性を、過大に評価すべきではないだろう。そう考える根拠は、「AIのロバストネスを向上させる、あるいは、ブラックボックスAIからホワイトボックスAIへという研究の潮流において、古典的MLで過学習を抑制するという研究が進んでいる」からである[*31]。
次に、機械学習において量子優位性が存在することが、2020 年末に証明された。米IBMが作成し、2021年9月21日に日本語版が公開された「The Quantum Decade来るべき量子コンピューティングの時代に向けて」[*32] (17ページあるいは、58ページ)によると、古典データを使用するQMLでの分類が、任意の古典的二項分類器に対して、量子優位性を有することが明確に証明された。
弊社では、MLからQMLの切り替えを検討するとき、モデル複雑性をドライビングフォースとして考えることが、勝ち筋に繋がると考えている。つまりQMLの本質は、表現力の豊かさであると考えている。
(1-2) QMLの出自
❶ 量子系に翻訳した量子機械学習
まず、MLを量子系に翻訳したQMLを考えよう。それが自然ならば、そのQMLは勝ち筋の候補と考えられるだろうと、弊社では考えている。具体的に言えば、古典的カーネル法は量子論と親和性が高いため、量子カーネル法という方向は、勝ち筋の候補と考えている。蛇足ながら、カーネル法におけるグラム行列と、密度行列との形式的な等価性も、古典的カーネル法は量子論と親和性が高いことを示している。
①カーネル法
カーネルからは、特徴写像が構成できる。カーネルは自然に内積をもたらし、この特徴写像から、内積を備えるベクトル空間を構成できる。このような背景から、カーネル法における特徴空間とヒルベルト空間は、数学的構造が似通っている。QMLの優位性を説明する文章:『量子ビットが自然に持つ「指数的に大きな次元」を活用することで、訓練データをより良く近似できる可能性がある。』は、まさに、このことを表現している。
機械学習において、生のデータから特徴量をうまく抽出できないときに使用される、一般的なアプローチがあったことを思い出そう。データをもとの次元より高い次元に埋め込んだ上で、特徴量の抽出を行うというアプローチである。例えば2次元の図面ではわからない特徴が、立体模型にすると明確になって、特徴をうまく抽出できるというイメージである(この例だと、うまく分類できる、という表現が分かり易いかもしれない)。大きな次元を用意することは、効率的な特徴量の抽出に繋がる。これが、カーネル法であった。
米国の量子ソフトウェアベンダーZapata Computingが実施した調査レポート(22年12月付け、公表は23年1月11日)[*96]に、「私たちの研究により、特にジェネレーティブ・モデリング(ジェネレーティブAI、生成AI)が、量子力学の実用的な優位性をもたらす最も有望な手段であることが明らかになりました」との記述がある。その理由は、「量子コンピュータが、従来は困難だった複雑な確率分布の符号化とサンプリングを可能にするため」という。これは、カーネル法に基づく機械学習が量子コンピュータによって性能加速される構図と同じである。
量子多体系のハミルトニアンは、自由度の数に対して指数関数的に大きな次元を持つ。このことを反映して、入力が1次元であっても、複数(=N)量子ビットからなる量子コンピューターであれば、出力(観測量)には、N次元表現が自然に含まれる。このような指数的に大きな次元を活用することで、QMLは、訓練データをより良く近似できる可能性がある。量子機械学習をキラーアプリと定めているであろうカナダの光量子方式量子コンピューター・ベンダーXanaduは、「NISQデバイスにおいて有望な量子機械学習の多くは、(古典)カーネル法の量子的拡張と解釈できる」と指摘している。[*47]
②ニューラルネットワーク
一方で、量子系に翻訳したニューラルネットワークは、勝ち筋に繋がらないだろう。なお、ここでいう量子系とは、深層学習の文脈で、「枝刈り」や「蒸留」と同列に現れる量子化とは異なる。また、コヒーレント・イジングマシンの文脈で現れる量子ニューラルネットワークとも異なる。
ニューラルネットワーク(NN)が勝ち筋に繋がらない理由は、NNが量子論と親和性が低いからではない。例えば、ボルツマンマシンは「確率的」なNNモデル(正確には、RNNモデル)であり、本質的に確率論である量子論との親和性は極めて高い。そのため、ボルツマンマシンは、古典的な機械学習マシンでありながら、制限付きのボルツマンマシン(RBM)であっても、量子系を表現する能力は十分である。古典系でも十分、量子系を表現できるのであるから、量子系への翻訳は、意味を成さないということである。これは次のように表現することも可能であろう:NNは、古典系でも十分な表現力を持っているから、量子系が優位とされる指数関数的に大きな次元を利用する必要性がない。【補足1】
③小括
小括すると、カーネル法は、量子系に自然に翻訳することができる。そして、モデル複雑性の観点で優位性を持つ可能性が、自然に浮かび上がって来る。一方で、高速性が自然に浮かび上がってくるようには、思えない。ところが、NNは、古典系であっても、おそらく、モデル複雑性において量子カーネル法と遜色はないであろう。(NNは、一般に処理速度が遅いから)高速性での優劣はありうるが、MLを量子系に翻訳したQMLが、勝ち筋とまでは、考えられない。
❷ 量子系ネイティブな量子機械学習
次に、量子系ネイティブなQMLを考えよう。量子系ネイティブなQML は、Aimeur、Brassard、Gambsによる類型論でいうところのQQアプローチに相当する。そこでQQMLと呼ぼう。QQMLは、古典コンピュータ用に開発された古典アルゴリズムを量子系に翻訳したアルゴリズムではなく、当初から量子デバイスで実行することを前提に開発された、量子力学の原理に基づく機械学習アルゴリズムである。QQMLは勝ち筋であろう。【補足3】
例えば、古典的なランダムウォーク(RW)の量子力学的拡張である量子ウォーク(QW)は、RWとは本質的に異なる性質を持っている。QWは、RWよりも遠方に移動する「線形的拡散」の性質を持つと同時に、RWに比べて出発点に留まり続けるという「局在化」という性質を持つ。つまり、相反する性質を合わせ持っており、RWとは数学的構造が本質的に異なる。機械学習に実装した結果も、その数学的構造を反映している。QWを使ったレコメンドサービスの結果は、RWを使った場合と本質的に異なる結果を示している。【補足2】
また、機械学習とはズレるが、【5】(2)量子モンテカルロ法で扱う「量子振幅推定法」は、量子系ネイティブなアルゴリズムである。モンテカルロ法であるが、乱数は出てこない。確率分布からサンプリングしない。量子論が自然に有する確率的特性を、自然な形で活かした情報符号化(量子サンプル状態符号化)を用いて、積分の近似値を求める手法である。つまり、アプローチが本質的に異なる。QQMLでは、2次関数的加速が「自然に」見込まれ、古典アルゴリズムとは質的に異なる結果が、報告されている。つまり、QQMLでは高速性をメインとしながら、深いインサイトを期待する、を勝ち筋と捉えるべきだろう。
(2) QMLの例―量子回路学習(QCL)
カーネル法の量子論的拡張例をあげる。古典的なカーネル法(サポートベクトルマシン)は、最適化問題に帰着してパラメータを求める。古典論において、最適化問題の解法としてもっともポピュラーな勾配降下法は、量子版が見つかっていない。そういう事情で、量子機械学習における最適化問題の解法では、(量子版勾配降下法の替わりとして)変分法が用いられる。
大阪大学藤井教授のグループが提案する量子回路学習(QCL)は、変分量子回路を使った量子機械学習であり、NISQでも可能なアルゴリズム(量子古典ハイブリッドアルゴリズム)である。これは、量子カーネル法の一種と解釈することが可能であり🐾、高速性を求めたアルゴリズムではなく、学習結果の向上(モデル複雑性)を求めたアルゴリズムと位置づけられる。QCLは、2019年3月IBMの実機に実装されており、動作は実証されている。
QCLのステップは以下の通りである[*11]。i) 用意した初期値にユニタリ演算子(量子回路)で変換して入力状態=量子特徴量状態、を作る。量子特徴量状態は、テンソル積に由来する大きな次元を持つヒルベルト空間の量子状態である。ii) パラメータθに依存したユニタリ演算子(変分量子回路、ansatz)で、入力状態を変換して、パラメータを含む出力状態を作る。この出力状態は、古典的描像では、説明変数に該当する。iii) この出力状態(説明変数)と、学習モデルに対応する何らかのオブザーバブルから、学習モデルを作る。古典的描像では、予測式に該当する。量子論的には、出力状態の下でのオブザーバブルの期待値を計算することが、学習モデルとなる。iv) 教師データと学習モデルの出力の差が最小になるように、コスト関数を使って、パラメータθを求める。
🐾 最近では、量子回路学習と量子カーネル法は、「量子特徴量ベースのアルゴリズム」として、カテゴライズされている。
(3) 適用分野
国際競争力で日本の産業セクターを議論する場合、最重要産業は、自動車産業と素材産業ということになるだろう。素材産業については【2】で既に述べているが、ML(深層学習DL)が素材開発の場面において、貢献している。ニューラルネットワークを量子系に翻訳することは困難であるから、ML(DL)からQMLへの翻訳が素材産業に与える影響は限定的と考えられる。しかし、量子系ネイティブなQML(QQML)は、質的に異なるインサイトを与える可能性がある。従って、中長期的にはアカデミアを中心に、QQMLを開発して、素材開発に生かすことが勝ち筋となるであろう。
自動車産業でMLが活かせる場面は、従来の内燃機関自動車の時代と、EVあるいは自動運転車の時代で変わってくるであろうが、概ね以下のような場面であろう。①製造・生産フェーズ現場では、生産予測、サプライチェーンマネジメント、トレイサビリティ・マネジメント、排出量マネジメント、高速に垂直立ち上げを行う、製造ラインの歩留まりを迅速に安定化する、生産コストを継続的に低減する、などが考えられる。②販売及びそれ以降のフェーズでは、販売予測、各種サービスやソフトウェア更新のレコメンド、ユーザー毎の電池パワーマネジメント、故障予測、危険予知・回避、ユーザー毎1日毎の損害保険料算出、排出量マネジメント、などが考えられる。
自動車産業においても、ML(DL)からQMLへの翻訳が与える影響は限定的と考えられる。その一方で、世界モデルAIを前提にすると、QQMLは、日本の優位性を侵食する可能性があるかもしれない。自動車関連産業は、雇用機会の創出能力が大きく、輸出額も巨大な、日本の基幹産業である。米国に対し、「継続的に競争優位を維持してきた」唯一の産業と言っても良い。QMLで遅れることにより、自動車産業の競争力を失うことは、どうしても避けなければならない。QQMLを開発して、自動車産業の競争力を維持する努力は、必須と思われる。
加えて、QMLの重要適用分野と考えられるのは、サイバーセキュリティである。この分野は、国際競争力という文脈からはやや離れるが、国家経済に与えるインパクトは大きい。しかも、際限なく高速性を求める分野でもある。このような理由から、QMLの重要適用分野と考えられる。
(4) 戦略設計
❶勝ち筋1・・・QQML
これまでの議論を踏まえて戦略を設計すると、以下のようになる。MLの量子系への翻訳という意味でのQML(類型論的に言うと、CQMLとでも呼べるだろう)は、量子カーネル法であり、より良い近似(予測や分類)を得ることがゴールである。そして、これはNISQの時代にも可能なアプローチである。
一方で、量子系ネイティブなQML(QQML)を開発できれば、高速かつ質的に異なるインサイトを得られる「可能性」がある。NISQの時代でも、QQMLが実現不可能というわけではないが、本命はFTQCの時代に登場すると考えるべきであろう。冒頭にある吉野家の牛丼との謎かけで言えば、QQMLは「はやい、やすい、うまい」と考えられる。やすいは、低消費電力と捉えれば良いだろう。美味いは、上手いと置き換えれば良いだろう。
これを、QQMLは量子コンピュータの勝ち筋である一方、CQMLは勝ち筋とは言えない、と解釈することもできる。そうであれば、当面は、量子インスパイアード・古典アルゴリズムの開発が重要ということになるだろう。すなわち、量子インスパイアード・古典アルゴリズムは、QMLの、もう一つの勝ち筋になりうる。
❷勝ち筋2・・・量子インスパイアード・古典アルゴリズム
量子インスパイアードとは、量子コンピューターを研究することで得られた知見を活かして、古典コンピューターを進化させることである。そして、量子インスパイアード古典アルゴリズムとは、量子アルゴリズムを研究することで発見される、従前知られているよりも高速な古典アルゴリズムである。つまり、量子インスパイアード・古典アルゴリズムは、高速性を目標とする。ニューラルネットワークあるいは、より直截的にディープラニングを高速化することを目標に、量子インスパイアード・古典アルゴリズムを開発するという方向は、勝ち筋につながる可能性がある。
❸テンソルネットワークを利用したアルゴリズムは、有望な量子インスパイアード・古典アルゴリズム
機械学習における、有望な量子インスパイアード・古典アルゴリズムとして、テンソルネットワークを利用したアルゴリズムがある。古典コンピュータ上で古典アルゴリズムを走らせて、量子回路をシミュレートすると、膨大な時間がかかる。そのため量子回路をテンソルネットワークと見做して、計算時間を短縮するという発想が、テンソルネットワークを利用したQCLである。テンソルネットワークは、情報をうまく集約することができるため、古典系、量子系を問わず多体系の近似計算を効率的に実行できる。
仏クレディ・アグリコルCIB⊕仏Pasqal(H/Wベンダー)⊕西マルチバース(S/Wベンダー)が、金融分野に活用した事例は、こちらのⅣとⅤを参照。
(0) 前捌き
量子コンピュータが産業に大きなインパクトを与えるテーマとして、組み合わせ最適化問題があげられる(組み合わせ最適化問題以外にも、㊀量子コンピュータの使用を前提にワークフローを再構築することで競争力を向上させる。あるいは、㊁ビジネス・インテリジェンスに量子コンピュータを組込み、経営力を向上させる。というテーマが考えられるが、それらは取り扱わない)。組み合わせ最適化問題(離散最適化問題とも言う)は、その応用範囲が広い。国際的な産業競争力という文脈であれば、工場内の生産性の向上に帰着するだろう。
ただし、組み合わせ最適化問題は(ゲート方式)量子コンピューター向きの分野ではなく❚追記❚、古典アルゴリズム(含む量子古典ハイブリッドアルゴリズム、量子インスパイアード・アルゴリズム)や疑似量子コンピューターが活躍する分野であると考えられる(量子コンピュータが、一部の最適化問題を高速に解けることについて、[*102]を参照)。そのため、出口を国内サービスのブラッシュアップに置いても、戦略上の問題はないだろう。
また、組み合わせ最適化問題の多くは、サイバーセキュリティとは異なり、際限なく高速性を求めるような問題ではない。それは東芝が、疑似量子コンピューターを高速高頻度取引の有効性の検証に使ったこととも符合する。
ちなみにマッキンゼーは最近、「量子技術を使った最適化問題タスクにおける、最も重要な短期的な利点」は、「結果を得る速度よりも、出力の品質が重要である問題で見つかる可能性がある」と言い出した[*120](弊社は従来から、量子コンピュータの本質的価値は、高速性ではなく「質の向上」にあると考えてきた。IBMの同じことを言い出している。こちらを参照)。加えて、最適化に特化した量子計算機が、誤り耐性万能量子計算機に先行する可能性を指摘している(→マイクロソフトのAIMについて、[*124])。また、関連ユースケースとして、「無線通信におけるアンテナ配置の最適化や、小売における設置面積の最適化[*130]など、わずかな改善で大幅なコスト削減がもたらされる問題」を上げている(ただし、これはマッキンゼーが言ってることではなく、QuEra[*121]の受け売り)。ちなみに、[*120]でも[*102]のQuantum optimization of maximum independent set using Rydberg atom arraysが取り上げられている。
いくつかの準備をする☛すぐに、移動
🛡1 もちろんNISQマシン。正確には、127量子ビットのIBM製NISQマシン。
🛡2 具体的な離散最適化問題は、「k次正則グラフ上の、最大カット問題(k=3~7)」と、「スピングラス・モデルの基底状態エネルギー探索問題」である。ただし、量子アニーラとの比較は、後者のみで行われている。前者は、QuantinuumのNISQマシンH2-1との比較が行われている(が、あまり意味はないだろう。H2-1が独自にチューンすれば、より良い結果が出るはず)。
🛡3 具体的には、D-WaveのPegasusである。
🛡4 "優れている"の意味は、「グランドトルゥースとの差が小さい」という意味である。グランドトルゥースは、CPLEXの解である。CPLEXは、IBMの最適化問題ソルバー。
🛡5 様々な工夫を、頭出しすると、㊀アンザッツの工夫、㊁(アンザッツの工夫に対応する)トランスパイラの工夫、㊂量子誤り緩和の工夫、㊃古典的オプティマイザの工夫、㊄ビット反転誤りに対する工夫、となる。詳しくは、以下の通り。
㊀:標準的なQAOAのアンザッツは、初期状態=n量子ビットの等しい重ね合わせ状態、である。Q-CTRLの手法(Q-CTRL法)では、初期状態=任意の回転演算子Ry(θj)を使用して生成された状態、である。θjは、量子ビット毎に異なる。こうすることで、Q-CTRL法のアンザッツは、より広範囲の潜在的な解を符号化でき、高品質の解に収束するために必要なQAOA層の数を減らすことができる、とされる。つまり、浅い回路を実現するために、パラメータを増やしている。
㊁:㊀のアンザッツを採用した結果、大規模回路の効率的なコンパイルが必要になる。
㊃:変分パラメータの最適化計算アルゴリズムは、ブラックボックス最適化の一つである、共分散行列適応進化戦略(CMA-ES)を使用して実装される。また、コスト関数には、CVaRが採用されている(つまり、期待値を最小化するのではなく、CVaRを最小化するCVaR-QAOA)。CVaRは、金融でお馴染みの「条件付きバリュー・アット・リスク」である(金融では、期待ショートフォールとも呼ばれる)。
㊄:測定された出力分布における相関のないビット反転誤りを、純粋に古典的なポスト・プロセッシングで対処する。具体的には、出力されたビット文字列に対して、単純な貪欲法による最適化を実装する。
デイビッド・ドイチュは、量子版チューリング・マシンの定式化直後に、「量子版チューリング・マシンは、チューリング・マシンと比べて大して速くない」ことを、"証明(!)"したことになっている。このことからもわかるように、誕生した直後から、量子コンピューターにおいて高速計算は、必ずしも勝ち筋ではない。
しかし、米ベル研(その後MITに移動)の数学者ピーター・ショアが示したように、古典アルゴリズムとは、"数桁違い"に速い量子アルゴリズムも、確かに存在する(発見は1994年、論文発表は1997年)。ただし、ショアのアルゴリズムは『証明可能な量子加速』を満たさない。ショアは(BB84の二人、ドイチュと共に)、2022年の基礎物理学部門ブレークスルー賞を受賞した。
このような複雑な状況から、量子インスパイアードが生まれている。量子インスパイアードは、組み合わせ最適化問題で顕著である。同問題は、金融分野を含めて現実社会には数多く存在し、喫緊の課題である一方、量子コンピューターにとって得意な問題ではないからであろう。
なお、米国の航空宇宙局(NASA)は、量子インスパイアード技術によって、宇宙探査機の通信網(DSN)の利用スケジュール作成を迅速化することができた。米マイクロソフト社の量子コンピューティングのクラウドサービス、Azure Quantumチームが開発した「量子インスパイアード最適化アルゴリズム」を活用して、2時間以上の作成時間を約2分に短縮したという[*41]。
1⃣ 古典イジングマシン:疑似量子コンピューターではない
古典イジングマシンは、a)シミュレーテッドアニーリング法(SA)という古典アルゴリズムを、b)半導体デジタル回路で実装して、c)イジングモデルに帰着させた組み合わせ最適化問題を解く、コンピューターである。富士通の「デジタルアニーラ」は、古典イジングマシンであり、疑似量子コンピューターとは呼べない。
❶ デジタルアニーラ
㊀ 昭和電工(現レゾナック)は、半導体材料の最適な配合探索にかかる時間を、数十年以上から数十秒に高速化可能であることを実証した、と発表(2022年2月10日)[*37]。
㊁ 早稲田大学と慶応大学は、「固体表面への分子吸着の予測に成功した」と発表した(2023年4月5日)[*105]。
㊂ 早稲田大学は、(生産ラインなどで稼働している)ロボットアームの運動生成に要する時間を、1/4にできたと発表(23年10月17日)[*135]。440秒が100秒になった。しかし、仮に2次加速だと20秒ほどに短縮される(ので、高速化という意味ではショッパイ)。
㊃ ニトリは、全国80か所の配送センターの配車システムに、(デジタルアニーラを含む量子インスパイアード技術を活用した)配送最適化技術を導入したと発表(24年1月23日)[*144]。
❷ シミュレーテッド分岐マシン
後述する(東芝が開発した)シミュレーテッド分岐マシン(SBM)も古典イジングマシンであるが、SBMは、疑似量子コンピュータである量子イジングマシンよりも高速である。なお、光コンピュータ(注:光量子コンピュータではない)を開発する米国のスタートアップLightelligenceは、同社のフォトニクスアクセラレータを用いると、SBMよりも25倍速くイジングモデルを解けると表明している[*35]。
なお、東芝デジタルソリューションズは、AWS Marketplaceにて、SQBM+のAmazon Web Services版の提供を開始したことを発表した(23年2月10日)[*101]。SQBM+は、SBMを核とした量子インスパイアード最適化ソリューション。
2⃣ シミュレーテッドアニーリング法(SA)
組み合わせ最適化問題を解くアルゴリズムとして、従来から「シミュレーテッド・アニーリング法」が知られていた。シミュレーテッド・アニーリング法(SA)は、アニーリング[*12]にヒントを得て開発された、近似解法(コンピューター・アルゴリズム)である。
SAは、コンピューター上に、仮想的な熱ゆらぎを導入し、様々な状態間を遷移させる。ゆっくり冷やしていくことで、ほとんど全ての状態間を遷移することができ、各時刻で平衡状態に達する。温度がゼロにすることで、基底状態に近い状態(=コスト関数が最小の状態)が、高い確率で実現する。
SAは、ほとんどの組み合わせ最適化問題に対して、大域最適解に漸近的に収束することが証明された、唯一の近似解法である(断熱量子計算を除く)。
3⃣ CMOSアニーリング:疑似量子コンピューター
量子アニーリング法をマルコフ連鎖モンテカルロ法(MCMC)を用いて、古典的にシミュレートするSimulated Quantum Annealing(SQA)という手法がある。SQA は古くから知られていたものの、2016年にグーグルが量子効果を実証して有名になった。イジングモデルのレプリカを複数個作り、複数の計算を同時に行う。その計算は、最終的には一つに収束していくように実行される。そうすることで、量子効果の重ね合わせ原理を疑似的に再現する。
SQAはソフトウェアで量子アニーリング法を近似的に実行しているが、日立の「CMOSアニーリング[*13]」は、ハードウェアで近似している。疑似的な量子効果を取り入れているので、疑似量子コンピューターと呼んで良いだろう。
日立は、裁定取引に最適な株式ポートフォリオの構築を、CMOSアニーリングで可能にする技術を開発していたらしい[*126]。
4⃣ コヒーレントイジングマシン(CIM) :疑似量子コンピューター
❶ NTTのコヒーレントイジングマシン(CIM)[*14]、あるいは光イジングマシンは、少し毛色が異なる。イジングマシンであり、ナチュラル・コンピューターであるが、(熱も量子も)アニーリング法は使っていない。CIMは光発振器で、イジングモデルを物理実装している。光発振器(縮退光パラメトリック発振器)が発するパルスでスピンを模している。イジングモデルのスピン間相互作用を表現するように、光発振器をネットワーク連結すると、光発振器がイジングモデルの解に対応した発振基底を自発的に選んでくれる。ネットワークでつながれた光発振器間に、量子もつれに相当する状態をつくっているため、疑似量子コンピューターと呼んで良いだろう。
❷ 東北大学とNTT(米国のφ研究所)は、単一光子を使うCIMを開発した[*212]。従来型の多光子CIMに比べて、計算性能が向上すると期待される。
❸ 中国の北京QBoson量子技術及び北方工業大学は、バス路線最適化問題の最適解探索において、CIMは比較対象に比べて大幅に速いと主張する論文[*227]を発表した(25年9月13日)。比較対象(及びアルゴリズム)は、Gurobi、シミュレーテッド・アニーリング、タブー探索。成功確率が同じ場合、Gurobiより10倍程度速い。(意味があるかは別にして、)成功確率を10%に下げると、Gurobiより1,000倍程度速い。
シミュレーテッド分岐アルゴリズムをデジタル回路に実装した東芝のシミュレーテッド分岐マシンも、古典イジングマシンである。故に、疑似量子コンピューターとは呼べない。
シミュレーテッド分岐マシンは量子分岐マシンの古典版、古典分岐マシンである。量子分岐マシンは、(断熱量子計算に基づく)イジングマシンとして提案された。量子分岐マシンの基本素子であるKPO(カー非線形性を有するパラメトリック発振器)は、真空状態から発振状態へと断熱的に変化させることで、量子力学的な重ね合わせ状態を模すことができる。数値シミュレーションの結果、理由は不明ながら、古典分岐マシンでもイジング問題が解けることがわかっていたが、実用化の着想には至らなかった。その後、CIMが大規模なイジングモデルを高速で解いたというニュースに触発され、高い並列性に由来する高速な組み合わせ最適化アルゴリズムを開発した。それが、シミュレーテッド分岐アルゴリズムである。
一方、離散的シミュレーテッド分岐アルゴリズムを実装したマシン(シミュレーテッド分岐マシン)は、疑似的量子トンネル効果によってSAを(約2万倍)高速化している[*16]から、疑似量子コンピューターと呼んで良いだろう。
(3) 戦略設計
量子コンピューターを使って組み合わせ最適化問題を解くというルートは、未来が約束されていない[*95],[*102]。このため、戦略目標は、量子インスパイアード・古典アルゴリズムの開発であろう。米フォードは、量子インスパイアード・古典アルゴリズムの活用に舵を切った"古典的な"好例と言われている[*17]。
最近の好例として、東芝とダルマ・キャピタル株式会社による、高速高頻度取引の有効性の検証をあげることができる(2021年5月プレスリリース[*18])。シミュレーテッド分岐マシンを使用するとしている。なお、24年4月22日には、5G基地局におけるリソース制御に適用し、5Gに要求される低遅延を達成したと発表した[*150]。
株式市場においては、種々の理由により株価が適正価格から大幅に乖離(ミスプライシング)して、一般の投資家が不利益を被る場合がある。高速高頻度取引(HFT)は、そのような局面において、速やかにミスプライシング状態を解消し、市場の効率性と流動性の向上に貢献していると見做されている。しかし従来のHFTでは、演算能力の制限により、高度な数理モデルに基づくミスプライシングの広域探索は実施されていなかった。ここに、疑似量子コンピューターの演算能力を投入しようというのが、検証の動機である。東芝によれば、投資戦略が稼働する金融取引システム環境の中に、疑似量子計算機を搭載した装置を実際に設置し、投資戦略の有効性を検証するという取り組みは、世界初である。今後東京証券取引所の上場株式のみならず、証券、コモディティ、デリバティブ等、多様な金融商品に適用する計画のようである。[*19]、[補記1]
(4) その他
1⃣ 広島大学
① 中野浩嗣教授とNTTデータによって、「アダプティブ・バルク・サーチ(ABS)法」と呼ばれる古典アルゴリズムが開発されている[*20]。同法は、CPUとGPUをバランスよく使い、遺伝的アルゴリズムを利用している。
② 中野教授とNTTデータは、順列生成イジングモデルのサイズと要求分解能を大幅に削減する設計手法を開発した(23年10月12日)[*133]。順列型組合せ最適化問題(例:巡回セールスマン問題)を量子アニーラーで解くには、順列生成イジングモデルを構成要素として含むイジングモデルに変換する必要がある。
③ ABS法に、探索アルゴリズムの動的自動選択機能が追加された「ABS2 QUBO ソルバー」GPUエンジンの、㈠実行バイナリと、㈡実行バイナリにアクセスするためのC++言語API、を無償かつ無保証で提供すると発表した(24年1月25日)[*143]。ただし、非商用かつ評価研究目的に限る。
④ 組合せ最適化問題をQUBO問題に変換し、解探索を行うためのC++プログラミング用ツール「QUBO++」を、非商用かつ評価・研究目的に限り無償で公開する、と発表(24年12月23日)[*182]。
⑤ QUBO++を使うことで、自動車部品の熱処理工場における作業計画作成に要する時間を約1秒に短縮した、と発表(リリースは25年9月29日、論文[*226]@Applied Sciencesは25年8月11日)。人手では、約2時間を要した(ので7,200倍速くなった)。
2⃣ 東北大学
① 確率的なSA(シミュレ―テッド・アニーリング法、SA)によって、従来の決定論的SAよりも速く、QA(量子アニーリング法)では対応できない、大規模な組み合わせ最適化問題を解くことに成功した[*40]。
② 東工大と共同で、「連続変数関数の最適化においても、"ノイズの影響がなければ"、量子アニーリングは古典アルゴリズムをしのぐ優れた性能を持つことが示唆された」との研究成果を発表した(23年10月4日)[*134]。
【参考・・・量子アニーラの戦略設計】
1⃣ 総論
日本で、量子アニーラの評価が定まっていない理由の一つは、量子アニーリング法を考案したのが日本人だからであろう。日本人は、日本人が商業化に大きく貢献した技術・発明に固執し過ぎる傾向がある。他の例:MRAMやCNT(カーボンナノチューブ)。量子アニーラに過大な期待は避けるべきであろう。その一方で、見切りを付けるべしという意見は、的を得ていない。
結論として、量子アニーラは、量子インスパイアード技術のインキュベーション・ベッドとして使用すべきだろう。イジングモデルの相互作用を工夫することによって、NISQマシン並みの性能を発揮できるとも考えられている[*21]が、それでも、あくまでインキュベーション・ベッドとして捉えるべきだと思われる。
2⃣ ParityQCⓍNEC
オーストリアの量子ソフトウェア・スタートアップParity Quantum Computing(ParityQC)は、QUBOという呪縛から量子アニーラを解放する手法を開発したと主張している。QUBOのように、多体相互作用を2体相互作用に分解することなく、そのまま取り入れる手法で、ParityQCは、HCBO(高次制約付き2次最適化)と呼んでいる。つまり、量子アニーラの適用範囲が拡大する可能性がある。NECは、ParityQCとパートナーシップを結んで(21年2月~)、超伝導パラメトロン素子を使った全結合型の量子アニーラを開発している。23年の実用化を目標としている。
3⃣ 限定的・・・
結果としてはサプライズはないものの、「量子アニーラが古典コンピュータよりもアルゴリズムを高速に実行できるケースは限定的」という研究成果が、22年8月16日に発表された。米ロスアラモス研究所の研究者が、Nature Communicationsに投稿した。[*50]
4⃣ イタリアとスペインの研究者は、量子アニーリングに関する数十年にわたる論争を解決した、と主張する論文[*157]を発表した(24年7月10日@nature)。論争とは、「(検討対象問題の)量子計算複雑性が、古典計算複雑性よりも小さいかどうか」という論争である。なぜ、そのような論争が起きるかというと、計算複雑性の大小を決定する物理量について、相互に"矛盾する"予測が出ていたからである。検討対象問題は、空間次元がDであるイジング・スピングラス模型の基底状態を求める問題である。当該問題において、量子計算機(この場合、量子アニーラ)が古典計算に対して指数加速を実現するという期待は、(基底状態と最初の励起状態を分ける)エネルギーギャップΔがスピンの数とともに代数的に縮小するという仮定に基づいている。つまりΔ∝ L-zである。ここでLはシステムのサイズ(=スピンの数)であり、zは動的臨界指数と呼ばれるスケーリング係数である。D = 2の場合、z⋍1.5である。しかし、実空間繰り込み群解析では、D = 2、z = ∞であると結論付けられた。これが"矛盾"である。
伊と西の研究者は、(NVIDIAの)GPUを使った超大規模なシミュレーションを行い、この矛盾を解決した。有限のzは励起状態のパリティが偶数である場合に相当し、無限のzは、パリティが奇数の場合に相当する。このため、実は、矛盾は生じない。偶奇パリティの共存は、「当該相転移🐾1が、グリフィス-マッコイ特異性を持つため」と物性物理的には、説明できる(らしい)。
数理物理的な解説はさて置き、その結果、何が言えるかというと『量子アニーリングが指数加速を実現すること自体は、可能である』ことが、理論上明確に示された。ただし、パリティを偶数に制限することは必須であり、これは実験的に達成可能である、とも([*157]では)主張されている。ただし(既に指摘されている通り)、臨界点から横磁場0まで、断熱的に計算を実行する必要があり、それ自体、かなりチャレンジングである。
なお、3⃣との関係性で言うと、D = 2のイジング・スピングラス問題は、古典的に効率的に(つまり多項式時間で)シミュレーション可能である。ただし、それは層度作用を最近傍に限定した場合のみである。次近傍まで拡げると、古典的には多項式時間では解けない。量子アニーラで解ければ、指数加速が示されるが、厳しい課題だろう。結論として、量子アニーリングへの態度は、3⃣で良い(公平)と思われる。
🐾1 ガラス状秩序を持つスピングラス相から、無秩序な相への相転移。
🗡量子×金融は、こちらも参照🗡
註釈:以下は金融≒銀行として、議論展開している。
資産ポートフォリオの最適化等の組み合わせ最適化問題は、量子コンピューターではなく、量子インスパイアード・古典アルゴリズムの守備範囲であろう。それとは異なり、金融でも、量子コンピューターが有望な分野がある。「多重積分」の計算である。
仕組債(地銀等が金融庁から顧客軽視を問題視されことで有名になってしまった)なども含むデリバティブのプライシングや、市場リスク・信用リスク管理の計量化において、高次(数百~数千)の多重積分が要求されるケースがある。
(1) 量子積分アルゴリズム
【3】で述べたように、量子多体系のハミルトニアンは、自由度の数に対して指数関数的に大きな次元を持つ。このことを反映して、入力が1次元であってもN量子ビットからなる量子コンピューターであれば、出力には、N次元表現が自然に含まれる。このような指数的に大きな次元を活用することで、量子機械学習は、学習能力を飛躍的に向上できる可能性を持つのであった。
この「指数的に大きな次元」を多重積分の長方形近似計算に、利用するというのが量子積分アルゴリズムである。これは(下記に示す)量子モンテカルロ法とは異なる。
(2) 量子モンテカルロ法
(古典的)モンテカルロ法(正確に言うと、重み付き(古典的)モンテカルロ法)は、長方形近似を計算しない。サンプル数Nが大きいとき、サンプル平均が「期待値」の良い近似になることを利用する。生成した乱数に従ってサンプリングして、ランダムに間引き計算を行うことで高速化を目指すのが、(古典的)モンテカルロ法である。
① 量子力学の文脈で現れる量子モンテカルロ法とは異なる量子モンテカルロ法
ここで議論する量子モンテカルロ法は、量子力学の文脈で現れる量子モンテカルロ法とは異なる。(多重)積分を実行せずに、近似値を得る計算手法であることは共通しているが、量子デバイスで実行することを前提に開発された量子アルゴリズムである。つまり、古典機械学習アルゴリズムを、量子論的に翻訳したアルゴリズムではない。具体的には「(多重)積分の近似値は、複素確率振幅の推定に書き直せる」ことを利用する。これが、(量子)振幅推定法のアイデアである。
量子コンピューターの計算結果は、確率的に状態が重ね合った状態であり、求めたい状態は、求めたい状態に応じて定まっている確率でしか得られない。その確率を増幅する手法が振幅増大法であり、改良アルゴリズムが振幅推定法である。2020年7月にJPモルガン・IBM・スイス連邦工科大学チューリヒ校(ETHZ)がarXivに投稿した、量子コンピューターを使ってオプション・プライシングを実行したという論文[*22]も振幅推定法を使って、高速化を実施している。
量子振幅推定法は2000年に発明されたが、2015年にモンテカルロ法を2乗加速(2次関数的加速)できることが示された。このアルゴリズムは、FTQCでなければ実行できないが、2019年に開発された最尤量子振幅推定法はNISQで実行可能である[*33]。
なお、量子力学の文脈で現れる量子モンテカルロ法は、基底状態を得る方法を、確率分布からのサンプリングを利用した計算に変換して、効率的に行うという手法である。
② 量子サンプル状態符号化と量子振幅推定法
量子振幅推定法について、その背景をもう少し詳しく説明する。量子論のスケールでは、測定結果は、どんなに頑張っても、確率的にしか得られない。これを、次のようにポジティブ変換する:「量子ビットの測定」は、「(離散的な)確率分布からサンプリングすること」と数学的に等価である。数学的に等価であれば、情報理論の文脈でも、この等価性は成立する。うまく、この等価性を利用すると、測定結果が得られる確率(の平方根)を陽に表した形で、情報符号化が可能になる。この種類の情報符号化は、量子サンプル状態符号化と呼ばれる。
ここで矩形近似(積分値=サンプル値×分割幅)を復活させて利用する。まずトンチ1として、矩形近似でよく現れる分割の幅Δxを、確率と見做す。一般的には、積分区間を等分割する。その場合は、一様分布からサンプリングしているが、当然、一様分布以外の確率分布(確率密度関数)からのサンプリングも可能である。その場合は、分割の幅は、採用した確率分布に応じた幅(サンプル確率)になる。こうして、積分値とサンプル確率が結びついた。
量子サンプル状態符号化では、測定して量子ビットの値が得られる確率が陽に現れる。そして、これは古典的な確率分布から得られる、サンプリング確率と等価であった。トンチ2として、サンプル確率から積分値を求めるのと同様に、量子ビットの値が得られる確率から積分値(近似値)を求める。もちろん前者は古典的であるが、後者は量子論的な手続きであるため、相当複雑である。
先に示した最尤量子振幅推定法は、FTQCでなくNISQで実行可能にするため、位相推定法を使わずに2次加速を達成した「Abrams等の量子振幅推定法」を改良したアルゴリズムである。Abrams等の量子振幅推定法は、ベルヌーイ試行による誤差範囲の調整を繰り返すことで、振幅の推定値(=積分の推定値)を求める手法である。最尤量子振幅推定法は、ベルヌーイ試行の結果から尤度関数を作り、最尤法を用いて積分の推定値を求める。Abrams等の量子振幅推定法及び、最尤量子振幅推定法は、パラメータの最適化に古典コンピュータを使う、量子古典ハイブリッドアルゴリズムと考えられる。
③ 量子モンテカルロ法の加速性
量子コンピューター(量子デバイス)を使った量子モンテカルロ法は、古典的なモンテカルロ法よりも速い(効率的に計算することが可能である)。正確に言えば、被積分関数の評価回数(サンプル数N)が少ない。古典モンテカルロ法がNの2乗であれば、量子モンテカルロ法はNである。つまり2次加速である。2次加速は、量子アルゴリズムで多く観測される。例えば、量子ランダムウォークもそうである。これは、量子力学の確率の構造に起因していると考えられている。
(ここで議論した)量子モンテカルロ法は、量子デバイスの使用を前提とした量子アルゴリズムであり、有望と考えられる。
(3) 戦略設計
(3-1)多重積分についての考察
金融分野(銀行)で多重積分が活用される2大分野は、「デリバティブのプライシング」と「リスク管理」である。それぞれについて考察してみたい。
日本の金融機関は、米系投資銀行に大きく遅れている。デリバティブ・プライシングのスピードで遅れを取ったからと言って、国際競争力に影響を及ぼすとは思えない。市場の歪みを、米系投資銀行より素早く見つけたとしても同様である。例えば、耳目を集めたアルケゴス・キャピタル・マネジメントとの取引で、ゴールドマン・サックスの損失は軽微であった一方、クレディ・スイスは大きな損失を出した(→結末は、23年6月UBSによる買収が完了)。この差は、顧客ネットワークの質や信用力の違いであると言われている。クレディ・スイスでもそうなのだから、野村証券は言うまでもなく、大きな損失を計上した。つまり、鉾だけ強化してもダメで、盾も強化しなければダメだということである。その認識が足りない以上、日本の金融機関による投資銀行業務に、大きな飛躍は期待できないだろう。
市場や経済環境を常時注視し、機を見るに敏で、高収益をあげる。斯様なビジネスモデルであれば、量子コンピュータを使ったリスク管理シミュレーションを素早く実施することは重要であろう。しかし、そもそも銀行は、そういったビジネスモデルを追求すべきであろうか。紆余曲折・リーマンショックを経て、米系の投資銀行でさえ、そのような過去のビジネスモデルを追及できなくなっている。脱炭素時代の銀行は、脱炭素を支える技術の事業化・商業化や、再生エネルギー関連事業の拡大を融資で支えることを本業にすべきである。それは、日本産業の国際競争力を向上させることにもつながる。
その一方で、国内金融サービスのブラッシュアップという意味であれば、多重積分を量子コンピューターで高速化する価値はあるだろう。
(3-2)銀行業における量子コンピューティングのユースケースの考察
なお先述したThe Quantum Decade来るべき量子コンピューティングの時代に向けて[*32]には、『銀行及び金融市場における量子コンピューティングのユースケースは、「ターゲティングと予測」、「リスク・プロファイリング」、「トレーディングの最適化」の 3 つのカテゴリーに大別できる。』と書かれている(最新版の第4版(英語版23年12月公開)でも、変わらず)。
「ターゲティングと予測」では、①顧客毎にパーソナライズされた商品を提供すること、②クレジットカードの不正検知精度を上げるために、クレジット・スコアリングの精度を上げること、を具体例として挙げている。「リスク・プロファイリング」では、③各種リスク・シミュレーション(含シナリオ分析、ストレステスト)の高精度化及び高速化、を具体例として挙げている。「トレーディングの最適化」では、④デリバティブのプライシング、⑤ポートフォリオの最適化、を具体例として挙げている。
①及び⑤は最適化計算で、量子コンピューター(=ゲート方式の量子コンピューター)の主戦場とは限らないと、弊社は考えている。②~④は多重積分計算のカテゴリーである。②は、国内金融サービスのブラッシュアップにつながる(ため量子コンピューターで高速化する価値はあるだろう)。一方、先述の通り、監督当局の国際的な見地での意向を鑑みても今後、銀行は、エキゾチックな金融商品を扱ったり、過度にレバレッジを効かすといった経営が難しくなるだろう。このため③及び④は、日本の金融機関(銀行)における大きなイシューとはならない、と弊社は考えている。
(3-3)銀行業における(量子コンピューターを使った)機械学習・深層学習・強化学習の考察
ここでは、国際競争力の考察から離れて、機械学習・深層学習が銀行において付加価値をもたらす場面を考える。そのような場面として、①アンチマネーロンダリング(AML)、②顧客体験の向上による優良顧客離反の防止、③カードローンにおける適切な与信枠の適時設定、④ローン顧客のリードジェネレーション、⑤資産運用の高度化、などが考えられる(資産運用においては、強化学習の有効性が指摘されている)。これらの分野では、少しの精度改善が大きな利益に結び付く可能性がある。従って、QMLを追及する価値はあるだろう。
もっとも、既出のZapataによるレポート[*96]によると、「金融業界(及び航空宇宙・自動車業界)は、シミュレーションとモデリングを量子コンピューティングの主要な使用例として挙げている」。この理由を、「金融業界では、従来の機械学習/分析/最適化アプリケーションの成熟度が、他業界に比べて高く、量子的な優位性を得るためのハードルが高いため」と分析している。
マッキンゼーは、21年12月のレポート[*49]で、次のように予測している:NISQデバイスでは最適化(①トレーディング戦略最適化、②インデックス・トラッキング最適化(cf.【参考2】)、③担保資産活用(の最適化)が収益をもたらす。FTQCが実用化されれば、④信用リスクマネジメント、⑤市場リスクマネジメント及び、⑥サイバーリスク管理と⑦(資金洗浄等)金融犯罪の低減、が収益をもたらす。金額的インパクトはNISQ:①>②>③で、FTQC:④>⑤>⑥>⑦である。また、①≒⑤で、②≒⑥である。つまり④がインパクト最大である。
マッキンゼーは別レポート[*70]で、『この先の日本における経済繁栄の恩恵を享受する絶好の位置にあるのは、人材戦略やデジタル変革、リスク管理といった分野を重視する銀行である』と述べている。証券子会社が相場操縦事件を起こす銀行が、量子コンピュータを導入しても、意味はないだろう。
なお同レポートでは、6つの攻めテーマを特出ししている。サステナビリティ(実現に対する貢献)とデジタル(革新への対応)が最重要と思われる。守り(リスク防御体制の改善)では、8項目をあげている。サイバーセキュリティや責任あるAIプロセスの構築といったベタ項目は当然として、「サードパーティのモニタリング強化」や「非金融リスクへの備え」、といった指摘は傾聴に値する。
成功確率とは、株式ポートフォリオのポジションが、より有利になる正解を実現する確率という意味である。これは、背景及び設定を説明しないと、ピンと来ないだろう。[*168]では、マーケットメーカーが『地理的に離れた』株式市場AとBで、「正の相関関係がある株式XとY」を、それぞれ取引している。つまり市場Aで株式X、市場Bで株式Yの売買取引を提供している。市場情報に従って、HFTアルゴリズムは変更される。HFTアルゴリズムは、各市場に隣接したサーバーで運用されているので、サーバー同士は地理的に離れている。XとYは相関関係にあるので、ポートフォリオのポジションをより有利にするには、サーバー間で通信を行う必要がある。
ここで、問題なのは、HFTが"超"速い取引だということである。マイクロ(つまり10-6)秒で取引が行われる。将来的には、ナノ(つまり10-9)秒に短縮される可能性が高い。ここまで速いと、サーバーが距離的に離れていると、光の速度での通信であっても間に合わない!つまり結果的に『古典通信を行わずに』最適な取引を行う(=正解を出す)必要がある。そういうセットアップが、CHSHゲームである。古典的成功確率の最大値は0.75であり、量子的成功確率はcos2(π/8)=0.853553391・・・・である🐾4。量子的成功確率が高いからくりは、量子もつれにある。2つのサーバーは、事前に量子もつれを共有しておく。量子もつれを共有しているので、一方(のサーバー)で測定を行った結果が、古典通信を使わずに、他方に伝わる。この"不気味な"性質を活用することで、成功確率が上がる。通信できないのに、意思伝達したように見えるため、量子テレパシーと呼ばれる(通信以外で意思伝達する手段は、テレパシーしかない!)。
[*168]では、物理実装の提案も行っている。直接光子接続方式と量子メモリ方式である。ここで言う量子メモリは、光インターフェイスを持つ、1量子ビット・プロセッサでよい。量子メモリ方式の場合は、ノイズに対する堅牢性の評価も行っている。脱分極ノイズではあるが、十分堅牢であると結論している。
もちろん、[*168]の設定は実際のHFTとしては単純すぎるtoyモデルである。実際の設定に近づけて、達成可能な効率🐾5、忠実度、エンタングルメント生成率🐾6を包括的に分析して、どれだけ大きな量子優位性を達成できるかを評価することが、課題となる。
🐾1 筆頭著者Dawei Ding。直近は、中国アリババの量子研究所(所在地は米国)に勤務していたが、アリババが量子研究所を閉鎖した(23年11月末)ため、独立研究者となっていると推量。ちなみに、米スタンフォード大のPh.D。
🐾2 Clauser・Horne・Shimony・Holt。
🐾3 BQP ≠ BPP などの複雑性理論の仮定を必要としない。
🐾4 驚くべきことに、強い制約条件をつける必要があるものの、成功確率を100%にすることができる。
🐾5 エンタングルされた光子の取得に成功する確率。
🐾6 エンタングルメント・エントロピーの時間微分(値)。
古典的審判付き取引モデルは、プレイヤーの戦略的行動に、古典的相関関係を導入することで、ナッシュ均衡の利回りを高めることができるモデルである。プレイヤーにどのような戦略をとるべきかを、個々のコイン投げの結果(つまりは、確率)についてアドバイスを与える存在として、審判を概念化できる。ただし、囚人のジレンマはショート戦略がロング戦略を強く支配するという顕著な特徴を持つため、古典的審判付き取引モデルでは、ナッシュ均衡の改善にはつながらない。そこで、量子審判付き取引モデルの登場である。量子審判付き取引モデルであれば、他の方法では達成できない優れたナッシュ均衡(における利回り)を提供することができる。
では、古典的審判付き取引モデルと量子審判付き取引モデルとのパフォーマンスの違いを生み出した原因は何か? [*200]は古典的相関と量子相関(量子もつれ)の違いに原因を求めているが、それでは分かり難い🐾3と思われる。そうではなく、古典的確率と量子確率との違いに求めた方が、分かり易い🐾4と思われる。量子確率は、量子確率論における確率概念である。では、量子確率論とは何であろうか(量子確率論については、[*201]、[*202]及び[*203]を参考にした)。
まず、完全に天下り的であるが、以下を認めよう:量子力学では、物理量を非可換演算子(数学用語では、非可換作用素)として扱う。一方で、量子力学において観察される物理的な現象は、確率的な性質を持っている(ことが実験により示される)ため、量子力学における物理量は非可換確率変数とも呼ばれる。必然的に、量子力学の数学的体系は確率論を含む。
しかしながら、ややこしいことに、量子力学では、その持って生まれた「非可換性」のため、「古典的確率論では記述できない確率的な物理的現象」が観測されてしまう。ここで言う、古典的確率論とは、アンドレイ・ニコラエヴィッチ・コルモゴロフによって確立された、測度論的確率論を指す。量子力学に現れる「古典的確率論では記述できない確率的な物理的現象」を記述できるように拡張された確率論を、量子確率論と呼ぶ(ことができる)。
量子確率論を数学的に記述すると、以下のようになる:古典的確率論は、確率空間を基に展開される。一方、量子確率論は、代数的確率空間を基に展開される。量子確率論における代数的確率空間は、非可換確率変数の代数系を考えることによって、定義される。量子力学では、非可換確率変数は、非可換作用素でもあった。(作用素は逆元を持たないことが珍しくないため)作用素の代数系として体(フィールド)を考えることは難しく、代わりに、環(リング)を考えることになる🐾5。つまり、代数的確率空間は、非可換確率変数の代数系として、非可換作用素環を考えることになる。故に、量子確率論は、確率論的非可換作用素環論と解釈することが可能である。
なお、ここで紹介した量子取引技術が、温暖化ガスの排出権取引市場で利点をもたらすだろうという予測は、興味深い。排出権取引市場は、より高い価格を維持することで汚染を緩和するように設計されているが、囚人のジレンマのダイナミクスを採用すると、空売りが支配的な戦略になり、市場のボラティリティと潜在的な価格低下につながる可能性がある。[*200]は、量子取引技術が、これを回避できる可能性があると主張している。
🐾1 米デューク大学、米メリーランド大学
🐾2 モダリティは、トラップイオンで、メリーランド大学に設置されているマシンを使った。
🐾3 次のような記述は、数学的あるいは量子論的解釈を難しくするだろう:「量子もつれを非物理的な意味で解釈し、経済主体の戦略を一致させる共有された心理的契約として捉える。明示的な契約交渉の結果ではなく、この一致は個人の行動を同時に形作るより広範な社会経済的要因から生じる」、あるいは「直接的なコミュニケーションがない場合でも『道徳基準、価値観、法的規則、共通の経験、類似した教育的背景』などの広範な社会経済的要因は、総合的に意思決定に影響を与え、個人を協調的な行動へと駆り立てる」。
🐾4 量子確率が、量子認知機械学習を量子機械学習との違いを生むと主張するポジション・ペーパーとして、米Qognitionによる[*204]がある。
🐾5 少しだけ正確さを付け加えると、*環という「∗ 演算で閉じている環」を考える。*演算とは、イメージ的には、行列の共役転置演算の無限次元版である。
↑目次に戻る
【Appendix 1】 若干の準備
(1) 量子コンピューターの計算過程
量子コンピューターにおける「量子計算」の過程は、①入力、②計算、③測定の3プロセスで構成される。①の入力に関して述べると、量子コンピューターは、情報表現に量子力学的状態を用いる。いわゆる量子もつれ(エンタングルメント)と呼ばれる状態を用いる。量子コンピューターにおける情報の単位は、量子ビット(qビット)と呼ばれる。
②の計算に関して述べると、量子コンピューターは、量子ゲートと呼ばれる論理演算素子を用いる。詳細は、後述する。
③の測定は、量子コンピューターに特有の性質である。計算結果は、確率的に状態が重ね合った状態である。その状態から、個々の状態を得る必要がある。個々の状態が求めたい結果≒解である。しかし解は、解に応じて定まっている確率でしか得られない。そのため解を、誤差ε以下で求めるには、数多くの測定が必要となる。実際には、振幅推定法(AE、振幅増幅法(振幅増大法とも呼ばれる)AAの発展的手法)を用いて、その測定数を大幅に減らすことが可能である。
(2) 量子ゲート方式量子コンピューターと量子アニーラ
❶ 量子ゲート方式量子コンピューター
量子ゲート方式量子コンピューターでは、量子ゲートを論理演算素子に用いる。量子ゲートは、入力量子状態をユニタリ演算子によって変換し、その変換した状態を出力する論理演算素子である。量子ゲートが、ユニタリ演算子でなければならない理由は、確率を保存したいからである。また、ゲートという言葉は、古典コンピューターで論理演算を実行するゲート回路に由来する。
❷ 量子アニーラ
量子アニーリング法というアルゴリズムをハードウェア実装(物理実装)して、近似解を求めるコンピューターが、量子アニーラである。量子イジングマシンとも呼ばれる。一般的には、量子アニーリング法というアルゴリズムをソフトウェア実装したコンピューターが、疑似量子コンピューターと呼ばれる。量子アニーラは、2次制約なし2値最適化問題(Quadratic Unconstrained Binary Optimization problem: QUBO)しか扱うことができない。つまり、解決したい問題をQUBO形式に(人力で)変換する必要がある。もっとも、この変換作業を自動的に実行することも可能である。
イジングマシンとは、イジングモデル(下記④を参照)に帰着させた組み合わせ最適化問題を解く専用機という意味である。量子アニーリング法は、イジングモデルと深い関係がある(下記③を参照)。
量子アニーリング法は、量子スピン変数で記述される目的関数を最小化するアルゴリズムである。量子スピン変数に対応する量子ビットを、超伝導量子干渉計として物理実装し物理操作によって近似解を求める量子アニーラが、D-Waveマシンである。
❸ 量子アニーリング法
量子アニーリング法は、スピングラスの研究者であった東工大の西森教授と、大学院生の門脇正史氏が、1998年に考案した。スピングラスの基底状態を「横磁場モデル」で近似的に探索するアルゴリズムが、量子アニーリング法である。横磁場モデルとは、イジングモデルに、外部(の横)磁場を導入したモデルである。量子相転移を記述することができる横磁場モデルは、量子モデルである。
❹ イジングモデル
イジングモデルは、常磁性・強磁性相転移を記述する古典統計力学モデルである。広く知られているように、厳密解が得られる可解格子モデルである[*23]。
❚ 量子アニーラを使った実例 ❚
❶グルーヴノーツは量子アニーラを使うことで、トラックの走行台数を変えることなく1日当たりの土砂運搬量を約10%増加できることをことを実証した(発表:2021年1月17日)[*36]。清水建設との共同プログラム。
②NTTと三菱重工業は光イジングマシンを使って、人員計画の作成に要する工数を大幅に削減できる[可能性を確認した」(!)と発表した(発表:2022年4月25日)[*42]。
③KDDIエボルバとKDDI、日立製作所の3社は、シミュレーテッド量子アニーリング法(SQA)を使ってコンタクトセンター・スタッフの勤務シフトを自動作成し、シフト作成時間を5割超短縮できることを確認した(発表:2022年8月26日)[*51]。2023年以降の実用化を目指すとしている。
④積水化学工業と日立製作所は、材料開発において協業(協創)を開始すると発表した(22年9月20日)[*58]。ただし協業内容は、日立の疑似量子コンピュータ「CMOSアニーリング」を使った最適条件探索のみならず、材料開発統合ナレッジベースの開発や材料実験のDXを含む。
⑤株式会社トヨタシステムズと富士通株式会社は、トヨタ自動車株式会社に対し、富士通の量子インスパイアード技術「デジタルアニーラ」を、自動車生産業務へ適用することを発表した(22年10月21日)[*81]。
⑥損害保険ジャパン株式会社は、同社の損害保険業務において、日立製作所によるCMOSアニーリングの実務利用を開始することに合意した(22年3月29日)[*82]。自然災害リスクのポートフォリオに対して、多目的最適化を実行する。具体的には、再保険条件及び実務上考慮が必要なその他条件下で、保有すべきリスクと外部移転すべきリスクを分配し、リスク・リターンを最適化する。
⑦富士通は、スペインの金融機関であるKutxabank(クチャバンク)が推進する投資ポートフォリオの最適化検証プロジェクトにおいて、同社のデジタルアニーラを活用して開発された「問題の定式化に必要な変数の数を減らすアルゴリズム」の有効性が確認されたと発表した(22年12月22日)[*88]。従来のアルゴリズムより、適した投資配分の算出が可能なことを実証したと主張。
⑧住友商事はフィックスターズとパートナー契約を締結し、物流倉庫での実運用を開始したと発表した(22年10月)[*92]。住商グループのベルメゾンロジスコは、物流梱包業務の担当者割当作業を数時間から15分程度に短縮した[*93]。また、野村総合研究所は21年8月に、フィックスターズとパートナー契約を締結[*94]。データセンターの消費電力を最大10%削減することに成功したという[*93(再)]。
❾清水建設は、グルーヴノーツ、GEOTRA(三井物産とKDDIのJV)と共同で、「交通・防災・観光の最適化を図るためのデータ分析プラットフォームの開発に着手した」と発表した(23年2月)[*97]。"最適化"部分に、量子アニーラを利用する。アプリケーションとして面白い。
⓫グルーヴノーツは、量子アニーラを使って、惣菜製造ラインにおいて、ロボットと人が協働できるシフトを作成したと発表した(23年3月)[*108]。
⓭三菱UFJ銀行は、グルーヴノーツと資本・業務提携を締結したと発表した(23年7月13日)[*123]。信用及び市場リスク管理の高度化、評判リスクやオペレーショナル・リスク分析の精緻化、(店舗運営、ATM運用、コールセンター運営における)業務効率化など、に取り組む方針。
⑮NTTは東京電機大学と協力して、第6世代(6G)の無線リソースのリアルタイム最適化を実現した、と発表した(23年10月25日)[*140]。6Gに対応するため、今回、「伝搬QUBOモデル(22年12月発表済)」に、Fraunhofer近似を落とし込むことに成功した。また、実機(疎結合5,640量子ビット)で動作させることに成功。
⑯シャープは、東北大学と協力して、自動搬送ロボットの多台数同時制御に関する共同研究を開始した、と発表した(23年12月19日)[*142]。千台規模の自動搬送ロボットの最適経路を瞬時に計算できることを目指す。
⟦ update ⟧ 1,000台規模の自動搬送ロボットを同時制御可能な計算エンジンの開発に成功した、と発表(24年9月2日)[*165]。2026年度中に性能評価や実証実験を行い、27年度内の実用化を目指す、という。なお、シミュレーテッド量子アニーリングを使っているので、古典コンピュータを使用。
⑰ロームは、Quanmatic†1と協働して、半導体製造工程(EDS工程)の生産効率を改善した、と発表した(23年12月5日)[*145]→24年4月に本格導入する予定。制約付き組み合わせ最適化問題を高精度に解く手法[*146]を適用していると思われる。
†1 実ビジネスにおいて現れる、組み合わせ最適化問題に対する高精度解法を開発・提供する、スタートアップ。早稲田大学の研究成果をベースとしている。当面は、量子アニーラ向けのアルゴリズムを開発する。
⑱情報通信研究機構は、「非直交多元接続技術における信号分離」を組み合わせ最適化問題として、量子アニーラを使って解いた、と発表した(24年7月25日)[*158]。既存手法と比べて計算時間が約1/10になったとする。なお、量子アニーラは、サンプラーとして使用された。
⓪カナダ西部最大の食品・ヘルスケア製品販売会社Pattison Food Group(PFG)は、配達ドライバーのスケジュール表作成に、D-Waveの量子アニーラを使用している(2022年末稼働)[*232]。作成にかかる時間を80%削減した。
⑩米マスターカードは、インセンティブ・マーケティングを実施する顧客の抽出に、D-Waveの量子アニーラを使用しているという[*103]。
⑫米国の広告(及びマーケティングサービス)会社インターパブリック(・グループ・オブ・カンパニーズ、IPG)は、「マーケティング キャンペーンの最適化に取り組むために設計された量子ハイブリッドアプリケーションの研究開発」でD-Waveと協力すると発表した(23年6月)[*111]。
⑭伊のフィンテック・スタートアップSatispayは、D-Waveと共同で、顧客獲得のための顧客報酬プログラムを最適化するアプリケーションを開発したと発表した(23年10月13日)。Satispayは、個人間のモバイル決済ネットワークを提供している。
⑲NTTドコモは、「ネットワークとしてページング信号†2数を最小化するための基地局のグループを見つける、という組み合わせ最適化問題に対する、量子アニーラの有効性を実証した」と発表した。量子アニーラは加D-Wave製。ドコモ発表[*163]は24年6月27日、D-Wave発表[*164]は、24年8月20日。ページング信号を最大15%削減可能であることを確認した、とする。当該最適化問題を従来ソルバーで解くには27時間を要した一方、量子アニーラでは40秒[*164]であったとする([*163]では、"わずか1分程度"となっている)。
†2 移動通信の文脈におけるページングとは、「着信時に端末を一斉に呼び出す処理」である。着信時、「基地局が端末の所在を把握するために、端末に向けて発信する信号」がページング信号である。
⑳D-Waveと日本たばこ産業株式会社(JT)医薬事業部は、AIと量子コンピューティング技術を創薬プロセスに活用する共同の概念実証プロジェクトを計画していることを発表した(24年10月1日)[*167]。低分子化合物の発見プロセスを加速することが目的。
👉 上記プロジェクトが成功裏に完了したことを発表(25年3月31日)[*196]。量子強化LLM(大規模言語モデル)は、通常の(古典的)LLMよりも、医薬品候補としてmore有効な低分子化合物を、素早く生成できることを実証した、とする。概念実証プロジェクト完了を受け、今後、実プロジェクト(医薬品開発)に進む。
👉👉 JTは医薬事業を、塩野義製薬に譲渡することを発表(25年5月7日)[*211]。子会社の鳥居薬品、孫会社のAkros Pharma†5も併せて、塩野義が譲り受ける。D-Waveとの成果(⤴)は、どう扱われるのだろうか?
†5 業務内容は、米国における「臨床開発」。
㉑D-Waveと加Staque†3は、自律型農業車両の動きを最適化する商用ハイブリッド量子アプリケーションを構築したことを発表(25年2月18日)[*189]。
†3 AI、ブロックチェーン、量子コンピューティングの大手コンサルティング会社らしい。➡Staqueは、SuperQ Quantum Computingと社名変更。カナダ証券取引所、フランクフルト証券取引所に上場している。量子コンピューティング・ソフトウェア・プラットフォームのプロバイダーということになっているらしい。
㉒セキュリティ,スケーラビリティ,効率性を向上させる、「PoQWフレームワーク」を発表した(プレスリリース[*193]は25年3月20日、論文[*194]@arXivは3月18日)。PoWフレームワークと比べて、エネルギー消費が1/1,000になると予測している。
㉓トルコFord Otosan†4は、D-Waveの量子アニーリング技術を使用して、自動車の製造プロセスを合理化したと発表した(25年3月31日)[*197]。Ford Otosanでは、カスタマイズされる1,500種類以上のモデルが生産されており、生産順序付けの最適化を含む製造プロセス要素の簡素化に対するニーズが大きい。
†4 米自動車大手フォード・モーターとトルコKoç Holdingの合弁会社。
㉔米大手メディア・テクノロジー企業コムキャストは、「量子コンピューティングがインターネット接続の管理と提供方法をどのように変革できるかを探る」ことに専念する組織を設置することを発表した(25年9月26日)[*228]。D-Wave及びClassiq(イスラエル)と提携する。
㉕英国の北ウェールズ警察は、フォワード展開†6を最適化するためのハイブリッド量子アプリケーションの構築及びテストの完了を発表(25年9月30日)[*229]。警察の車両調整時間を4ヶ月から4分に短縮した、らしい。4ヶ月という長さは(インシデントに対して適時対応するという意味で、)ほぼ無意味という理解でいいのだろうか。
†6 リスクの高い地域で戦略的にポジショニングを行う、という意味らしい。フォワード展開は、(インシデント発生から対応までの)応答時間を速くし、見せる警察活動≒巡回活動(原語では、visibility)を強化し、犯罪を阻止できるようにすることを目的としている。
㉖東北大学は、データ・クレンジングにブラックボックス最適化と量子アニーリングを併せて適用し、古典シミュレータ対比ウォールタイムで、約10~100倍の高速化を実現した、と発表(25年10月29日@Scientific Reports[*234])。
㉗独化学大手BASFは、液体充填施設における製造ワークフロー最適化にかかる共同概念実証プロジェクトの完了を発表(25年11月5日)[*235]。生産スケジューリング時間を10時間から数秒に短縮した、と主張。
(3) NISQとFTQC
現在使用可能な、量子ゲート方式量子コンピューターは「NISQ(Noisy Intermediate-Scale Quantum)」と呼ばれている。将来主流になると見込まれる同方式量子コンピューターは、「誤り耐性量子コンピューター(FTQC)」と呼ばれている。NISQは、量子誤り訂正機能を実装していない中規模(50~100量子ビット)の量子コンピューターを意味する造語(名付け親は、量子コンピュータ研究の権威であるカリフォルニア工科大学のジョン・プレスキル)である。
NISQは、古典コンピューターと量子コンピューターを組み合わせて使用されるが、その構図は、FTQCでも同じである。
【Appendix 2】 量子誤り訂正と量子誤り緩和
(0) 用語の整理
㊀ 量子誤り抑制(suppression)・・・量子ビットのノイズを少なくするための一連の手法を指す。
量子誤り抑制は、古典(計算機で使用する)ソフトウェアと機械学習アルゴリズムを使用して、量子回路と量子ビットの動作を継続的に監視および分析することに重点を置いている。回路設計と命令を調整することにより、量子誤り抑制は量子ビットに保存されている情報をより適切に保護することを目指している[*187]。
㊁ 量子誤り緩和(mitigation)・・・量子計算の結果を古典的方法で事後処理し、量子誤りを取り除いた結果を統計的に推量する。
量子誤り緩和(あるいは軽減)は、計算を完全に失敗させるのではなく、計算の精度を低下させる量子誤りを対象とする。ノイズ・キャンセリング技術と同様に、この方法は、特定の量子システムで観察されるノイズ・パターンに基づいて計算中に"修正"を適用する。アルゴリズムを複数回実行する必要があり、量子誤りを完全に訂正できるわけではないが、最終出力の誤りを効果的に削減する[*187]。
㊂ 量子誤り訂正(correction)・・・量子計算中に発生した量子誤りを検出し、(リアルタイムに)訂正する。
(1) 古典的な誤り訂正と誤り耐性コンピューター
古典コンピューターも計算エラーが発生するので、誤り訂正は必要である。古典コンピューターで誤り訂正符号を発明したのは、ベル研にいたリチャード・ハミングである。(通信ではなく、計算の文脈で用いる)誤り訂正とは、①冗長な符号を入力情報に加え、②出力結果を検査することで、③誤りを識別して、さらに④誤りを訂正する枠組みである。①の冗長な符号が、誤り訂正符号である。冗長な符号を入力情報に加える(正確には、入力に生成行列(量子的な言い方をすれば、生成演算子)を掛けて、符号を生成する)ことが、符号化である。誤りを識別するために、出力に検査行列(検査演算子)を掛ける。
古典的な演算素子が、一定の確率で誤動作しても、誤りを訂正して計算を行うことが可能な、誤り耐性のある古典コンピューターの理論は、フォンノイマンが確立した(1954年)。
(2) 量子誤り訂正符号とFTQC
量子コンピューターは様々な理由で、古典コンピューター以上に計算エラーが発生する。そして、連続的に表現される=無限の自由度を持つ量子情報とノイズを識別することは、離散的に表現される古典的情報とノイズを識別することより、難しいことは容易に想像できる。量子情報とノイズの識別は、かつては不可能では?と考えられていた。その識別が可能なことを示したのは、ショアのアルゴリズムで知られる数学者ピーター・ショアである(1995年)。
量子誤り訂正も、冗長な符号を入力情報に加えることで、ノイズから情報(量子ビット)を守る仕組みである。多体量子系が有する大きな空間の"性質の良い"部分空間に、情報を符号化して埋め込むことで、量子情報とノイズの識別することができる。それをショアが証明した。
冗長な符号を加えて作られる複数の量子ビットを、"性質の良い"部分空間で、もつれさせ、「必ず同じように振る舞う」ようにする。誤りが発生すると、その量子ビット同士のもつれが崩れ、同じような振る舞いをしなくなる。それを検出することで誤りを識別し、さらにその誤りを訂正する。その一連のプロセスが、量子誤り訂正である。
FTQCは、量子誤り訂正が可能な量子回路を設計することで、所望の精度を備えた解を得る量子コンピューターである。
(3) しきい値定理と0.0001%
フォンノイマンが確立した、誤り耐性のある古典コンピューターと同様な理論が、量子コンピューターでも確立している。それが、しきい値定理である。
しきい値定理によれば、『量子コンピューターの部品となるあらゆるデバイス、演算、測定等において、ノイズが含まれていても、それが誤りしきい値よりも小さければ、実用的な時間で任意の精度で量子計算を実行できる。』ことが証明されている。
ところが、そのしきい値が0.0001%という値であったことから、FTQCは現実的ではないと考えられていた。
(4) トポロジカル量子誤り訂正符号・露払い
しきい値を0.0001%から1%に上げたのが、トポロジカル量子誤り訂正符号である。なぜ、それが可能になったかというと、ノイズに強いからである。
ショアが証明したように、量子多体系が有する大きな空間の"性質の良い"部分空間に、情報を符号化して埋め込むことで、量子情報とノイズの識別することができた。トポロジカル符号では、縮退した基底状態が張るヒルベルト空間を、この部分空間としている。そして冗長性を加えた量子情報が、縮退した基底状態に符号化される。この縮退した基底状態が、ノイズに強いことが望ましい。もちろん、ノイズ検出が容易であることも望ましい。
(5) 巻き付き数というトポロジカル不変量
唐突であるが、ある準位まで占有された波動関数を考える。言うまでもなく、波数空間とヒルベルト空間との間には写像関係を考えることができる。この関係を、占有された波動関数に対しても考える。占有された波動関数の場合、占有された波数空間(正確にはブリュアンゾーンであるが、ここでの理解のためには波数空間をイメージしても良い)とヒルベルト空間との間に写像関係を考えることができる。
占有された波動関数の種類によっては、ヒルベルト空間内に写像された波数空間がヒルベルト空間に「巻き付いている」と考えられる場合がある。再び天下り的であるが、その巻き付いている数が、トポロジカル不変量となる。トポロジカル不変量は摂動に強い、つまりノイズに強い。こんな、木で鼻を括った(?)ような説明では、トポロジカル符号がノイズに強い理由が、わからない。こういう意見もあるだろう。そこで直感的な説明も、後述する。
ここでは諸々、天下り的に飲み込む。その上で、ある準位まで占有された波動関数を「縮退した基底状態」と結び付ければ辻褄は合うので、話を進める。
(6) トポロジカル符号、トポロジカル不変量、トポロジカル秩序相。そしてトポロジカル量子ビット。
そもそもトポロジカル符号は、トポロジカル秩序相の縮退した基底状態を符号化に用いているため、トポロジカルという名で呼ばれる。
トポロジカル秩序相は、従来のパラダイムから逸脱した物質相(量子相)で、オーダーパラメーターで記述できる秩序が存在ない。トポロジカル秩序相は、オーダーパラメーターではなく、トポロジカル不変量と呼ばれる物理量によって相区分される物質相である。トポロジカル秩序相では、「縮退した基底状態が、物理系のトポロジーにより決定される。」という性質がある。
ここで、代表的なトポロジカル秩序相である、分数量子ホール系を取り上げよう。さらに、2次元で周期的境界条件を課して、トーラスで考える。このとき分数量子ホール系の基底状態は、ランダウ準位の占有率で決定される縮退度で縮退する。
このようにして、トポロジカル秩序相を利用すれば、トポロジカル不変量を背景とするノイズに強い縮退した基底状態で張られる部分ヒルベルト空間で、量子情報を保護することができる。
余談ながら、そんなにノイズに強いのなら、誤り訂正符号のみならず量子ビットにも使えば良いのでは?と考えるのは、自然な発想である。そのような量子ビットは、トポロジカル量子ビットと呼ばれる。トポロジカル量子ビットを使った量子コンピューターが、トポロジカル量子コンピューターであり、マイクロソフトが実現を狙っている。トポロジカル量子ビットは、ノイズには強い一方で、コントロールは難しいと言われている。
[参 考] トポロジカル量子コンピュータの進捗[*131]
マイクロソフトは、フィジカルレビュー(の論文[*132])にて、作成したヘテロ構造デバイスが、"トポロジカル・ギャップ・プロトコル"に合格した、と発表した(23年6月)。プロトコルに合格=マヨラナ・ゼロ・モードをホストするトポロジカル位相が検出される可能性が高い、である。
マヨラナ・ゼロ・モードを使った量子ビットで、約10-4の誤り率を持つ物理量子ビットを実現することを、まず目指す。この量子ビットと (量子誤り訂正符号として)フロケ符号を組み合わせて、誤り率10-6の論理量子ビット実現を、次に目指す。物理クロック速度は、数十MHzが目標である。
マイクロソフトのトポロジカル量子コンピュータは測定型であるが、クラスター状態(あるいはリソース状態とも呼ばれる)を初期状態として準備する必要がない。
(7) もう少し直感的な説明
トポロジカル符号が、ノイズに強い理由を、もう少し直感的に説明すると、次のようになる。トポロジカル符号で用いられる縮退した基底状態は、幾何的に表現すれば、非自明なループである。非自明なループに誤りが発生するとしたら、それは「非局所的」な誤りなので、発生確率が低い。つまり、縮退した基底状態でエンコードした符号は、誤り率が低いと考えられる。
(8) 量子誤り緩和
NISQは、量子古典ハイブリッドアルゴリズムが実行され、量子誤り緩和で正確な答えを得る。量子誤り緩和は、計算の繰り返し回数を増やし、統計的な処理を行ってノイズを低減する仕組みである。このため、量子ビットを増やす必要がなく、NISQでも実装が可能となる。
面白いことに、量子誤り緩和は量子誤り訂正を補完する。
① NTTと大阪大学の藤井啓祐教授は、量子誤り訂正に量子誤り緩和を組み合わせることで、計算精度が向上することを世界で初めて示した[*24]。つまり、NISQで量子古典ハイブリッドアルゴリズムを実行し、量子誤り緩和を研究することは、FTQCの時代に有用な資産となる。
さらに、NTTと大阪大学量子情報・量子生命研究センターは共同で、量子誤り訂正と量子誤り緩和を組み合わせ、NISQで信頼性のある計算を行うハイブリッド量子誤り削減法を提案した(2022年3月18日)。今回提案された手法により、必要な量子ビットの数を最大で 80%削減できることが示された[*38]。量子誤り訂正符号で符号化された論理量子ビットに対して、効率的に行える操作は限定されてしまうため、量子誤り訂正を適用した後に残る誤りを、量子誤り緩和で取り除けるかは自明ではない。probabilistic error cancellation(確率的エラーキャンセル:2017年に、IBMの研究者が発表した手法)を採用し、推定する古典コンピュータの情報処理を少し書き換えるだけで量子誤り緩和を実行できることを示した。
② IBMのチームによって、クリフォードゲートに誤り訂正、非クリフォードゲートに誤り緩和を用いることで、NISQでも、量子誤り耐性計算を実行可能な量子コンピューターと同等の計算ができることが示された。[*45]
(9) 格子手術における誤り訂正(復号処理)
代表的な量子誤り訂正符号である「表面符号」で保護された論理量子ビットを用いて、量子計算を行う手法として、格子手術という枠組みが提案されている。これまで、格子手術を用いた論理量子ビット同士の演算の誤り訂正を行うことはできなかった。
慶応大学・名古屋大学・理化学研究所は、格子手術に対応可能な復号アルゴリズムを提案した。このアルゴリズムによって、論理量子ビット間で量子演算を行っている最中に生じるエラーを、高速に訂正できると期待できる[*39]。
(10) 量子誤り訂正 part2
量子誤り訂正について、箇所を改めて、新しい動きをまとめる。
①[修正あり] 米国のプリンストン大・イェール大・ウィスコンシン大学マディソン校の研究チームは、斬新な手法を発表した(22年8月9日、natureコミュニケーションズに論文[*53]掲載)[*54]。量子誤りを消失誤りに変換して、量子誤り訂正を行う。モダリティは中性原子方式(ちなみに、原子はイッテルビウム)である。詳しくは、こちらを参照。
② リアルタイムで訂正を行う量子誤り訂正には、量子ビットの状態測定が不可欠である。誤り訂正における測定(シンドローム測定、パリティ・チェック(検査)とも言う)は、ハードウェア効率的ではないため、効率的な測定方法(連続測定)が、沖縄科学技術大学院大学・アイルランドのダブリン大学トリニティカレッジ・豪クイーンズランド大学の共同研究チーム、によって提案された(論文公開は、22年9月14日)[*55]。ただし現状では、誤り推定にかかる時間が量子ビット数に対して、指数関数的に増えるというデメリットがある。つまりFTQCを実現するために必要と目されている量子ビット数を少なくできる代わりに、量子コンピュータの高速性が失われるという、トレードオフが発生する。
③ Artemisプロジェクト・・・量子誤り訂正に必要な物理的リソース低減を目的に、強化学習を使用したリアルタイム・ニューラルネットワークを組み込んだ量子コントローラを開発するプロジェクト。商品化がゴールである。仏のH/WスタートアップAlice&Bob、イスラエルのS/WスタートアップQuantum Machines及び、仏リヨン高等師範学校、独マックスプランク光科学研究所が参加。期間は22年4月から3年間。[*56]
④ ボソニック符号について・・・チャルマース工科大学(スウェーデン、米Atlantic Quantumのパートナー)の研究者は、ボソニック符号化に必要な共振器を制御する新しい方法を開発した(22年7月)[*61]。その成果として、猫状態、GKP状態、二項状態に加えて、3次位相(cubic phase)状態まで作成できた。開発された方法は、システムパラメータの変動に対して、ロバストだと言う。
連続量変数で測定型の万能量子計算を実行するには、ガウス型操作(ゲート)に加えて非ガウス型操作(ゲート)が必要である。非ガウス型操作は、任意の1種類で良いことがわかっている(cf.回路型量子計算のTゲート)。確率論的量子ゲートは(信頼性がないため)計算ゲートには使えないので、決定論的(つまり確率1の)量子ゲートが必要となる。その代表例が、3次位相ゲートであり、東大の古澤研究室などで研究されているが、大変煩雑な処理が必要である。チャルマース工科大の成果を取り入れることで、研究が加速できるだろうか?
⑤ 猫符号について・・・スイス連邦工科大学ローザンヌ校の研究者は、新しい猫符号を提案した(論文[*113]の公開は、23年6月7日)。従来の猫符号には、㊀光子駆動と光子損失により安定化させている「散逸猫符号」と、㊁光子駆動と非線形性により安定化させている「Kerr猫符号」がある。新しい猫符号「臨界猫符号」は、光子駆動、光子損失、Kerr非線形性が共存して、安定化させている。この臨界猫符号は、複数量子ビット動作の特徴であるランダムな周波数シフトに対して特に耐性がある、と主張している。(論文の著者は、1次相転移からcriticalという文言を採取しているので、criticalに臨界という訳語を用いた。)
(11) 量子誤り緩和 part2
量子誤り緩和について、箇所を改めて、新しい動きや商用製品等をまとめる。
① 起源不明のノイズの影響を受けた量子状態であっても、効率的に量子誤り緩和できる方法(一般化量子部分空間展開法)を、東京大学・NTT・産総研・大阪大学が開発した[*57]。基底状態の量子シミュレーションで発生するエラーを効率的に抑制できる。NISQマシンを使った新素材開発等に貢献することが期待できる。
② カナダの量子ソフトウェア・スタートアップ1QBit、加ウォータールー大学、および加ペリメーター理論物理学研究所の研究者は、基底状態の(量子シミュレーションにおける)推定値を改善できる新しい誤り緩和法を開発した。nature machine intelligenceに論文投稿した(22年7月20日)[*58]。投稿誌からも分かるように、機械学習を活用する。具体的にはTransformerを使って量子状態トモグラフィを行い、基底状態を推定する(この推定した基底状態が、変分モンテカルロ法の入力。変分モンテカルロ法の計算結果が、最終的に求めたい基底状態となる)。
③ True-Q・・・カナダのスタートアップQuantum Benchmark(加ウォータールー大と米ローレンス・バークレー国立研究所の研究者が設立。21年5月、米キーサイトテクノロジーズが買収)が開発した、NISQ用量子誤り緩和用ソフトウェア。True-Qは、Randomized CompilingというQuantum Benchmarkが開発した技術がベースとなっている。2016年に最初に概念化されたRandomized Compiling(RC)は、計算対象の量子回路に対して、使用するゲートの種類を変えた等価な量子回路を複数用意し、統計的に量子誤りの効果を分散させて、演算の精度を高める技術である[*59]。RCは、誤り訂正する代わりに、誤りが量子ビットに影響を与える方向をランダム化することで誤りを"軽減"する。誤り訂正するためには補助量子ビットを(大幅に)追加しなければならず、問題をより複雑化する懸念があるからだ。
富士通は、誤り緩和(軽減)技術として、このRCを担いでいる。
④ Mitiq・・・パイソンベースの(NISQ用)量子誤り緩和ソフトウェアパッケージ。誤り緩和法として、ゼロ・ノイズ外挿(ZNE)、確率的エラーキャンセル(PEC)、 クリフォード・データ回帰といった手法が実装されている。環境は、Qiskit(IBM)、Cirq(Google)、pyQuil(Rigetti)、PennyLane(Xanadu)をカバーしている。👉 Mitiqを開発したUnitary Fundは、米NSF(国立科学財団)から、およそUS$1.5milの助成金を授与された(期間:23年8月15日~25年7月31日予定)[*127]。助成金は、Mitiqプロジェクトを中心としたオープンソースエコシステムを強化するため使われる。
ちなみに、東京大学は22年10月12日、クリフォード・データ回帰を適用することで、強レーザー場によって駆動される窒素分子イオンの電子波束の時間発展を定性的に再現することに成功した、と発表した[*71]。クリフォード・データ回帰は、「非クリフォード・ゲートの一部をクリフォード・ゲートで置換した量子回路を、量子コンピューターと古典コンピューターとでシミュレートし、両者を比較することによって、量子計算誤りの大きさを評価する」という誤り緩和法である。
⑤ IPA(情報処理推進機構)2020年度未踏ターゲット事業の採択プロジェクトの一つ「機械学習を用いたNISQアルゴリズム向けの誤り補償手法の開発」では、『注意機構付き機械学習モデル(以下、Att-ML)は、量子誤り緩和に有用か』が検証された。ざっくり言うと、②と同じようなことを行った。対象は、パラメータ付き量子回路であり、言うまでもなくTransformerは代表的なAtt-MLである。具体的には、以下の通り:i)Depolarizingエラー[*60]では、Att-MLは線形モデルと同程度の有用性がある。ii)Amplitude-Dampingエラーでは、線形モデルが低減できないエラーをAtt-MLでは抑制可能であるケースを発見。
Depolarizingエラーは、Depolarizingチャネル(脱分極チャネルあるいは、分極解消チャネル)が、量子計算過程に作用することで発生するエラーである。具体的には、誤り確率をpとしたとき「"X、Y、Z誤りが等確率(p/3もしくはp/4)"で発生し、確率1-3/4pもしくは1-p、で発生しない」という量子誤りである。Xエラー=ビット反転エラー、Zエラー=位相反転エラー、Yエラー=位相ビット反転エラー、である。宇野(2021)には、「実機上でのノイズがほぼDepolarizing noise でモデル化出来る」との記述がある。一方、長田・山崎・野口(2021)では「(脱分極エラーは)実際には非現実的で、その対称性による理論的な取り扱いやすさから導入されたものと思われる」とある。一般に、位相反転エラーは、ビット反転エラーより高頻度に起きるから、ややキツイ仮定と言える。しきい値の議論は、脱分極エラーを対象に行われているわけだが、やや心配になる。
Amplitude-Dampingエラー(自然放出エラー)は、量子系からエネルギーが損失することに起因する一般的なエラーである。長田・山崎・野口(2021)では、「現実に起こるエラーとして最も重要」と記述されている。ちなみに、量子コンピュータの文脈では、チャネルとは、量子系の状態変換を記述する写像である。
⑥ 東大は、量子誤り緩和に必要な量子コンピュータの実行回数が、量子演算の実行回数に対して指数関数的に増加することを示した(23年11月23日)[*141]。つまり、大規模な量子演算を実行する場合には、量子誤り緩和は実行不能。
(12) 量子誤り緩和 part3
米IBMは、23年6月15日、自社公式ブログ[*117]及び、論文[*118](natureにて同日公開。以下、本論文)で以下のように主張した:物理シミュレーションでは、NISQマシンであっても量子誤り緩和を用いることで、量子計算は、古典計算では得ることができない結果を得ることができる。IBMも述べているように、これは量子コンピュータの"高速性"をアピールしていない。あくまで精度(あるいは、計算の"質")が向上するというアピールである。
1⃣ 概要
先の述べた内容を、正確に言い表すと、以下の通りである。
① 物理シミュレーションは、トロッター分解による2次元横磁場イジングモデルの時間発展シミュレーション(ハミルトニアン・シミュレーション)である。
② 量子計算は、上記ハミルトニアン・シミュレーションを、1量子ビットX回転ゲートと2量子ビットZZ回転ゲートからなる量子回路で実行する。
③ 量子誤り緩和は、ゼロノイズ外挿法(ZNE)である。 確率的エラーキャンセル (PEC) は効果的であるものの、サンプリング オーバーヘッドが大きい。そこで、サンプリングコストが低いZNEを採用した。外挿は、線形外挿よりもバイアスが小さいという理由で、指数外挿を採用。
④ NISQマシンは、127量子ビットのIBM Eagle(ヘビーヘックス・レイアウト(※1))を使用している。
⑤ 古典計算は、上記ハミルトニアン・シミュレーションを、テンソルネットワークを用いて(テンソルネットワーク法で)実行する。実際には、1次元の行列積状態(MPS)と、2次元のアイソメトリック・テンソルネットワーク(isoTNS)を使用している。
⑥ ハードウェアは、ローレンス バークレー国立研究所・エネルギー研究科学計算センター(NERSC)及びパデュー大学にあるスパコンが使われた。実施者は、カリフォルニア大学バークレー校の研究者達である。
※1・・・ヘビーヘックス・レイアウトは、IBMが考案した量子ビットの接続方式。正方格子だと4個の量子ビットが隣接しており、量子ビット操作に用いるマイクロ波周波数の衝突が頻繁に起きる。それは、量子誤りを惹起する。マイクロ波周波数の衝突による量子誤りを低減させるため、隣接する量子ビットの数を減らした接続方式が、ヘビーヘックス・レイアウトである。なお、ヘビーヘックスとは六角ナットの意味。
2⃣ 本論文の主張
本論文の主張 は、以下の通り:❶ZNEは有効に機能し、❷テンソルネットワーク法(による古典計算)では得ることができない結果を、量子計算では得ることができ、❸テンソルネットワーク法では実行不可能な、”長い”時間にわたるシミュレーションが、量子計算では可能。
以下、❶~❸について補足する。
3⃣ 本論文の主張詳述
❶は、横磁場ゼロのイジングモデルを対象に評価された。また、クリフォード回路のみの量子回路で、量子計算が実行された。1量子ビット回転ゲートのパラメータである「角度」をπ/2の倍数に制限することで、クリフォード回路のみにできる。量子計算は、ZNEありとZNEなし行われ、比較対象は「磁化」の期待値「平均磁化」(パウリZで測定)である。ZNEのノイズには、疎なパウリ・リンドブラッド・モデル(※2)が用いられている。
トロッターステップが20まで(その場合、CNOTゲートは60まで)増加しても、つまりハミルトニアン・シミュレーションを長い時間行っても、ZNEあり量子計算で算出された平均磁化は、理論値との乖離が少なかった。この場合、理論値とは、期待値1である。一方、ZNEなし量子計算は、ハミルトニアン・シミュレーションを長い時間行うと、平均磁化は0に向かって単調に減少していく。
❷は、2次元横磁場イジングモデルを対象に評価された。非クリフォード回路を含む量子回路で実行した量子計算の結果を、テンソルネットワークを使った古典計算の結果と比較している。量子計算は、127量子ビットの超伝導量子プロセッサを使用して、トロッターステップを5(その場合、CNOTゲートは15)に限定して実行される。パラメータ(角度)は0 と π/2 の間で振っている。
クリフォード回路と異なり、非クリフォード回路は、古典的に有効なシミュレーションが不可能である(GottesmanーKnillの定理)。従って、古典計算(テンソルネットワーク法)との比較は、角度= π/2付近での比較としている。テンソルネットワーク法は、結合次元2,048の1次元MPS及び、結合次元17の2次元isoTNSである。
オブザーバブルとして、正確に検証可能な量が3つ選択されている。㊀磁化、㊁固有値 +1を持つ角度= π/2における量子回路のスタビライザー状態、㊂固有値 ー1を持つ角度= π/2における量子回路のスタビライザー状態、である。
ZNEありの量子計算は、0~π/2の間で、㊀~㊂とも正解を再現できている。一方、古典計算(テンソルネットワーク法)の結果は、正解を全く再現できていない。つまり量子計算により、古典計算では再現できない結果を、得ることができた。
Supplementary information[*119]によると、㊀の正解は、光円錐および深さ低減 (LCDR) 回路に対する総当たり古典的シミュレーションで計算している。㊁の正解は、26量子ビットのLCDR回路に対する総当たり古典的シミュレーションで計算している。㊂の正解は、47量子ビットのLCDR回路に対する、結合次元2,048の古典的シミュレーションで計算している。
❸は、トロッターステップ20に相当する”長い”時間にわたるハミルトニアン・シミュレーションを、テンソルネットワーク法で行う場合、スタビライザー状態とその時間発展を正確に表すのに必要な結合次元は、7.2 × 1016と計算されている。そして、その場合に必要なメモリは1万クエタ・バイトを超える(クエタは10の30乗、つまりペタの2乗)。つまり、実行不能である。
※2 パウリ・リンドブラッド・モデル[*122]では、エラー(量子計算における計算の誤り)の影響で変化する量子状態を、時間発展方程式に従って遷移する量子状態と表現する。この場合の時間発展方程式は、量子開放系の時間発展を記述するリンドブラッド方程式である。リンドブラッド方程式におけるリンドブラディアンは、シュレディンガー方程式のハミルトニアンに相当する。リンドブラディアンは、"環境の変化を無視できる時間スケール"において、量子状態(密度演算子)の時間発展を司る線形超演算子である。
本論文のパウリ・リンドブラッド・モデルでは、リンドブラディアンにおいて、ハミルトニアンによる時間発展を無視する。また、リンドブラッド演算子=係数×パウリ演算子で表す(係数は非負)。そうすると、リンドブラディアンは(パウリ演算子のユニタリ性から)、極めてシンプルになる。
疎なパウリ・リンドブラッド・モデルの「疎」とは、パウリエラーを表現するパウリ行列が、疎行列であることを意味している。つまり、回路の一部にのみパウリエラーが生じている。任意のノイズ(チャネル)は、Pauli Twirlingによってパウリ(ノイズ)チャネルに変換できる(はずだ)から、パウリエラーを仮定することは、汎用性を失わない(はず)。
なお、パウリ・リンドブラッド・モデルは、ZNEに限定されるわけではない。また、特殊なノイズチャネルを表現するモデルでもない。また、(量子マスター方程式である)リンドブラッド方程式は、(連続時間の)マルコフ過程を前提としているから、パウリ・リンドブラッド・モデルを使った量子誤り緩和は、非マルコフ・ノイズには、有効でない(はず)。
4⃣ 考察
(1) トロッター分解による2次元横磁場イジングモデルの時間発展シミュレーションは元々、量子ゲートを使った量子計算と相性が良い。とは言え、量子誤り緩和を使うことによりNISQでも、”長時間”の時間発展をシミュレートできる、という成果はポジティブであろう。
(2) 特段の工夫を凝らすことなく、普通にZNEを適用して良い結果を得た、というところに価値があるのだろう。実際、ノイズ・スケーリングに関しては、特段の改善はなされていないと思われる。
(3) 一方、外挿法に関しては、工夫が凝らされている(と思われる)。IBMは、「ノイズゲインレベルが小さい場合であっても『期待値がゼロ付近に集中している+回路が深い』場合、指数外挿が不安定になる可能性がある」ことを発見した。そこで、この不安定性を調整する方法を考案・実行している。具体的には、まず、外挿推定値の不確実性の"しきい値"として0.5を設定する。続いて、この"しきい値"に基づいて、外挿推定値を、㊀指数関数フィットから線形フィットに、㊁線形フィットから(ノイズ・ゲイン・レベル1 で得られた)緩和されていない結果に、連続的にダウングレードする。外挿推定値の不確実性は、(オブザーバブルの期待値を適合させる)フィット・ルーチンによって返される、共分散行列の対角要素の平方根としている。
(4) 今回、ZNEを適用してうまくいった。とは言え、ZNE(やPEC)は、nLλ(量子ビット数n、量子回路の深さL及び、ハードウェアの"誤り率"λ)が、小さい場合に有効であることに変わりはない。つまりNISQマシンの範疇であっても、誤り率を下げていくことが今後の方針であることに、変わりはない。
【Appendix 3】 歴史に学ぶ~コンピューターの導入史[*63]、[*64]、[*65]、[*66]、[*67]、[*68]、[*69]
量子コンピュータが最初に導入されるのは、どんな企業・アプリケーションかを、歴史に学ぼうという意図である。日本において、外国製コンピュータが、いつ・どの組織に導入されたかを「抜き身」で書き出すと、以下のようになる。
0) 1920年:ホレリス式統計機械を使って第一回国勢調査を実施。
1) 1923年:内閣統計局、鉄道省、横浜税関が、パワーズ式統計機械を導入。
2) 1925年:日本陶器名古屋工場が、ホレリス式統計機械を導入。給与計算や海外統計に使用。
3) 1925年:日本生命、パワーズ式統計機械を導入。
4) 1937年:住友生命、ホレリス式統計機械を導入。
5) 1938年:第一生命、川崎飛行機、ホレリス式統計機械を導入。
6) 1947年:塩野義製薬が、事務処理用に、IBMのパンチカードシステムを導入。
7) 1955年:UNIVAC 120が、野村証券、東京証券取引所に導入。UNIVACは、エッカート・モークリー・コンピュータ・コーポレーション(EMCC)が開発。EMCCはレミントンランドに買収される。
8) 1957年:BENDIX G15が、国鉄鉄道技術研究所、三菱電機に導入。技術計算用。→国鉄は(日立製作所と共同で)、座席予約システムを構築。
9) 1958年:IBM 650が、日本原子力研究所に導入。事務処理用。
10) 1959年:UFCが、国鉄本社、山一証券、小野田セメントに導入。UFCは、世界初の本格的プログラム内蔵式事務用計算機。UFCは、レミントンランド社(→スペリーランドに買収)製。
11) 1959年:IBM 704が、気象庁予報部に導入。台風の進路予測に使用。704は、IBM初の本格的技術計算用コンピュータ。
12) 1959年:IBM 650が、三和銀行に導入。銀行としては、初。
13) 1959年:UNIVAC USS-90が、東芝に導入。(重電系の)設計計算等に使用。
14) 1959~1960年:IBM 650 MDDPMが、三菱原子力(現在は、三菱重工)、新三菱重工(現在は、三菱重工)、日本生命、三井生命、塩野義製薬、早川電機(現シャープ)、古河電工、トヨタ自動車、東洋工業(現マツダ)等に導入。
15) 1960年:IBM 7070が、日立製作所に導入。7070は事務処理用。
16) 1961年:IBM 705が、総理府統計局に導入。
17) 1961年:IBM 7070が、日本鋼管(現JFEスチール)、八幡製鉄(現在は、日本製鉄)、日本鉱業(現ENEOSホールディングス)、東海銀行(現在は、三菱UFJ銀行)」等に導入。
18) 1961年:UNIVACⅡが、東京電力に導入。事務処理用。
19) 1961年:IBM 1401が、八幡製鉄に導入。事務処理用。
20) 1963年:UNIVACⅢが、野村証券、山一証券に導入。大量の株式売買処理に加えて、予測なども行う。
21) 1964年:UNIVAC 490が、国鉄に導入。貨物列車運行管理用。
22) 1964年:UNIVACⅢが、川崎製鉄、いすゞ自動車、労働省、東京証券取引所に導入。
23) 1964年:UNIVAC 1050が、日本板硝子に導入。
24) 1964年:UNIVAC 418が、富士銀行(現みずほ銀行)に導入。
25) 1965年:UNIVAC 1050が、防衛庁に導入。海上幕僚部において物資補給の管理を行うために使用。
26) 1965年:UNIVAC 1050が、八幡製鉄、伊勢丹に導入。
(少なくとも)グローバルでは、「計算機の始まりのキラーアプリは、シミュレーション」であった。ABC(アタナソフ=ベリー・コンピュータ)は、大規模連立一次方程式を解く専用機として開発された(1942年)。ENIACも、弾道計算専用機として開発された(1946年。実際は、様々な用途に用いられた)。独のコンラート・ツーゼも、科学技術計算専用機として、Zシリーズを開発した(Z3は、1941年)。また、富士写真フィルムの技術者が独力で作り上げた日本初の電子計算機FUJICは、レンズ設計専用機であった(1956年)。なお、最初のコンピュータはどれか?問題に、大きな興味はないが、1973年10月、米ミネアポリス連邦地裁は、ENIACはABCを参考につくられたものであるという判断を示した。
しかし、計算機の商業的成功は、シミュレーションでは達成されなかった。最初に、商業的な成功した計算機は、レミントンランド社のUNIVACである。ENIACを開発した二人組が作った計算機で、国勢調査のため、米人口統計局に納入された(1951年)。計算機の商業的大成功をもたらしたIBM360は、事務処理用計算機と科学技術計算用計算機をmergeしたことがミソだった。そして、シミュレーションの権化たるスパコンは、商業的にmake senseしていない。そもそも、市場規模が76億ドル(2021年)程度しかないのだから。スパコンの代名詞Crayは、1996年シリコングラフィックスSGIに買収された後、(SGIが)2000年にテラ・コンピュータへ売却。さらにテラ(クレイInc.に社名変更)は2019年、HPに買収された。日本では、NECがスパコン開発から撤退し(2009年)、富士通も悪戦苦闘している。ちなみに、世界初の(ベクトル型)スパコン「CDC-STAR100」の最初の顧客はGMであった(1971年)。Cray初号機(Cray-1)の最初の顧客は、米国立大気研究センター(NCAR)である(1976年)。地球シミュレータは、気候変動などを研究する「海洋研究開発機構」に納入された(2002年)。2022年5月時点のスパコン1位は、HP製のスパコン「Frontier」で初のエクサ級コンピュータであり、米エネルギー省によって運用されている。
改めて、日本への導入リストを見ると、経済的にmake senseする事務処理用計算機から導入されていることがわかる。業種で言うと、生命保険、製薬会社、鉄道、証券会社、銀行、電機、製鉄、自動車。計算分野では、三菱電機、気象庁、東芝で使用されている。リストには明示されていないが、[*68]によれば、シミュレーションは、まず自動車業界が取り組み、鉄鋼、造船、電気(ママ)、化学工業等に広がった。
歴史的事実のみから強引に結論を引き出すと、グローバルでは、最初にシミュレーション分野で量子コンピュータが導入されるだろう。しかし、不思議の国日本では、"事務処理"分野で、最初に導入される可能性が捨てきれない。もちろん、量子コンピュータに"事務処理"分野はないが、対応分野として、(量子)機械学習及び最適化問題向けのアプリケーションが考えられる。当該アプリケーションは(日本では)、生命保険、証券、銀行、物流(鉄道)、といった業種で導入されるだろうという推論が導かれる。そして、シミュレーション分野が続く。産業セクターでは、まず自動車。次に、電機、化学、製鉄といったセクターに導入されると推論できる。強引に引き出した結論ではあるものの、業種としては、大きな違和感はないだろう。
(1)量子誤り訂正符号
量子誤り訂正符号が満たすべき3つの条件を示している。①しきい値が十分に高いこと。誤りが発生する割合がしきい値を下回っている場合、十分に大きな符号距離をとることで、論理量子ビットの寿命を任意に長くすることができる。つまり、損益分岐点の議論でもある。②復号アルゴリズムが高速であること。冗長化した量子ビットに埋め込んで保護した元の情報を、復元することを復号(デコード)という。一般的なスタビライザー符号の復号処理は、最悪の場合、NP 困難になる。③当然であるが、符号化した状態で量子計算ができなければならない。つまり、誤り耐性計算が可能でなければならない。
上記の性質を満たす符号として、(キタエフと(IBMの)ブラヴィが開発した)2次元表面符号が有望とみなされている。例えば、(脱分極エラー[*60を参照]に対する)しきい値は、1%と(それなりに十分)大きい。しかし、大きな欠点が2つ存在する。
其の壱:サイズが大きくなる。量子計算を担う物理量子ビットに、誤り測定や誤り訂正のために付け加える補助量子ビットの数が超巨大になる。このため、誤り耐性計算に必要と考えられている量子ビット数が、数百万~数千万に膨れ上がってしまう(表面符号を前提とすると、1論理量子ビットをつくるのに、1,000個の物理量子ビットを要するとされる。1,000論理量子ビット=100万物理量子ビット、100万論理量子ビット=10億物理量子ビットとなる)。
其の弐:魔法状態蒸留のオーバーヘッドがハンパない。表面符号(正確には、カラー符号を含めたトポロジカル符号)は、Tゲートを実行できない。Tゲートが実行できなければ、古典計算以上のパフォーマンスが得られないことは、広く知られている(ゴッテスマン・ニルの定理)。Tゲートを実行するには、(同じくキタエフとブラヴィが開発した)魔法状態と呼ばれる補助状態を作る必要がある。魔法状態は、冗長に符号化されていない状況からつくる。そこから、十分冗長なサイズまで大きくしていくが、その過程でエラーが混入する。そこで、(十分冗長化された)魔法状態を多数集めて、制御演算や測定(蒸留ゲート)を実施し、エラーを減らす必要がある。そのエラーを減らしていく行程を蒸留と呼ぶ。この蒸留工程に、とんでもなく大量の量子ビットを要する。トータルで、1億量子ビットが必要かも?と言われる所以である。1億量子ビットの超伝導式量子コンピュータを作るのに必要な金額は、100兆円である。これは、さすがにアウトであろう。
そこで、解決策が必要となる。IBMは、解決策/方針として、以下を挙げている。①より効率的な蒸留法の開発、②魔法状態を冗長化する過程でエラー混入を減らす方法の開発、③蒸留ゲートのより優れた表面符号実装法の開発、そして④魔法状態蒸留ではなく、2次元表面符号で、CCZゲート(トフォリ位相反転ゲート)を実行する方法[B.J.Brown,“A fault-tolerant non-Clifford gate for the surface code in two dimensions,”Science Advances 6,eaay4929(2020)]、である。
(2)誤り緩和
1⃣ 未解決ではあるが有望と(IBMが考えている?)アイデアとして、PECとZNEの組み合わせを提起している。PEC(確率的エラーキャンセレーション)もZNE(ゼロノイズ外挿)も単体ではメジャーな誤り緩和策である。また、ZNEでは有効に対応できない非マルコフ的ノイズに有効な誤り緩和手法として、(Googleが開発した)仮想蒸留法を紹介している。ノイズにより生じた混合状態同士のコピーを干渉させることで、純粋状態へと蒸留する操作を仮想蒸留と呼ぶ。仮想蒸留法は、オーバーヘッドが大きい。
クリフォード・ゲートに誤り訂正、Tゲートに誤り緩和を用いることで、魔法状態蒸留に頼ることなく、ユニバーサル論理回路をシミュレートできる、と述べている。これは、[*45]でも述べられている。
2⃣ リアルなユースケースという迫力は、ないが(仮想蒸留のデモンストレーションとして?)・・・
グーグル、独Covestro、仏Pasqal他は、量子化学シミュレーションに(事後選択+)仮想蒸留を使うことで、物理量を正確に再現できた、と発表した(論文[*136]のオンライン公開は、23年10月12日)。Hartree-Fock(平均場)近似を越えた、量子化学シミュレーションの一歩として、セニオリティ†1ゼロの部分空間において、UpCCSD法†2を用いた電子系のシミュレーションが対象。具体的には、リチャードソン・ゴーディン(RG)模型†3(及びシクロブテンの開環問題)を、10量子ビットでシミュレートした。結果として、仮想蒸留(及びエコー検証†4)を使ったUpCCSD法は、基底状態のエネルギーと秩序パラメータを正確に再現できた(誤り緩和策を用いない場合に比べて、推定値が1~2桁向上した)。
また、50量子ビットを使うとした場合、仮想蒸留では、108ショットが必要であり、計算時間はおよそ1時間と推定している。ちなみに、エコー検証の場合は、109ショットが必要であり、計算時間はおよそ10時間と推定している。
さらに、50量子ビットを使うとした場合、2量子ビットゲートの誤り率は、3×10-4以下である必要がある、と推定した。
†1 元は、ペアになっていない核子の個数を意味する量子数。ここでは、スピンがペア(↑と↓)になっていない電子の個数を指している。セニオリティ・ゼロは、二重否定で分かりにくいが、すべての電子がペアになっていることを意味している。
†2 ユニタリーペアCCSD法。CCSD法は、多体電子系の高精度な近似解法として知られている(CCSDは2体まで正確)。CCは結合クラスター法を意味し、SD(single double)は2励起まで考慮していることを意味している。UpCCSDとCCSDとでは、2励起の取り込み方が異なる[*137]。
†3 RG模型は、可積分なフェルミオン模型の一つで、標準的なベンチマークとして知られている。
†4 エコー検証(echo verification:正式な和訳は、存在しないと思われる)は、仮想蒸留と同系統の誤り緩和法である。仮想蒸留は、混合状態の密度演算子ρに対するM番目の蒸留状態ρ(M)で測定することを、ρのM個のコピーによる集団的測定に置き換える(故に蒸留が仮想的)。
仮想蒸留が空間的に離れたコピーを使うのに対して、エコー検証は、時間的に離れたコピーを使う[*138]。他の違いとして、エコー検証はGHZ(グリーンバーガー・ホーン・ツァイリンガー)状態の準備が必要となる。
(3)モジュラーアプローチ
量子ビット数を誤り耐性量子計算が可能なレベルにまでスケールアップする手法として、モジュラーアプローチは、広くコンセンサスを得ているアプローチである。ハードウェアの構築及び構成という観点から見ると、(QPUの)設計とテストが簡素化され、欠陥がある場合でも交換が容易になる。その一方でQPU間には、超低遅延・超低損失・低クロストークが要求され、高帯域幅で忠実度の高いリンクが必要となる。
モジュラーアプローチといっても、いくつかのレベルがある。IBMでは、5種類に分けている(以下にあげる名称は、説明上、勝手に付けた)。①QPUの古典的並列化:QPUがコントローラを介して、ユニバーサル・バスと古典的通信を実施、②多層チップでQPUを構成:離れたチップ間を2量子ゲートを通じて量子通信を実施、③QPUの量子並列化:モジュール間をマイクロ波あるいはケーブルでリンクして、量子通信を実施、④大規模な拡張:古典的通信を行うチップを長距離カプラで繋いでサイズを大きくし、それらを量子通信で結ぶ、⑤ネットワーキング:異なる希釈冷凍器内のQPUを、光ファイバーでリンクする。これはモジュラーアプローチというより「ネットワーキング・アプローチ」かもしれない。
(4)量子中心のスパコン
IBMは、「コンピューティングの未来は、QPU、CPU、GPU がすべて連携して計算を高速化する量子中心のスーパーコンピューターになる」と考えている。そのヴィジョンの実現には、以下のような要件がクリアされる必要がある、とIBMは考えている。
①厳密な同期を維持しながら、異なるコンポーネント間で低遅延でデータを移動できる制御ハードウェアが必要になる。この低遅延を実現するには、コントローラーは QPU のすぐ近くに配置されなければならない。現在、コントローラーは必要な柔軟性を提供するためにFPGAを使用して構築されているが、今後ASICあるいはコールドCMOS が必要になる。
②誤り訂正は高速に行う必要があるため、量子コンピュータと古典コンピュータは、統合される必要がある(クラウドでつながるような構成は無理)。
③高度な古典計算と量子計算を組み合わせることができるソフトウェアが必要となる。ここで言及したソフトウェアは、「回路編み、合成、レイアウトとルーティング、および最適化を含む高度な回路コンパイル」を可能とする。
回路編み(Circuit Knitting)は、量子コンピュータの適用を促進するための技術で、(業界では珍しくない)IBM発の用語である。量子コンピューター上で小規模な量子計算を実行し、その結果を古典コンピュータで繋ぎ合わせて、より大きな量子計算結果を推定するプロセス。量子計算を小規模化する3種類のアプローチがあげられている:①回路切断=(専用の)古典コンピューターを使用して、大きな回路を多くの小さな回路に「分割」して、量子計算を小規模化する。②エンタングルメント・フォージング(鍛造)=量子系を2分割し、それぞれを(両者間のエンタングルメントを考慮して)量子コンピュータ上で個別にモデル化することで、量子計算を小規模化する。③量子埋め込み法=量子計算から古典的にシミュレートできる部分を「分離」して、量子計算を小規模化する、である。動的平均場理論、密度行列埋め込み理論そして、密度汎関数埋め込み理論が、量子埋め込み法と相性が良い。
回路切断は、動的回路(ダイナミック回路)とも呼ばれる。この手法のデメリットとしては、回路切断によって発生するスケーリングやオーバーヘッドがあげられる。このため、最適な切断位置を見つけることや、切断回数を最小限に抑えるといった方法を開発する必要がある。米デルは、古典コンピューターに量子コンピュータを統合する手法として、回路切断に注目している。
【Appendix 5】 全米量子イニシアティブ諮問委員会の委員プロフィール
古いので削除した。
米国の中性原子方式量子コンピュータ開発スタートアップQuEra Computingは、2024年6月中旬から7月上旬にかけて実施した、量子コンピューティングに関する調査レポートを発表した(24年8月3日)[*160]。当該調査レポートの中で、気になる結果をピックアップした。
(0) 調査対象者の属性及び所在地(国)
0⃣ 総数
972件
1⃣ 属性
❑ 学術関係者・・・ 43.0%
❑ 量子コンピューティング企業・・・ 19.4%
❑ 量子コンピュータ以外の企業・・・ 13.0%
❑ アナリスト/プレス・・・ 2.3%
❑ マニア・・・ 14.2%
❑ その他(非営利団体の研究者、コンサルタント、学生など)・・・ 8.1%
2⃣ 所在地(国)
残念ながら、日本は0件。下記10ヶ国で、およそ74%。
❑ 米国・・・ 34.8%
❑ ドイツ・・・ 9.1%
❑ 英国・・・ 8.3%
❑ フランス・・・ 4.3%
❑ イタリア・・・ 3.8%
❑ カナダ・・・ 3.7%
❑ インド・・・ 3.4%
❑ スイス・・・ 2.8%
❑ スペイン・・・ 2.2%
❑ 韓国・・・ 1.5%
(1) 最も重要な技術的課題
スケーラビリティ(33.1%)、量子誤り訂正・誤り耐性量子計算(30.9%)が、ツートップ。
属性別で見ると、量子コンピューティング企業は、量子誤り訂正・誤り耐性量子計算(30.6%)よりも、スケーラビリティ(35.6%)に重点を置いている。エンドユーザー🐾1は、スケーラビリティ(25.0%)よりも、量子誤り訂正・誤り耐性量子計算(34.2%)に重点を置いている。
🐾1 エンドユーザー = 全体ー(学術関係者+量子コンピューティング企業)
(2) 投資すべき分野
上位3つは、量子ハードウェア開発(27.2%)、量子ソフトウェア及び量子アルゴリズム開発(19.9%)、教育及び人材育成(15.6%)。
属性別で見ると、量子コンピューティング企業は、順番は変わらないが、量子ハードウェア開発(30.2%)、量子ソフトウェア及び量子アルゴリズム開発(20.8%)、教育及び人材育成(16.1%)。エンドユーザー🐾2は、順番は変わって、量子ハードウェア開発(23.9%)、量子ソフトウェア及び量子アルゴリズム開発(21.7%)、量子暗号通信及びセキュリティ(15.5%)。
🐾2 エンドユーザー = 全体ー(学術関係者+量子コンピューティング企業+アナリスト/プレス)
(3) 量子コンピューティングのROIの源泉
複数回答可である。量子コンピューティング企業は、㊀これまで、解けなかった問題を解く(19.0%)、㊁イノベーション及び商品開発(18.0%)、㊂新しい知的財産(IP)の開発(15.4%)、㊃古典コンピューターよりも問題を速く解く(15.2%)、㊄既存オペレーションの最適化(12.1%)、㊅新しい学術的成果の発表(10.7%)、㊆消費電力の低減🐾3(8.8%)、㊇その他(0.8%)。
量子コンピュータ以外の企業は、㊀22.5%、㊃19.2%、㊄16.2%、㊁15.9%、㊂9.6%、㊆9.9%、㊅5.2%、㊇1.4%。
🐾3 為念:同じタスク処理に要する消費電力は、古典コンピューターより量子コンピューターの方が抑制されるという期待を指している。エンドツーエンドで考えると、本当にそうなるかは、わからない。
(4) 最も意外な、あるいは型破りな応用は何ですか? という質問に対する答え
❑ 量子コンピュータ・グラフィックス
❑ 量子ニューラルネットワーク
❑ 高エネルギー物理学シミュレーション 👉型破りどころか、むしろ王道。
❑ 医療診断
❑ 大規模乱数生成 👉型破りではなく、むしろショボい。
❑ 農業やエネルギー流通における最適化
❑ 量子人工知能とロボット工学 👉これはエキサイティングかも。
━ 6の弐 ━━━━━
マッキンゼー・デジタルのQuantum Technology Monitor(2024年4月)[*162]に、量子技術に関する知的財産(IP)ランドスケープに関する調査結果がある。ここで量子技術=量子コンピューティング(QC)+量子コミュニケーション(QComm)+量子センシング(QS)である。また、IPの調査対象期間は、2000年~2023年である。
量子技術全体の特許取得件数でみると、日本は米国に次いで2番目である。意外に多い。割合で言うと、米国を1としたとき、日本は0.54。ちなみに申請件数だと、中国が2番目で日本が3番(米がトップ)。割合で言うと、中国は0.95で日本は0.45。取得件数は、米日独中仏・スイスの順番で、割合で言うと仏~日本=0.42~0.54。スイスになると、0.12と急減する。申請件数は、米中日仏独英の順番で、割合は1→0.95→0.45→0.27→0.20→0.12と逓減する。
細目で言うと、概してQCの割合が高い。仏独(及びスイス)は90%を超える。日本で88%。米中英は、QCommの割合が高い(ので、QCの割合は低い)。米でQC:QComm=67%:30%である。中国73%:27%、英国71%:26%。
また、[*183]にはCxOへのメモという項目があって、次のようなメッセージを発している。
❑ A&Bは、量子コンピューターが「3年間で、投資を少なくとも2倍にできるシナリオを探している」。
❑ 分子シミュレーションは、最も有望なユース・ケースの1つである ∵ 分子内の複雑な相関関係は、古典的な方法では十分に捉えられず、信頼性の低いシミュレーションにつながり、高価で時間のかかる実験が必要になるから。
❑ 化学分野であれば、触媒市場を検討することをお勧めする。この市場は約US$30bilの価値があり、年間4.6% という健全な成長率が見込まれている。
❑ 製薬業界では、ブロックバスター医薬品🙀11つの開発を1年早めるだけで、US$260milの利益🙀2が追加される可能性がある。
🙀1 (全世界での)1年間の売上がUS$1bil以上である医薬品、として定義。ちなみに23年の売上世界1位は、(日本発である)免疫チェックポイント阻害薬キイトルーダ(メルク)のUS$25bilであった。
🙀2 製薬会社の典型的な純利益率を26%として計算されている。
🙀3 産総研は、シンガポールのA*STAR Research Entitiesと「量子コンピューティングのユースケース研究に関する確認書(Letter Of Intent:LOI/M&A用語だと意向表明書)を締結した(25年3月24日)[*198]。

❚為念1❚
KDDI、KDDI総合研究所、Jij、QunaSys、早稲田大学は、量子コンピューターの技術開発と事業化に関するパートナーシップ締結に合意した、と発表(25年2月27日)[*190]。最適化計算(KDDI、Jij、早大)及び量子化学計算(Qunasys)を対象として、ユースケースの探索を目的とする。合わせて、AI・量子共通ビジネスプラットフォームを開発する。顔ぶれからすると、最適化計算はイジング計算ベースで進められるのだろう。
❚為念2❚
量子科学技術に関する欧州初の国民意識調査🐾1が、2025年4月14日(世界量子デー)に実施された[*199]。量子技術による解決が期待される社会課題として、ヘルスケア(53%)、エネルギー(47%)、サイバー・セキュリティ(44%)及び、気候変動(41%)があがった。
🐾1 調査は、独・仏両国に対して、英国の調査会社YouGovによってオンラインで行われた。期間は、2025年4月4日~8日。サンプル数は、3,093人(仏1,037人、独2,056人)の成人。
†1 MITREは、米連邦政府が資金を提供する非営利組織。対象分野は、人工知能、直感的なデータサイエンス、量子情報科学、医療情報学、宇宙安全保障、政策と経済、信頼できる自律性、サイバー脅威の共有、サイバー回復力など。出典:https://www.intellilink.co.jp/column/security/2020/060200.aspx
†2 QV=2m。ここで、m=最小値(量子ビット数、2量子ビットゲート数)。IBMが提案した量子コンピュータの評価指標。なお[*185]には、「IBM は考案して以来、熱心にQVを報告してきたが、ここ数年は報告を控えている」とある。
†3 log2QV=mに戻して、線形外挿する。
【1】商業的応用の可能性
(1) 医療とヘルスケア・・・量子センサーは、医療とヘルスケアに貢献済。QCは、診断の精度と速度を向上させ、患者が治療にどのように反応するかの予測を改善する可能性がある。
(2) 材料科学・・・QCを使ったQSにより、例えば、高温超伝導体の実現を期待(高温超伝導体はエネルギー問題、ひいては地球環境問題の解決につながる)。製造プロセスにおける稀な故障を特定・予測することも期待されている。
(3) エネルギーおよび採掘産業・・・量子センサーが、様々な場面で活躍する。QCでは、最適化アルゴリズムが、信頼性の高いグリッド運用をサポートする可能性がある。量子機械学習アルゴリズムは、エネルギー需要の予測と最適化を改善する可能性がある。
(4) 化学・・・QC(QS)は、生物学的窒素固定の理解に画期的な進歩をもたらす可能性がある🌔1。
(5) 金融・・・原子時計が、既に貢献している(特に、高頻度取引において)。量子アニーラが、ポートフォリオ最適化、クラッシュ(金融取引市場における価格の急落)の予測、最適な裁定機会、信用スコアリングにおける最適な特徴量選択、外貨準備管理等、さまざまなアプリケーションでテストされている。
(6) 輸送と物流・・・量子センサーは、バッテリーの健全性評価を改善することで、電気自動車の開発に大きく貢献する可能性がある。QCは、運行ルート最適化、運用効率最適化に貢献すると期待される。
🌔1 現在確立されているアンモニア生産プロセス(いわゆるハーバー・ボッシュ法)は、エネルギー集約的であり、世界の最終エネルギー消費の約2%を占める、とされる。窒素固定酵素のような代替品を見つけることで、よりクリーンなアンモニア生産方法が実現する。窒素固定プロセスは、誤り率0.1%以下などの一定の仮定の下で、400万物理量子ビット×4日間でシミュレートできると推定されている。論理量子ビット数で言うと、窒素固定酵素「ニトロゲナーゼ」の活性中心に含まれる「鉄とモリブデンを含む補助因子」FeMo-Coの量子化学計算に必要と考えられる論理量子ビット数が、200~2000程度とされる。
【2】防衛分野
(1) 量子コンピューティング・・・QCは物流やサプライチェーンの最適化、戦場シナリオのシミュレーション、意思決定プロセスの改善に応用できる。量子アルゴリズムは量子センサーやその他の情報源からのデータを処理し、より深い洞察とより正確な予測分析を提供することができる。さらに、QCは、高度な化学兵器や生物兵器、それに対抗する材料や医薬品などの新しい兵器の開発にも利用できる。また、人工知能の応用範囲を広げ、より自律的で効率的な軍事システムにつながる可能性もある。
(2) 量子通信・・・理論上、量子ネットワークは軍事部隊と司令センター間の直接通信のセキュリティ確保に役立つ。量子時計は、協調軍事作戦の精度向上に使用でき、すべてのシステムが調和して動作することを保証する。さまざまな技術的課題が解決されれば、衛星ベースの量子通信ネットワークは長距離の安全な軍事通信を実現できる。
(3) NATOの量子技術戦略・・・NATO の量子技術戦略は、安全で回復力があり、競争力のある量子エコシステムを促進することで、同盟が「量子対応」であることを保証することを目的としている。
【3】量子機械学習
GFTech🌔2の専門家は、以下の課題のため、量子機械学習が10年の期間内に実現可能になるとは考えていない。
(1) 状態準備及び読み出しコストが、高過ぎて、実用不可能。
(2) 量子機械学習アルゴリズムのハードウェア要件に関する不確実性。
(3) 古典アルゴリズムは、ますます改善されている。
🌔2 GFTech=(the OECD)Global Forum on Technology
【4】既存暗号に対する量子の脅威
(1) 概略
QCによって、現在使われている暗号が、今後10年以内に解読される可能性は、5%以下。今後15年以内では、50%以上。これは、量子コンピューティングの科学と産業界の37人の一流の専門家を対象とした調査(2023年)の結果である。しかし、「store now, decrypt later(今すぐ保存、後で解読)」攻撃の存在及び、「新しい暗号化システムへの移行プロセスは長く、広く採用されるまでに最大20年かかる可能性がある」ことから、迅速に対応を進めるべきとされている。
(2) 量子鍵配送(QKD)
QKDの実際の実装は、特定の攻撃に対して依然として脆弱である(例えば、こちらを参照)。そのため、各国のサイバーセキュリティ機関はQKDのさらなる研究を奨励しているものの、機密データの保護にQKDの使用を推奨する機関は、今のところない。
(1) 創薬
医療と医薬品産業は、「全世界における高齢化の急速な進展・慢性疾患患者の増加、薬剤耐性菌の増加、希少疾患に対する未対応、新興病原体(によるパンデミック)に対する準備」といった深刻な課題に直面している。これらの課題に対処するには、革新的でスケーラブルなソリューションを開発する必要がある。量子コンピューティングは、そのようなソリューションの開発に、創薬という文脈で、以下のような貢献が期待される:
① 分子相互作用のシミュレーション、タンパク質の折り畳みシミュレーションやタンパク質-リガンド結合の最適化を、古典コンピューターより速く実行できると期待できるため、創薬期間の短縮につながる可能性がある。
② 電子の挙動や分子反応といった量子現象を直接モデル化することで、量子コンピューティングは正確・精確なシミュレーションを提供できる可能性があるため、より効果的な治療法の開発につながる可能性がある。
③ 血液脳関門などの複雑な生物学的システムのシミュレーションや、薬物動態の正確な予測において、量子コンピューティングが貢献できる可能性がある
➡新しい創薬設計、新しい薬物送達システムの設計、リポジショニング、副作用軽減
(2) 個別化医療|希少疾患、女性の健康
① ゲノムデータセットと臨床データセットを分析して治療法をカスタマイズすることで、個別化医療の開発にも貢献できる(↓㊀、㊁)。
② 量子コンピューティングは、希少疾患に大きな影響を与える可能性がある(↓㊂)。
③ 量子コンピューティングは、女性の健康に大きな影響を与える可能性がある(↓㊃)。
④ 個別化された治療推奨のためのマルチオミクス・データに対する、量子技術で支援した解析は、がんの早期発見を期待できる。
㊀ 量子コンピューターは、エネルギー消費量と運用コストを削減できる。これは、大規模分子シミュレーションや大規模ゲノムデータ分析など、リソースを大量に消費するタスクにおいて有利である。
㊁ ゲノミクスとプロテオミクスにおいて観察される、高次元生物医学データにおける複雑な相関関係の解明に、量子コンピューティングが貢献できる可能性がある。
㊂ 量子機械学習は(大規模なデータセットを直接処理するのには適していないが)、小規模なデータセットから有意義な知見を引き出し、研究の加速と患者の転帰改善につながる可能性がある。
㊃ 量子コンピューティングは、情報量が多いながらも疎なデータセットから知見を引き出す能力を備えており、この分野の研究を前進させる可能性がある。
(3) 臨床試験の最適化
① 量子コンピューティングは、臨床試験設計の合理化・患者募集の強化により、臨床試験を変革し、上市までの時間を短縮する可能性がある。
② 量子コンピューティングは、医療データのセキュリティとプライバシーを強化できるため、バーチャル臨床試験を促進する可能性がある。
(4) 医用画像に対する量子機械学習
① 医療画像分類と医療画像読影による疾患予測において、量子機械学習は古典機械学習を上回る可能性がある。
(5) 医療ロジスティクス→医療業務の最適化
量子コンピューティングは下記タスクにおいて、古典コンピューティングよりも、優れている可能性がある。
① 患者の治療計画の作成(例:放射線治療計画の最適化)
② 患者の入院率の予測
③ サプライチェーン管理の改善
なお、世界で行われている医療・製薬分野における量子コンピューティングの取り組みとして、以下❶~❻が上げられている:
❶ 米クリーブランド・クリニックと米IBMのコラボレーション
❷ 英ウェルカム・リープのQuantum for Bio(Q4Bio)プログラム →こちらを参照。
❸ 英QuPharmaプロジェクト
➍ 米国立衛生研究所(NIH)量子コンピューティング・アルゴリズム賞チャレンジ
❺ ノボ・ホールディングス(デンマーク)の量子技術への投資 →こちら及びこちらを参照。
❻ 日本QPARC →QPARCは医療・製薬分野に特化しているわけではないが、創薬や材料科学などの実世界のアプリケーション向けにカスタマイズされた量子アルゴリズムとソフトウェアの開発に重点を置いている。
具体的には、スパコンとeFTQCを統合する上での課題の一つとして、eFTQCのコンパイル(トランスパイル)が上げられている。現在、量子ビットにマッピングされる誤り耐性量子アルゴリズムは、ハードウェアの限界を超えてパフォーマンスを絞り出すために、対象アルゴリズムに合わせて、「量子誤り訂正パラメータの決定、量子ビットの配置、ルーティングのスケジューリング」を手動で最適化している(らしい)。これを、古典コンピューターを使って、自動化する必要がある、と指摘している。
ユースケース🐾2は変わり映えしないが、以下の①~④は新しいと思われる:①序列をつけたこと(材料科学→量子化学)、②ゴリゴリの物理(原子核物理・素粒子物理)を入れ込んだこと、③核融合関連シミュレーションを取り上げたこと、④{金融、気候モデリング、機械学習、最適化}はインパクトが小さいと指摘したこと。
また、スパコンのワークロード🐾3で、材料科学+量子化学+核融合関係🐾4の割合が、37%~54%であることも示されている。ちなみに、富岳(24年12月9日現在)では、分子動力学(⋍量子化学)32%+量子化学8%=40%、流体解析32%、物性物理(⋍材料科学)23%である[*223]。流体解析におけるeFTQCのインパクトは小さいと推定される。
🐾1 論理量子ビット数100~1,000個、論理誤り率10-6~10-10の量子コンピューターを指す。2027~32年の間に利用可能になると予想されている。
🐾2 ユースケースで言うと[*224]も、ほぼ同じことを言っている。[*224]は米国立エネルギー研究科学計算センター(NERSC)とローレンス・バークリー国立研究所の研究者が執筆・公開(25年9月11日@arXiv)。
🐾3 NERSCのスパコンPerlmutter及び、ロスアラモス国立研究所(LANL)のスパコンChicoma(※)。加えて、米エネルギー省(DOE)のINCITEも参考にしている。INCITEプログラムは、革新的なオープンR&Dを対象としたDOE科学局による計算資源提供プロブラム。※LANLは多数のスパコンを保有している。現状、HPE製のVenadoが最新と思われる(24年4月設置)。Chicomaに関する情報は、全くない。
🐾4 核兵器管理、水素爆弾開発も当然含まれる。
世界経済フォーラムと米大手コンサルティング・ファームのアクセンチュアは2025年10月『産業エコシステムにおける量子の未来を形作る主要な実現要因に焦点を当てた』レポート[*233]を公開した。新味は全くないが、以下、簡単にまとめた➡ [*233]は、「製造業およびサプライチェーン分野は、ここ数十年で最も激動の時代を迎えており、混乱が例外ではなく常態化している」として、産業エコシステムにおいても特に、製造業およびサプライチェーン分野に焦点を当てている。また、量子技術という括りで、量子コンピューティング、量子センシング及び量子コミュニケーションを守備範囲としている。本稿では、量子コンピューティングのみを切り出している。
(2) 総論
[*233]を概論的(総論的)に整理すると、次のようになる:コンサルらしく(?)、「量子技術は、競争優位性を解き放つ、強力な新しいツールである」というtakeawayメッセージを発し、戦略ロードマップを提示している。個別論的に整理すると、次のようになる:まず、製造業ということで、やや手垢のついた「R&Dや製品設計あるいはプロセス・シミュレーション」に加え、『工場運営の変革』を、アプリケーションとして同定している。次に、サプライチェーンということでは、これもやや擦り過ぎて味がしなくなりつつある、「経路・車両割り当て・配送スケジュールの最適化」を同定している。
(3) 各論
耳タコながら重要なメッセージは、有用なユースケースを特定して、まずは、そこに集中すべきというメッセージである(☞(5)余談)。全てが好例か否かは別として、囲みとして特出しされているユースケースは、全部で11件ある。その内、量子コンピューティングは5件である。3件(=❶~❸)がゲート方式で、2件(=➍~❺)が量子アニーリング方式である。
❶は、米IBMと米ボーイングが、「水環境下におけるマグネシウムの腐食をシミュレートするためのワークフローを提案した」研究である(当社サイトでは、こちらを参照)。❷は、IBMと米モデルナが「mRNA(メッセンジャーRNA)の二次構造予測問題における、変分量子アルゴリズムのスケーリングを検証した」研究である(当社サイトでは、こちらを参照)。❸は、サウジアラビアのアラムコが、仏Pasqal(モダリティ:中性原子)と提携した、という話である(当社サイトでもカバーしているが、特にリンクは張らない)。➍は2025年に、トルコの自動車生産会社Ford Otosanが、D-Waveの量子アニーリング技術を使用して、自動車の製造プロセスを合理化した、という話である(当社サイトでは、こちらの㉓を参照)。❺は、やや古く2022年の話である。米加州ロサンゼルス港がD-Waveの量子アニーリング技術を使用して、リソース利用効率を大幅に向上させた、という話である(古いので、当社サイトでカバーされていない)。
(4) 為参考:量子コミュニケーションのユースケース
3件取り上げられている:①英国立複合材料センターと英モデリング&シミュレーションセンターが、産業用量子セキュアQKDネットワークによって接続されたケース†1。②デンソーと蘭NXPセミコンダクターズによる、車載用ファームウェアのOTA(Over-the-Air)アップデートを実証したケース†2。③蘭ロッテルダム港が、製造業者・物流事業者・サプライチェーンパートナーとの間にQKDネットワークを構築したケース†3。
†1 東芝が英BTと提携し、技術を提供している。
†2 米NIST標準の耐量子暗号を使う。具体的には、CRYSTALS-Dilithium(ML-DSAと改名された)を使った耐量子デジタル電子署名を、AUTOSAR Adaptiveに統合する態様が想定されている。
†3 蘭QuTech(Q*bird)、蘭Eurofiber及び米ジュニパー・ネットワークが協力した。QKDは、MDI-QKD(測定装置に依存しない量子鍵配送)である。
(5) 余談
米マサチューセッツ工科大学(MIT)が25年7月に公開した、生成AIに関するレポート(The GenAI Divide:STATE OF AI IN BUSINESS 2025、https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf)の主なtakeawayは、MITテクノロジー・レビューを含むメディアで、「生成AIへの投資の95%が失敗している」と表現されることが多い。確かに、95%は衝撃的な数値である。しかし本質的にはー少なくとも当面の間はー、生成AIは特定ユースケースでしか価値をもたらさない、ということに過ぎないだろう。バックオフィス業務で目に見えるコスト削減効果が現れている反面、トップラインにはインパクトを与えていない、ということらしい。翻って量子コンピューティングであるが、特定のユースケースでしか価値をもたらさないであろうことは、全く同じである。見極め段階で、羹に懲りて膾を吹くことは、避けるべきと思われる。
1⃣ ノボ・ホールディングス(HDs)は、ノボ・ノルディスク財団の資産と富の運用を担う持株・投資会社であり、デンマークの大手製薬会社ノボ・ノルディスク†1の支配株主でもある。また、ノボHDsは世界をリードするライフサイエンス投資会社であり、あらゆる開発段階にあるライフサイエンス企業に投資を行っている。
†1 25年11月、次世代型肥満症治療薬を開発しているNASDAQ上場企業米メッツェラの買収合戦で、米ファイザーに破れた。(GLP-1受容体作動薬である)肥満症治療薬(ウゴービ)で先行したが、米イーライ・リリーの(GIP/GLP-1受容体作動薬である)ゼップバウンドに圧されて、業績は下降気味である。
2⃣ 日本の(大阪大学発量子S/Wスタートアップ)Qunasysは、デンマークの政府系基金であるデンマーク・イノベーション基金から、1,900万デンマーク・クローネ(約4億円)の支援を受けている(25年3月)。期間4年で、量子化学計算を対象に、3つの課題に取り組んでいる。その内の一つは、ノボ・ノルディスク財団量子コンピューティング・プログラム(NQCP)で開発する量子H/Wに合わせた調整という作業も含まれる(らしい)。
3⃣ ノボノルディスク財団とデンマーク輸出投資基金の合弁事業であるQuNorthは、€80milを投資して、米アトム・コンピューティングと米マイクロソフトが開発した(中性原子方式)量子コンピューターMagneを導入する。2026年後半に稼働開始予定で、物理量子ビット数が数千・論理量子ビット数が数十となる予定。
(1) 概要
ノボHDsは、量子投資に関するアニュアル・レビュー2025というレポート[*236]を公開した(25年11月11日)。ノボHDsは、ライフサイエンス分野において量子技術が革新をもたらす、という仮説に対する不確実性が縮小した判断。2025年、ノボHDsのシード投資チーム内事業部門として、量子投資チームを発足させた。同チームは、投資する量子技術分野として、量子センシングに特に注目している†2。量子コンピューティングに関しては、AIと組み合わせる†3ことで、分子シミュレーションの高速化から創薬設計やバイオマーカーの発見に至るまで、ライフサイエンス分野において大きな可能性を秘めていると確信している。また、特定のアプリケーションにおいて、具体的な量子優位性が2030年までに実現されると確信している。
†2 量子界隈で、これは標準的な認識である。
†3 つまり、AI(GPU)と同様に、古典コンピューターのブースターとして位置付けている。投資家として、この認識は正しい。
(2) 投資家・ファンド運用者として
1⃣ ノボHDs量子投資チームは、次のように考えている(投資家の視点):量子テック企業の企業評価は依然として投機的で不安定である。投資家にとって、今後数年間は極めて重要な時期となるだろう。成功を収めるのは、高度な技術的信頼性と規律ある資金管理、そして現実世界における量子コンピューティングの優位性を見据えた企業である可能性が高い。
2⃣ ファンド運用者としては、次のように考えている:2030年までにデンマークを拠点としつつもグローバルな視点から、8~10件の直接投資と複数のファンド投資によるポートフォリオ構築を目指している。
❚余 談❚
投資先企業は2社(Sparrow QuantumとPhasecraft)である。Sparrow Quantumはデンマーク企業で、決定論的なオンチップ単一量子光源を開発している(類似企業は、北欧外に視野を拡げても、そう多くはない)。Phasecraftは英国企業で、材料科学や量子化学向け量子アルゴリズムを開発している。後者の類似企業の内、北欧に本社を置く企業として、Algorithmiq(フィンランド)、Molecular Quantum Solution(デンマーク)、Kvantify(デンマーク)がある。変な同調圧力がある日本であれば、まずは母国企業に投資を・・・となりそう。母国企業に投資しなかった場合、それらの企業は価値が小さいと判断された、と見なされそう。気まずい感じにならないのであれば、素晴らしい(というか、そうあるべき)。
(3) 為参考|量子投資チーム・メンバーのバックグラウンド
日本に3⃣のようなスキル/バックグラウンドの持ち主が、何人いるか?という話。
1⃣ パートナーのバックグラウンド
蘭デルフト工科大学・生命科学の学士号→蘭ライデン大学・生物医学の修士号→蘭アムステルダム医療センター・免疫学の博士号
博士号取得後、メルクのコーポレートベンチャー部門(M Ventures)→ノボHDsのシード投資チーム
2⃣ プリンシパルのバックグラウンド
デンマークのコペンハーゲン・ビジネススクールで金融・会計の修士号を取得
投資銀行†3→Verdane†4→BASFのコーポレートベンチャー部門(BASFベンチャーキャピタル)→ノボHDsのシード投資チーム
†3 当時の業務は、中堅テクノロジー企業のM&Aアドバイザリー業務だったらしい。
†4 ノルウェーのグロース・エクイティ・ファンド
3⃣ アソシエイトのバックグラウンド
デンマークのコペンハーゲン大学・物理学とコンピュータサイエンスの学士号→英ケンブリッジ大学・量子コンピューティングの修士号と博士号を取得。米ハーバード大学と米カリフォルニア大学バークレー校に留学経験あり。
ボストン・コンサルティング・グループ→IBMリサーチ→米Sutter Hill Ventures†5→ノボHDsのシード投資チーム
†5 カリフォルニア州パロアルトを拠点としているベンチャーキャピタル(VC)。設立は1964年(本当?)とされ、現在でも運営されている、最も古いVCの1つとされる。あの有名なベンロックでも1969年。最初の近代的VCとされる、クライナーパーキンスとセコイアの設立は1972年。
米中経済安全保障検討委員会は、2000年10月に米国議会によって設置された立法府の委員会であり、米国と中華人民共和国の二国間貿易および経済関係の国家安全保障への影響について監視、調査し、議会に年次報告書を提出し、必要に応じて議会に立法および行政措置に関する勧告を行うという立法上の義務を負っている。
(1) 2025 Annual Report to Congress
25年の年次報告書(Annual Report to Congress)のテーマには、以下が含まれる†1:北京がいかに製造業とイノベーションの原動力を構築したか、宇宙を支配するという中国の野心、チャイナショック2.0、北京のサプライチェーンの兵器化、中国の電動化推進†2。
†1 本稿では、"以下"に該当する文章から、産業に関係すると思われる箇所だけを抜粋し、政治に関連する箇所は省いている。
†2 原語は、electrification drive。狭義には、電気自動車の製造及び輸出の推進を指しているか。driveには、(輸出を含めて諸々を)推進しているという意味のドライブ、車を運転すると言う意味のドライブが、掛かっているのだろう。
(2) Executive Summary and Recommendations
年次報告書の一部(Executive Summary and Recommendations[*238]†3)の量子技術に関する記述箇所(pp.14-15)だけを抜粋し、さらに簡潔にまとめた。
†3 サマリーとは言え、カバーtoカバーで56頁ある。もちろん、サマリーにあるのだから本文(Chapter 6 - Interlocking Innovation Flywheels: China's Manufacturing and Innovation Engine https://www.uscc.gov/sites/default/files/2025-11/Chapter_6--Interlocking_Innovation_Flywheels_Chinas_Manufacturing_and_Innovation_Engine.pdf)にも、同じ記述がある(pp.41-42(報告書全体の頁数では、pp.353-354))。
① 量子計算におけるミッション・クリティカルな分野は、暗号解析、創薬、材料科学である†4。
†4 厳密に言えば、米中経済安全保障検討委員会の管掌範囲では、という条件設定が必要かもしれない。しかし、当該設定を解除しても、違和感は、ほぼないであろう。
② 米国議会は、3つのミッション・クリティカルな分野に焦点を当て、2030年までに「量子ファースト」という国家目標を設定する。
③ この野心的な国家目標を達成するため、米中経済安全保障検討委員会は、米国議会に対し、以下の措置を講じるよう勧告する。
㊀ スケーラブルな量子コンピューティング手法、(量子)セキュア通信、耐量子暗号技術に重点を置いた、米国の量子開発に多額の資金を提供する。
㊁ 極低温実験室、量子工学センター、次世代製造・計測施設などの基盤インフラの近代化を優先する。
㊂ スケーラブルで安全かつ相互運用可能な量子コンピューティング向けソフトウェア基盤の開発に重点を置く量子ソフトウェア工学研究所を設立する†5。
†5 当然、日本でも必要である。量子コンピューターとスパコン(HPC)との連携に向けた、ソフトウェア・スタックの開発を行うJHPC-quantumが近いだろうか。理研、ソフトバンク、東大、阪大が協業している。
④ 量子(及び人工知能)分野をリードする者は、「デジタル経済の暗号化を掌握」し、「材料、エネルギー、医療におけるブレークスルーを可能」にし、情報収集と標的探索において『非対称かつ持続的な優位性を獲得する』だろう†6。
†6 「」及び『』は、原文にはない。つまり、勝手に付けている。
⑤ 米中経済安全保障検討委員会は、以下の可能性が高いと推定している:中国は、暗号技術に関連する量子コンピューティング能力の開発に積極的に取り組んでおり、その最先端の取り組みの所在と状況を隠蔽している。
⑥ コンピューティング、センシング、通信にまたがる量子技術は、戦略的優位性の未来を形作るだろう。
↑目次に戻る
【尾 注】
*1 池田一毅、幾何学的ラングランズ予想と量子ホール効果、加速器・物理合同ILC夏の合宿2017@乗鞍高原・資料(https://agenda.linearcollider.org/event/7684/contributions/39501/attachments/31949/48249/ILC2017.pdf)
*2 当時、IBMのフェローだった。
*3 ドイチュは後に、量子版チューリング・マシンとは異なる、量子回路モデルと呼ばれる計算モデルを提案した。1993年、アンドリュー・ヤオによって、両者が同等であることが証明されている。
*4 https://www.itmedia.co.jp/pcuser/articles/1111/22/news032.html
なお、D-WaveのSQUIDの消費電力は、20数kWとのことである(出所:https://www.scat.or.jp/cms/wp-content/uploads/2020/06/scat104_seminar_02.pdf)。また、先代のスパコン京の電気代は約600万円/日(出所:ibid)であり、富岳は約1,200万円/日(出所:https://www.r-ccs.riken.jp/intro-hpc/hellosc-fugaku/05.html)である。
*5 出典:日経クロステック編集、富岳 世界4冠スパコンが日本を救う 圧倒的1位に輝いた国産技術の神髄、日経BP、2021
*6 ザパタ・コンピューティングは2020年9月、シリーズBラウンドで投資家から3,800万ドルの資金を調達した。シリーズAのリード・インベスターは、BASFやロバートボッシュのコーポレートVC。シリーズBには、伊藤忠商事等が参加している。
*7 キュナシスは2019年11月、シリーズAラウンドで、投資家から2億8000万円を調達した。
*8 https://dojo.qulacs.org/ja/latest/notebooks/6.3_subspace_search_VQE.html。
*9 出典:御手洗光祐・藤井啓祐、シリーズ「人工知能と物理学」量子コンピューターを用いた変分アルゴリズムと機械学習、日本物理学会誌、74巻(2019)9号、p.610
https://www.jstage.jst.go.jp/article/butsuri/74/9/74_604/_pdf/-char/ja
*10 https://www.keio.ac.jp/ja/press-releases/2021/5/26/28-80161/
*11出典:御手洗光祐・藤井啓祐、シリーズ「人工知能と物理学」量子コンピューターを用いた変分アルゴリズムと機械学習、日本物理学会誌、74巻(2019)9号、pp.607-609
https://www.jstage.jst.go.jp/article/butsuri/74/9/74_604/_pdf/-char/ja
*12 アニーリング(焼き鈍し)は、残留応力の除去等を目的として、加熱後ゆっくり冷やすという処理であり、機械加工の分野で広く用いられてきた。1980年代、アニーリングのモンテカルロ・シミュレーションが、組み合わせ最適化プロセスと相似していることに注目した学者がいた。そして「物理(機械加工)において、ゆっくり冷やして、エネルギー最小の状態に落ち着く」ことは、「組み合わせ最適化問題において、大域最適解への収束」に該当するのではないか、と考えた。それは、後に数学的に証明される。
*13 CMOSアニーリングは第3世代からSQAを利用している。また第3世代では、CMOSではなくFPGAでデジタル回路を構成している。
*14 例えば、https://www.nii.ac.jp/news/release/2019/0525.html
*15 例えば、https://www.jps.or.jp/books/gakkaishi/2020/02/75-02_083researches2.pdf
*16 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/21/2102-02.html
*17 https://www.ipa.go.jp/ikc/reports/how-companies-get-quantum-computing-ready-02.html
*18 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/21/2105-01.html
*19 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/21/2105-01.html
*20 https://www.nttdata.com/jp/ja/data-insight/2020/0914/
*21 観山正道・大関真之、量子アニーラの最新動向、表面と真空Vol.63、No.3、pp.104-111、2020(https://www.jstage.jst.go.jp/article/vss/63/3/63_20180522/_pdf/-char/ja)
*22 https://arxiv.org/pdf/1905.02666.pdf。プライシングの対象となったオプションは、実用性から選んでいる。具体的には、バスケットオプション、アジアンオプション、バリアオプション(ノックイン、ノックアウト)のプライシングを行っている。加えて、ストラドルやバタフライのような、オプションを組み合わせた取引(オプション・ポートフォリオ)についてもプライシングを行っている。
*23 オンサーガーの論文を読んだ南部陽一郎先生は、独自に厳密解に到達したらしい。兵役についていた南部先生は、そのとき学部を卒業していたに過ぎなかった。
*24 https://journal.ntt.co.jp/article/11045
*25 https://www.preferred.jp/ja/news/pr20210706/
*26 https://arxiv.org/pdf/1704.01212.pdf
*27 https://www.ds-pharma.co.jp/ir/news/2020/20200130.html
*28 https://www.iis.u-tokyo.ac.jp/ja/news/3569/
*29 AIの人知超え前倒しも 量子計算機、グーグル幹部言及(2021年8月24日付け日経新聞朝刊17面記事)
*30 https://www.uec.ac.jp/news/announcement/2021/20210726_3571.html
*31 例えば、バイラテラルAI(https://www.keio.ac.jp/ja/press-releases/files/2020/9/28/200925-1.pdf)など。
*32 https://www.ibm.com/downloads/cas/KRWEWO8D
ちなみに、このレポートの主な主張は、次の3つと思われる。(1)量子コンピュータは、古典コンピュータとAIと組み合わせて使用すると考えるべき。(2)量子コンピュータの適用分野は優先順位をつけるべき。優先順位をつける仕組みも提示している。(3)ワークフローやビジネスインテリジェンスを量子コンピュータを前提に再構築すべき。
*33 https://qforum.org/topics/interview12
*34 https://gridpredict.jp/news/1223/
*35 https://eetimes.itmedia.co.jp/ee/articles/2201/07/news032.html
*36 https://www.magellanic-clouds.com/blocks/2022/01/17/shimz/
*37 https://www.sdk.co.jp/news/2022/41712.html
*38 https://www.jst.go.jp/pr/announce/20220318-4/pdf/20220318-4.pdf
*39 https://www.keio.ac.jp/ja/press-releases/files/2022/4/1/220401-1.pdf
*40 https://www.tohoku.ac.jp/japanese/newimg/pressimg/tohokuuniv-press20220401_02web_Annealing.pdf
*41 https://techtarget.itmedia.co.jp/tt/news/2203/29/news09.html#utm_medium=email&utm_source=tt_news&utm_campaign=2022/03/30
*42 https://www.mhi.com/jp/news/22042502.html
*43 https://arxiv.org/pdf/2111.15605.pdf
*44 https://proceedings-of-deim.github.io/DEIM2022/papers/H34-4.pdf
*45 Z.ナザリオ、最大の難関「エラー訂正」を実行する新手法、日経サイエンス、2022年08月号
*46 https://ionq.com/links/Quantum_Computing_for_Risk_Aggregation_20220622.pdf
*47 Maria Schuld、Supervised quantum machine learning models are kernel methods(https://arxiv.org/abs/2101.11020)
*48 https://ai.googleblog.com/2022/06/quantum-advantage-in-learning-from.html
*49 Quantum computing:An emerging ecosystem and industry use cases(December 2021)
https://www.mckinsey.com/~/media/mckinsey/business%20functions/mckinsey%20digital/our%20insights/quantum%20computing%20use%20cases
%20are%20getting%20real%20what%20you%20need%20to%20know/quantum-computing-an-emerging-ecosystem.pdf
*50 https://discover.lanl.gov/news/0816-quantum-annealing
*51 https://www.itmedia.co.jp/enterprise/articles/2208/29/news050.html#utm_medium=email&utm_source=tt_news&utm_campaign=2022/08/30
*52 https://iopscience.iop.org/article/10.1088/1367-2630/ac7f26
*53 https://www.nature.com/articles/s41467-022-32094-6
*54 https://phys.org/news/2022-09-erasure-key-quantum.html
*55 Sangkha Borah et al.、Measurement-based estimator scheme for continuous quantum error correction、https://journals.aps.org/prresearch/pdf/10.1103/PhysRevResearch.4.033207
*56 https://physinfo.fr/artemis/
*57 https://www.jst.go.jp/pr/announce/20220706/index.html
*58 https://www.nature.com/articles/s42256-022-00509-0
*59 量子コンピューティング-従来は不可能だった課題の解決を目指して-、富士通テクニカルレビュー(https://www.fujitsu.com/jp/documents/about/resources/publications/technicalreview/topics/article008.pdf)
*60 depolarizingエラーをブロッホ球で表現すると、確率的にいずれかの軸に関してスピン反転を起こすエラーと解釈できる。これは、分極を失う様子と同じなので、depolarizingエラーと呼ばれる。ちなみに、植田優基(北海道大学大学院理学院数学専攻)、Factorizability of tensoring quantum channels with the completely depolarizing channel(https://www.math.sci.hokudai.ac.jp/~wakate/mcyr/2019/pdf/005900_ueda_yuki.pdf)には、「どのように和訳されるのかは筆者は知らない」とある。長田・山崎・野口(2021)には、脱分極という訳語があてられている。分極解消との訳語もある(https://www.icepp.s.u-tokyo.ac.jp/download/master/m2021_okubo.pdf)。物理コミュニティと数学コミュニティとの交流が少ないことを示唆しているのかもしれない。2023年時点で、脱分極という文言でコンセンサスが得られてると思われる。
*61 Robust Preparation of Wigner-Negative States with Optimized SNAP-Displacement Sequences (https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.3.030301)
*62 https://www.quantinuum.com/pressrelease/quantinuum-sets-new-record-with-highest-ever-quantum-volume
*63 小田徹、コンピュータ開発のはてしない物語 起源から驚きの近未来まで、技術評論社、2016
*64 岡本行二、日本の情報システムとコンピュータ利用、情報システム学会誌Vol.2,No.1 (https://www.issj.net/journal/jissj/Vol2_No1/A04V2N1.pdf)
*65 山田昭彦、コンピュータ開発史概要と資料保存状況-第3世代・第3.5世代コンピュータ及びスーパーコンピュータについて-、国立科学博物館技術の系統化調査報告第2集 2002年3月 (https://sts.kahaku.go.jp/diversity/document/system/pdf/006.pdf)
*66 情報処理 Vol.4,No.2(March 1963) (https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=9052&file_id=1&file_no=1)
*67 情報処理 Vol.6,No.4(July 1965) (https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=8856&file_id=1&file_no=1)
*68 小畑秀之、コンピュータ化80年、弓削商船高等専門学校紀要第24号(平成14年) (https://www.yuge.ac.jp/wp-content/themes/yugekousen/data/download/kiyou/vol24_14.pdf)
*69 宮崎晋生、日本における電子計算機産業政策での政策決定プロセス、国際関係・比較文化研究、第6巻第2号
https://u-shizuoka-ken.repo.nii.ac.jp/index.php?action=pages_view_main&active_action=repository_action_common_download&item_id=1175&item_no=1&attribute_id=40&file
_no=1&page_id=13&block_id=21)
*70 銀行の進化:日本の未来の繁栄に向けて(2022年7月)
https://www.mckinsey.com/jp/~/media/mckinsey/industries/financial%20services/our%20insights/banking%20on%20growth%20ensuring%20the
%20future%20prosperity%20of%20japan/banking-on-growth-ensuring-the-future-prosperity-of-japan-jp.pdf
*71 https://www.s.u-tokyo.ac.jp/ja/press/2022/8093/
*72 S.Bravyi et al.、The Future of Quantum Computing with Superconducting Qubits (https://arxiv.org/pdf/2209.06841.pdf)
*73 https://arxiv.org/abs/2206.03505
*74 https://blog.albert2005.co.jp/2020/07/17/mechanical-system-nn/
*75 https://arxiv.org/abs/2201.05624
*76 https://www.hpcwire.com/2022/10/19/cerebras-chip-part-of-project-to-spot-post-exascale-technology/
アルゴンヌ国立研究所は、2022年10月19日、米国初のエクサ級スパコン「オーロラ」を導入した。4つの領域で突破口を開くことを目指している:①脳の複雑な接続のマッピング、②がん細胞の広がり方、③核融合エネルギーへの道筋を見つける、④真の素粒子探求。参照:https://www.hpcwire.com/off-the-wire/argonne-outlines-4-science-advances-coming-in-the-exascale-era/
*77 https://japan.zdnet.com/article/35179312/
*78 https://eetimes.itmedia.co.jp/ee/articles/2104/30/news074_2.html
*79 https://www.businesswire.com/news/home/20210824005645/ja/
*80 https://www.ricos.co.jp/tech/simulation_accelerates/
*81 https://pr.fujitsu.com/jp/news/2022/10/21.html
*82 https://www.sompo-hd.com/-/media/hd/files/news/2022/20220329_1.pdf?la=ja-JP
*83 https://www.memcpu.com/blog/memcomputing-vs-quantum-computing/
*84 https://www.nature.com/articles/s41586-022-04992-8
*85 https://www.it-chiba.ac.jp/media/pr20221124.pdf
*86 https://arxiv.org/pdf/2211.15631.pdf
*87 https://www.frontiersin.org/articles/10.3389/fphy.2022.1069985/full
*88 https://pr.fujitsu.com/jp/news/2022/12/22.html
*89 https://www.militaryaerospace.com/computers/article/14287396/quantum-computing-military-missions-swap
*90 https://iopscience.iop.org/article/10.1088/2058-9565/ac6f19/pdf
*91 Dorit Aharonov et al.、A polynomial-time classical algorithm for noisy random circuit sampling https://arxiv.org/abs/2211.03999
*92 https://news.fixstars.com/2513/
*93 https://eetimes.itmedia.co.jp/ee/articles/2301/12/news101_2.html
*94 https://news.fixstars.com/2165/
*95 組み合わせ最適化問題を厳密に解くことは古典コンピュータでも量子コンピュータでも難しいが、"近似的に解く"場合では、量子コンピュータが優位性を示す。そう主張する論文が、Niklas Pirnay et al.、A super-polynomial quantum advantage for combinatorial optimization problems(https://arxiv.org/abs/2212.08678)である(22年12月16日)。正確な主張は「ある組み合わせ最適化問題に対して、量子誤り訂正付き量子コンピュータによる近似は、古典コンピュータによる近似に比べて、超多項式的加速を示す」。あくまで、超多項式である。
*96 Enterprise Quantum Computing Adoption、https://www.zapatacomputing.com/enterprise-quantum-adoption-2022/
なお、このレポートにおける調査は『2022年の推定収益が、US$250milを超える大規模なグローバル企業の300人の意思決定リーダー(CIO、CTO、およびその他の副社長レベル以上の幹部)を対象に、22年11月に実施された』。
*97 https://www.shimz.co.jp/company/about/news-release/2023/2022066.html
*98 https://aws.amazon.com/jp/blogs/quantum-computing/optimization-of-robot-trajectory-planning-with-nature-inspired-and-hybrid-quantum-algorithms/
*99 https://www.keio.ac.jp/ja/press-releases/files/2023/2/9/230209-1.pdf
*100 https://xtellix.com/
*101 https://www.global.toshiba/jp/company/digitalsolution/news/2023/0210.html
*102 リュードベリ原子配列は、単位円盤グラフ上の最大独立集合問題を、自然に符号化する。このため、最大独立集合問題の解をリュードベリ原子配列を用いた量子アルゴリズムで求める場合、最適化された古典的シミュレーテッド・アニーリング法に比べて、超線形加速が観測されている(S. EBADI et al.、Quantum optimization of maximum independent set using Rydberg atom arrays https://www.science.org/doi/10.1126/science.abo6587)。米スタートアップのQuEra、米ハーバード大、墺インスブルック大の研究者は、Physical Review Xで23年2月14日に公開された論文(Minh-Thi Nguyen et al.、Quantum Optimization with Arbitrary Connectivity Using Rydberg Atom Arrays https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.4.010316)で、リュードベリ原子を用いた符号化というアプローチを、任意の接続性を持つグラフ上で定義される問題へと拡張した。詳細は、こちらを参照。
*103 https://www.americanbanker.com/payments/news/mastercard-testing-quantum-computing-for-loyalty-and-rewards
*104 Gerard McCaul et al.、Towards single atom computing via high harmonic generation https://link.springer.com/article/10.1140/epjp/s13360-023-03649-3
*105 https://www.keio.ac.jp/ja/press-releases/files/2023/4/5/230405-1.pdf
*106 A.K. Fedorov et al.、Quantum computing at the quantum advantage threshold:a down-to-business review https://arxiv.org/pdf/2203.17181.pdf
この論文は、「量子コンピューティングの最先端技術、有望な計算モデル、物理プラットフォーム、潜在的なアプリケーション、アプリケーションによってもたらされる要件、これらの要件に対処するための技術的経路」について説明した総合的なレビューである。ただし、アーキテクチャは範囲外。また、「数学や物理学の高度なバックグラウンドを持たない読者にもアクセスできる」内容となっている。
*107 上記[*106]には、「新しいアーキテクチャ、最適化、アプリケーションに依存したプロセッサの特殊化によって、古典的なコンピュータの開発にはさらに多くの機会が開かれる」との記述がある。スパコンの進化は止まらないという意見である。(少なくとも)ノイマン・ボトルネックを回避できるアーキテクチャが実用化されて初めて、そう言えるように思われる。
*108 https://www.magellanic-clouds.com/blocks/2023/03/22/robot-friendly-5/
*109 https://lightsolver.com/lightsolver-all-laser-technology-poised-to-outperform-and-outpace-quantum-and-classical-hpc/
*110 https://arxiv.org/pdf/2302.06926.pdf
*111 https://www.businesswire.com/news/home/20230601005271/en/
*112 Deepesh Singh et al.、Proof-of-work consensus by quantum sampling、https://arxiv.org/pdf/2305.19865.pdf
*113 Luca Gravina et al.、Critical Schrödinger Cat Qubit、https://journals.aps.org/prxquantum/pdf/10.1103/PRXQuantum.4.020337
*114 Quantum Advantage: Hope and Hype、https://cloudblogs.microsoft.com/quantum/2023/05/01/quantum-advantage-hope-and-hype/
あるいは、arXivへの投稿論文https://arxiv.org/pdf/2307.00523.pdf(Disentangling Hype from Practicality: On Realistically Achieving Quantum Advantage)を参照。
*115 Lucas Friedrich and Jonas Maziero、Quantum neural network cost function concentration dependency on the parametrization expressivity、https://www.nature.com/articles/s41598-023-37003-5
*116 Sukin Sim et al.、Expressibility and entangling capability of parameterized quantum circuits for hybrid quantum-classical algorithms、https://arxiv.org/pdf/1905.10876.pdf
原文では、[an] ability to generate(pure)states that are well representative of the Hilbert space.
*117 https://research.ibm.com/blog/utility-toward-useful-quantum
*118 Youngseok Kim et al.、Evidence for the utility of quantum computing before fault tolerance、https://www.nature.com/articles/s41586-023-06096-3
*119 https://static-content.springer.com/esm/art%3A10.1038%2Fs41586-023-06096-3/MediaObjects/41586_2023_6096_MOESM1_ESM.pdf
*120 https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/tech-forward/early-value-an-introduction-to-quantum-optimizers
*121 Jonathan Wurtz et al.、Industry applications of neutral-atom quantum computing solving independent set problems、https://arxiv.org/pdf/2205.08500.pdf
*122 主に、以下を参考にした:Ewout van den Berg et al.、Probabilistic error cancellation with sparse Pauli-Lindblad models on noisy quantum processors、https://arxiv.org/pdf/2201.09866.pdf
*123 https://www.bk.mufg.jp/news/admin/news0713.pdf 約18%を出資して持分法適用会社にしたのだから、"classicalな"銀行カルチャから見ると、前のめりと言えるだろう。
*124 マイクロソフト(リサーチ)は該社公式ブログ(23年6月27日付け、※)にて、該社におけるAnalog Iterative Machine(AIM:アナログ反復マシン)の位置付けを詳細に語った。AIMは、光を線形操作・非線形操作することで演算を行うアナログ光コンピュータである。AIMはストレージと演算装置の間でデータのやり取り(フォン・ノイマン・ボトルネック)がないため、高速演算が可能。加えて、該社がQUMO(二次制約のない混合最適化)と呼ぶ、QUBOよりも幅広いクラスの最適化問題に対応できる、と主張している。英バークレイズと、金融取引の最適化問題をターゲットとして、1年間の研究契約を結んだことも発表した。
※ https://www.microsoft.com/en-us/research/blog/unlocking-the-future-of-computing-the-analog-iterative-machines-lightning-fast-approach-to-optimization/
*125 https://eetimes.itmedia.co.jp/ee/articles/2307/28/news156.html#utm_medium=email&utm_source=ee-elemb&utm_campaign=20230731
*126 https://www.hitachi.co.jp/rd/news/topics/2021/2110_cmos.html
*127 https://www.nsf.gov/awardsearch/showAward?AWD_ID=2303643&HistoricalAwards=false
*128 ちなみに東大の古澤先生は、2014年の時点で「量子コンピュータはなぜか、古典コンピュータよりも高速でなくてはならないという呪縛があって、それは、問題設定が間違っていると思います。古典的なアルゴリズムでも良いので、今までのコンピュータよりも消費電力が1/10のコンピュータや、今までのペースで発展していっても破綻しないようなコンピュータであれば、アルゴリズム的に速いコンピュータの必要性はありません」と仰っている。出典:https://eetimes.itmedia.co.jp/ee/articles/1410/28/news034_5.html
*129 Yong(Alexander)Liu et al.、Closing the “Quantum Supremacy” Gap: Achieving Real-Time Simulation of a Random Quantum Circuit Using a New Sunway Supercomputer、https://arxiv.org/pdf/2110.14502.pdf
ゴードンベル賞受賞によって、より広く知られているバージョンは、https://dl.acm.org/doi/pdf/10.1145/3458817.3487399
*130 携帯電話基地局ベンダー大手のエリクソン(スウェーデン)は、「アンテナの傾きの最適化」において、量子アルゴリズム(量子畳み込みニューラルネットワーク,QNN)は古典アルゴリズムより学習効率が高い、という内容を該社公式ブログに投稿した(23年9月20日)。最適なアンテナの傾きは、トレードオフの関係にある「通話品質、通信容量、カバレッジ」を最適化し、無線リンクの効率化を向上させる、という。同程度の予測精度をもたらす量子アルゴリズムの学習可能パラメータは、古典アルゴリズムの1/10以下であるため、学習効率が高い(学習のオーバーヘッドが小さい)、と結論している。新サービス追加時などに、再学習が必要なので、高い学習効率には、大きな利点がある。
実務上の古典アルゴリズムは(強化学習の)Deep Q-Networkであるが、量子アルゴリズムとの比較モデルは、多層パーセプトロンのニューラルネットワーク。Deep Q-Networkを、教師あり学習問題に変換している(ため、厳密な比較ではないし、他にも若干グレーな部分はある)。QNNのオプティマイザーはCOBYLA、符号化には(回転ゲートと位相ゲートの、それぞれの角度を使って符号化する)「dense角度符号化」を使用。ちなみに、「活性化関数=tanh、オプティマイザー=Adam」古典アルゴリズムで、予測精度90.24%(最良)。
出所・・・https://www.ericsson.com/en/blog/2023/9/how-a-real-5g-quantum-ai-use-case-could-disrupt-antenna-tilting
*131 https://quantumcomputingreport.com/a-deeper-dive-into-microsofts-topological-quantum-computer-roadmap/
*132 Morteza Aghaee et al.、InAs-Al hybrid devices passing the topological gap protocol、Phys.Rev.B 107,245423(2023)、https://journals.aps.org/prb/abstract/10.1103/PhysRevB.107.245423
*133 https://www.hiroshima-u.ac.jp/news/78491
*134 https://www.titech.ac.jp/news/2023/067565
*135 https://www.waseda.jp/inst/research/news/75406
*136 T.E.O'Brien et al.、Purification-based quantum error mitigation of pair-correlated electron simulations、https://www.nature.com/articles/s41567-023-02240-y
*137 Joonho Lee et al.、Generalized Unitary Coupled Cluster Wavefunctions for Quantum Computation、https://arxiv.org/pdf/1810.02327.pdf
*138 Zhenyu Cai et al.、Quantum Error Mitigation、https://arxiv.org/pdf/2210.00921.pdf
*139 https://www.eetasia.com/novel-memory-architecture-bolsters-security/
*140 https://www.dendai.ac.jp/news/20231025-01.html
*141 https://www.t.u-tokyo.ac.jp/press/pr2023-11-23-001
*142 https://www.tohoku.ac.jp/japanese/2023/12/press20231219-02-annealing.html
*143 https://www.hiroshima-u.ac.jp/system/files/224731/ABS2-release3.pdf
*144 https://pr.fujitsu.com/jp/news/2024/01/23.html
*145 https://www.rohm.co.jp/news-detail?news-title=2023-12-05_news&defaultGroupId=false
*146 https://www.jst.go.jp/pr/announce/20240314-3/index.html
*147 https://btq.com/blog/quantum-energy-advantage
*148 https://alice-bob.com/blog/more-quantum-computing-with-fewer-qubits-meet-our-new-error-correction-code/
*149 M.Cerezo et al.、Challenges and opportunities in quantum machine learning、https://www.nature.com/articles/s43588-022-00311-3
*150 https://www.global.toshiba/jp/technology/corporate/rdc/rd/topics/24/2404-02.html
*151 Nobuyuki Yoshioka et al.、Hunting for quantum-classical crossover in condensed matter problems、https://www.nature.com/articles/s41534-024-00839-4
*152 https://www.quantinuum.com/news/quantinuums-h-series-hits-56-physical-qubits-that-are-all-to-all-connected-and-departs-the-era-of-classical-simulation
*153 Natasha Sachdeva et al.、Quantum optimization using a 127-qubit gate-model IBM quantum computer can outperform quantum annealers for nontrivial binary optimization problems、https://arxiv.org/pdf/2406.01743
*154 Rong Fu et al.、Achieving Energetic Superiority Through System-Level Quantum Circuit Simulation、https://arxiv.org/pdf/2407.00769v1
*155 https://www.hpcwire.com/off-the-wire/edf-alice-bob-quandela-and-cnrs-partner-to-optimize-quantum-computings-energy-efficiency/
*156 https://www.quantonation.com/2024/07/09/the-ai-boom-is-good-for-quantum-tech/
*157 Massimo Bernaschi et al.、The quantum transition of the two-dimensional Ising spin glass、https://www.nature.com/articles/s41586-024-07647-y
*158 https://www.nict.go.jp/press/2024/07/25-1.html
*159 https://ml24-obergurgl.conf.tuwien.ac.at/wp-content/uploads/2024/06/mlqs-manifesto.pdf 及びhttps://www.openpetition.eu/petition/online/support-the-machine-learning-in-quantum-science-manifesto-2
*160 https://cdn.prod.website-files.com/643b94c382e84463a9e52264/66add72e0b8354a8451d9305_QuEra%20July%202024%20Survey%20Report.pdf
*161 例えば、https://tech.eu/2024/08/07/eic-commits-12-5m-for-lightsolver-s-energy-efficient-supercomputer/
*162 https://marketing.idquantique.com/acton/attachment/11868/f-7485d397-bc2b-471a-95b4-6d1775a7730b/1/-/-/-/-/McKinsey%20Digital%20Quantum%20Technology%20Monitor%20-%20April%202024.pdf
*163 https://www.docomo.ne.jp/binary/pdf/corporate/technology/rd/technical_journal/bn/vol19_1/vol19_1_032jp.pdf
*164 https://ir.dwavesys.com/news/news-details/2024/NTT-DOCOMO-and-D-Wave-Improve-Mobile-Network-Performance-by-15-With-Quantum-Optimization-Technology/default.aspx
*165 https://corporate.jp.sharp/news/240902-a.html
*166 https://www.bosonqpsi.com/post/bqp-and-materialsin-partner-to-demonstrate-benefits-of-quantum-machine-learning-based-material-infor
*167 https://dwavejapan.com/%e6%97%a5%e6%9c%ac%e3%81%9f%e3%81%b0%e3%81%93%e7%94%a3%e6%a5%ad%e3%81%a8-d-wave%e3%80%81ai%e3%81%a8%e9%87%8f
%e5%ad%90%e3%82%b3%e3%83%b3%e3%83%94%e3%83%a5%e3%83%bc%e3%82%bf%e3%82%92%e6%b4%bb%e7%94%a8/
*168 Dawei Ding & Liang Jiang、Coordinating Decisions via Quantum Telepathy、https://arxiv.org/pdf/2407.21723
*169 https://cerebras.ai/press-release/cerebras-systems-announces-filing-of-registration-statement-for-proposed-initial-public-offering
*170 https://www.riverlane.com/blog/designing-quantum-computers-with-energy-efficiency-in-mind
*171 Lorenzo Papa et al.、On the impact of key design aspects in simulated Hybrid Quantum Neural Networks for Earth Observation、https://arxiv.org/pdf/2410.08677
*172 Microsoft Azure Quantum、End-to-End Quantum Simulation of a Chemical System、https://arxiv.org/pdf/2409.05835
*173 Jack S. Baker et al.、Simulating optically-active spin defects with a quantum computer、https://arxiv.org/pdf/2405.13115
*174 Atithi Acharya et al.、Decomposition Pipeline for Large-Scale Portfolio Optimization with Applications to Near-Term Quantum Computing、https://arxiv.org/pdf/2409.10301
*175 Elena Chachkarova et al.、Quantum Embedding of Non-local Quantum Many-body Interactions in Prototypal Anti-tumor Vaccine Metalloprotein on Near Term Quantum Computing Hardware、https://arxiv.org/pdf/2410.12733
*176 https://www.technologyreview.com/2024/11/07/1106730/why-ai-could-eat-quantum-computings-lunch/
*177 Giuseppe Carleo & Matthias Troyer、Solving the Quantum Many-Body Problem with Artificial Neural Networks、https://arxiv.org/pdf/1606.02318
*178 Yusuke Ino et al.、Workflow for practical quantum chemical calculations with a quantum phase estimation algorithm: electronic ground and π–π* excited states of benzene and its derivatives、https://pubs.rsc.org/en/content/articlelanding/2024/cp/d4cp03454f
*179 https://www.infleqtion.com/news/infleqtion-delivers-first-quantum-material-design-application-powered-by-logical-qubits-and-nvidia-cuda-q
*180 https://developer.nvidia.com/blog/nvidia-cuda-q-runs-breakthrough-logical-qubit-application-on-infleqtion-qpu/
*181 1本目の論文は、https://people.mpim-bonn.mpg.de/gaitsgde/GLC/functor.pdf。2本目は、https://people.mpim-bonn.mpg.de/gaitsgde/GLC/Loc.pdf。3本目は、https://people.mpim-bonn.mpg.de/gaitsgde/GLC/Eis.pdf。4本目は、https://people.mpim-bonn.mpg.de/gaitsgde/GLC/ambidex.pdf。5本目は、https://people.mpim-bonn.mpg.de/gaitsgde/GLC/multone.pdf。
*182 https://www.hiroshima-u.ac.jp/news/87478
*183 Alice&Bob、THINK INSIDE THE BOX QUANTUM COMPUTING WITH CAT QUBITS An Introduction to Useful Quantum Computing by Alice & Bob、https://alice-bob.com/wp-content/uploads/2024/12/Think-Inside-The-Box-Alice-Bob-Whitepaper.pdf
*184 https://www.sagence-ai.com/sagence-ai-emerges-from-stealth-tackling-economic-viability-of-inference-hardware-for-generative-ai/
*185 Yaakov Weinstein and Brandon Rodenburg、Intelligence After Next: Quantum Computing–Quantifying the Current State of the Art to Assess Cybersecurity Threats、https://www.mitre.org/sites/default/files/2025-01/PR-24-3812-Quantum-Computing-Quantifying-Current-State-Assess-Cybersecurity-Threats.pdf
*186 https://www.hzdr.de/db/Cms?pNid=99&pOid=74198
*187 A QUANTUM TECHNOLOGIES POLICY PRIMER、OECD DIGITAL ECONOMY PAPERS、 January 2025 No.371、https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/01/a-quantum-technologies-policy-primer_bdac5544/fd1153c3-en.pdf
*188 https://www.nasdaq.com/articles/lightsolver-and-ansys-partner-advance-cae-modeling-key-industries
*189 https://ir.dwavesys.com/news/news-details/2025/D-Wave-and-Staque-Announce-New-Hybrid-Quantum-Application-for-Optimization-of-Autonomous-Agriculture-Vehicle-Movements/default.aspx
*190 https://newsroom.kddi.com/news/detail/kddi_nr-460_3736.html
*191 Hirofumi Nishi et al.、Encoded probabilistic imaginary-time evolution on a trapped-ion quantum computer for ground and excited states of spin qubits、https://journals.aps.org/prapplied/abstract/10.1103/PhysRevApplied.23.034016
*192 Willie Aboumrad et al.、Accelerating Large-Scale Linear Algebra Using Variational Quantum Imaginary Time Evolution、https://arxiv.org/pdf/2503.13128
*193 https://www.dwavequantum.com/company/newsroom/press-release/d-wave-introduces-quantum-blockchain-architecture-featuring-enhanced-security-and-efficiency-over-classical-computing/
*194 Mohammad H.Amin et al.、Blockchain with proof of quantum work、https://arxiv.org/pdf/2503.14462
*195 Takao Tomono & Kazuya Tsujimura、The discriminative ability on anomaly detection using quantum kernels for shipping inspection、https://epjquantumtechnology.springeropen.com/articles/10.1140/epjqt/s40507-025-00335-4
*196 https://www.businesswire.com/news/home/20250331962466/en/Japan-Tobacco-and-D-Wave-Announce-Quantum-Proof-of-Concept-Outperforms-Classical-Results-for-LLM-Training-in-Drug-Discovery
*197 https://www.dwavequantum.com/company/newsroom/press-release/in-production-ford-otosan-deploys-vehicle-manufacturing-application-built-with-d-wave-technology/
*198 https://unit.aist.go.jp/g-quat/ja/results/announce/announce_20250324_A-STARr.html
*199 https://qt.eu/news/2025/2025-04-14_new-survey-reveals-public-support-for-quantum-science-and-technology
*200 Faisal Shah Khan et al.、Quantum Advantage in Trading: A Game-Theoretic Approach、https://journals.sagepub.com/doi/reader/10.1177/29767032251333418
*201 尾畑伸明、量子確率論とその応用、https://www.math.is.tohoku.ac.jp/~obata/student/graduate/file/2013-Meijo-QP-Graph.pdf
尾畑伸明、量子確率論への招待、https://www.math.is.tohoku.ac.jp/~obata/research/file/1996-Nagoya-Forum.pdf
尾畑伸明、代数的確率論入門 : 独立性の諸概念、https://nagoya.repo.nii.ac.jp/record/12252/files/graslm_2_1.pdf
*202 長谷部高広、非可換確率論における独立性と無限分解可能分布、https://www.math.sci.hokudai.ac.jp/~thasebe/NCP-preprint.pdf
*203 河東泰之、特集/関数解析的思考法のすすめ ❚ 作用素環の考え方、数理科学 NO. 646, APRIL 2017、pp.1-6、https://www.ms.u-tokyo.ac.jp/~yasuyuki/suri1704.pdf
*204 Kharen Musaelian et al.、Quantum Cognition Machine Learning AI Needs Quantum、https://indico.qtml2024.org/event/1/contributions/106/attachments/107/111/QCML.pdf
*205 https://setr.stanford.edu/sites/default/files/2025-01/SETR2025_web-240128.pdf
*206 https://www.nqcc.ac.uk/insights-paper-the-convergence-of-healthcare-and-pharmaceuticals-with-quantum-computing/
*207 GenQAI: A New Era at the Quantum-AI Frontier、https://www.quantinuum.com/blog/genqai-a-new-era-at-the-quantum-ai-frontier
*208 Kouhei Nakaji et al.、The generative quantum eigensolver (GQE) and its application for ground state search、https://arxiv.org/pdf/2401.09253
*209 Nick S.Blunt et al.、Quantum Computing Approach to Fixed-Node Monte Carlo Using Classical Shadows、https://pubs.acs.org/doi/epdf/10.1021/acs.jctc.4c01468?ref=article_openPDF
*210 Shunya Minami et al.、Generative quantum combinatorial optimization by means of a novel conditional generative quantum eigensolver、https://arxiv.org/pdf/2501.16986
*211 https://www.shionogi.com/jp/ja/news/2025/05/2025_0507.html
*212 Masahito Kumagai et al.、Single photon coherent Ising machines for constrained optimization problems、https://iopscience.iop.org/article/10.1088/2058-9565/addde5/pdf
*213 Akitada Sakurai et al.、Quantum optical reservoir computing powered by boson sampling、https://opg.optica.org/opticaq/viewmedia.cfm?uri=opticaq-3-3-238&seq=0
*214 https://terraquantum.swiss/news/europes-chip-moment-terra-quantum-revolutionizes-ai-world-with-new-super-transistor
*215 Sebastian V.Romero et al.、Sequential Quantum Computing、https://arxiv.org/pdf/2506.20655
*216 https://floadia.com/jp/news/2174/
*217 https://qant.com/wp-content/uploads/2025/06/20250604-QANT-Live-Demo-Analog-Photonic-Server-at-ISC.pdf
*218 https://qant.com/wp-content/uploads/2025/07/D20250717_Q.ANT-Series_A_EN_For-Web.pdf
*219 https://qant.com/press-releases/leibniz-supercomputing-centre-computes-with-light-worlds-first-photonic-ai-processor-from-q-ant-goes-into-operation/
*220 Shu Kanno et al.、Tensor-based quantum phase difference estimation for large-scale demonstration、https://www.pnas.org/doi/epdf/10.1073/pnas.2425026122
*221 https://www.t.u-tokyo.ac.jp/hubfs/press-release/2025/0911/002/text.pdf
*222 Alice&Bob and Hyperion Research、SEIZING QUANTUM'S EDGE WHY AND HOW HPC SHOULD PREPARE FOR eFTQC、https://alice-bob.com/wp-content/uploads/2025/08/Seizing-Quantum-Edge-eFTQC-HPC-Report-Alice-Bob.pdf
*223 文部科学省研究振興局参事官(情報担当)付計算科学技術推進室、スーパーコンピュータに係る国内外の動向等について、令和7年5月28日、https://www.mext.go.jp/content/20250528-mxt-jyohoka01-000042769_011.pdf
☛ 上記資料は、「HPCI計画推進委員会(第64回)配付資料の資料1-1」。HPCIとは、ハイパフォーマンス・コンピューティング・インフラの意味らしい。
*224 Daan Camps et al.、Quantum Computing Technology Roadmaps and Capability Assessment for Scientific Computing、https://arxiv.org/pdf/2509.09882
*225 https://dl.acm.org/doi/10.1145/3706594.3729406
*226 Ikuto Nakatsukasa et al.、Optimizing Heat Treatment Schedules via QUBO Formulation、https://www.mdpi.com/2076-3417/15/16/8847
*227 Jiangwei Ju et al.、Quantum Computing for Transport Network Optimization、https://www.mdpi.com/1099-4300/27/9/953
*228 https://corporate.comcast.com/stories/quantum-computing-supercharging-the-future-of-internet-delivery
*229 https://ir.dwavesys.com/news/news-details/2025/North-Wales-Police-and-D-Wave-Announce-Hybrid-Quantum-Application-Outperforms-Classical-Results-in-Proof-of-Technology-Project-Optimizing-Police-Vehicle-Placement/default.aspx
*230 https://images.connect.discoveracs.org/Web/AmericanChemicalSociety3/%7bbab01966-65c5-43ef-be39-234358529d4e%7d_Microsot_WP_ChemistrysQuantumAge.pdf
*231 The Question One Should Always Ask When They Hear a “Quantum Advantage” Claim、https://quantumcomputingreport.com/the-question-one-should-always-ask-when-they-hear-a-quantum-advantage-claim/
*232 https://www.dwavequantum.com/media/2sof3qhz/the-pattison-food-group_case_story_v8.pdf
*233 https://reports.weforum.org/docs/WEF_Quantum_Technologies_Key_Opportunities_for_Advanced_Manufacturing_and_Supply_Chains_2025.pdf
*234 Makoto Otsuka et al.、Filtering out mislabeled training instances using black-box optimization and quantum annealing、https://www.nature.com/articles/s41598-025-21686-z.pdf
*235 https://www.dwavequantum.com/company/newsroom/press-release/basf-and-d-wave-announce-completion-of-proof-of-concept-project-demonstrating-benchmark-in-manufacturing-efficiency/
*236 https://a.storyblok.com/f/228216/x/003d2a5391/novo-holdings-quantum-investments-annual-review-2025.pdf
*237 https://qant.com/press-releases/q-ant-unveils-its-second-generation-photonic-processor-to-power-the-next-wave-of-ai-and-hpc/
*238 https://www.uscc.gov/sites/default/files/2025-11/2025_Executive_Summary.pdf
*239 https://www.efficient.computer/resources/electron-e1-evaluation-kit
【参考資料】
1 藤井啓祐、驚異の量子コンピューター―宇宙最強マシンへの挑戦、岩波書店、2019
2 寺師弘二、量子機械学習のHEP応用、2020年8月12日(https://indico.cern.ch/event/929823/contributions/3908946/attachments/2086997/3506325/QML_Terascale_120820.pdf)
3 http://lab.inf.shizuoka.ac.jp/masakiowari/research.html
4 初貝安弘、トポロジカル秩序と幾何学的位相、平成23年9月5日版(http://rhodia.ph.tsukuba.ac.jp/~hatsugai/modules/pico/PDF/kaisetsu/Hatsugai-Kaishi-Sep5w.pdf)
5 羽部哲朗、トポロジカル物質-バンドのトポロジー理論-(https://www.topo.hokudai.ac.jp/education/SpecialLecture/121102.pdf)
6 佐藤昌利、トポロジカル超伝導体入門(https://core.ac.uk/download/pdf/39295805.pdf)
7 加藤公一、量子コンピューターを用いた数値積分計算について(https://www.unisys.co.jp/tec_info/tr90/9003.pdf)
8 宇野隼平、量子コンピューターを用いた高速数値積分、みずほ情報総研技報 Vol.10 No.1(2019年10月)(https://www.mizuho-ir.co.jp/publication/giho/pdf/010_01.pdf)
9 羽田野直道、ハバート模型の量子モンテカルロ・アルゴリズム(https://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/94585/1/KJ00004788834.pdf)
10 大関真之(監訳)、量子コンピュータによる機械学習、共立出版、2020
11 宇野隼平、ノイズのある量子コンピュータ上での量子振幅推定、みずほリサーチ&テクノロジーズ 技報 Vol.1 No.1(2021年8月)(https://www.mizuho-rt.co.jp/publication/giho/pdf/mhrt001_05.pdf)
12 長田有登・山崎歴舟・野口篤史、Q-LEAP量子技術教育プログラム 量子技術序論、2021年3月 (https://www.sqei.c.u-tokyo.ac.jp/qed/QEd_textbook.pdf)