top of page

量子問題背後的線性代數:從 Hamiltonian 到 Lanczos

  • 15小时前
  • 讀畢需時 6 分鐘

很多量子物理問題,最後都會變成一個線性代數問題。你可能從 Schrödinger equation 開始,寫下 Hamiltonian,選好 basis states,然後很快發現真正要做的是:解線性方程、做 matrix decomposition、找 eigenvalues 與 eigenvectors。

Dayton、Gallagher、Huber 與 Baker 的 Basic linear algebra methods for quantum problems(arXiv:2604.25625v1)是一篇偏教學式的 review。它不嘗試提出新的量子演算法,而是回到最基本但最關鍵的問題:如果我們要在電腦上解量子系統,應該理解哪些線性代數 routine?為何這些 routine 通常不應該自己重寫?矩陣結構又如何決定可計算規模?

這篇文特別適合兩類讀者:一類是懂基本 quantum mechanics,但未深入 numerical linear algebra 的學生;另一類是想做 computational physics / quantum algorithms,但需要補回 BLAS、LAPACK、QR、SVD、Lanczos 等基礎的人。

本文重點

這篇 paper 的核心提醒很實際:量子問題的難點不只是物理公式,而是把公式轉成可穩定、可擴展的數值計算。Hamiltonian 通常是 Hermitian matrix,求能量就是求 eigenvalues;但矩陣維度會隨粒子數或 site 數快速增長,不能只靠教科書上的手算方法。

作者因此逐步整理 matrix multiplication、Gaussian elimination、matrix structure、matrix decompositions,以及 eigenvalue algorithms。文章亦反覆強調:BLAS、LAPACK、OpenBLAS、Intel MKL、cuBLAS、cuSOLVER 等庫經過多年優化,除非你真的在研究底層 routine,否則應該優先使用成熟實作。

一、量子力學為何變成 eigenvalue problem?

time-independent Schrödinger equation 可以寫成:

H |psi> = E |psi>

其中 H 是 Hamiltonian operator matrix,E 是 energy eigenvalue,|psi> 是 energy eigenstate。這就是典型 eigenvalue problem。若找到 Hamiltonian 的 eigenvalues,就得到可允許能量;若找到 eigenvectors,就得到對應 stationary states。

對非正交 basis,問題會變成 generalized eigenvalue problem:

H |psi> = E S |psi>

其中 S 是 overlap matrix。這篇 review 主要聚焦於正交 basis,也就是 S = I 的情況,但它指出 quantum chemistry 中非正交 basis 很常見,需要更一般的處理。

更重要的是,量子系統的 state space 會快速爆炸。以 spin-1/2 系統為例,n 個 sites 就有 2^n 個 basis states;若每個 site 有 d 個 states,維度就是 d^n。這就是為甚麼「只要矩陣大一點」就不能再把線性代數當成細節。

二、Big-O 有用,但不是全部

文章用 Big-O notation 解釋演算法複雜度。例如 naive matrix multiplication 是 O(N^3),矩陣加法是 O(N^2),Gaussian elimination 也有立方級成本。

不過作者提醒,Big-O 會隱藏 constant factors、sub-leading terms、memory access pattern 與 hardware details。有些理論上複雜度較低的 algorithm,可能只在非常大的 N 才有優勢;有些方法則因為 memory footprint 或 implementation complexity,在實務上並不划算。

這對 computational quantum problems 很重要。真正決定能否跑得動的,往往不只是公式上的 scaling,而是矩陣是否 sparse、是否 Hermitian、是否 banded、是否可以 block diagonalize,以及底層 library 是否利用到 cache、vectorization、GPU parallelism 等硬體特性。

三、不要輕易重寫 BLAS

paper 用 matrix multiplication 做例子:三層 for-loop 很容易寫,但它不會接近高效 library 的速度。原因是高效實作會利用 cache-aware algorithms、architecture-specific tuning、prefetching、loop unrolling、vectorization 等技巧。

這就是 BLASLAPACK 重要的地方。BLAS 提供基本線性代數操作,LAPACK 則建立在 BLAS 之上,提供更高層次的 decomposition 與 eigenvalue routines。現代 CPU / GPU 版本包括 OpenBLAS、Intel MKL、AMD AOCL、cuBLAS、cuSOLVER、ROCm 等。

作者的立場很清楚:如果你的目標是解物理問題,通常應該使用這些成熟 routine,而不是自己從頭寫 eigenvalue solver。除非你研究的正是特殊矩陣結構或底層 numerical method,否則重寫很容易又慢又不穩。

四、矩陣結構就是物理結構

量子 Hamiltonian 不是任意矩陣。很多物理系統具有 sparsity、Hermitian structure、banded form、block structure 或 symmetry。這些結構不是裝飾,而是計算可行性的來源。

Hermitian: 量子 Hamiltonian 通常是 Hermitian,因此 eigenvalues 是 real,並可由 unitary transformation diagonalize。這令許多穩定演算法可以被使用。

Sparse: 局域相互作用通常只 coupling 少數 basis states,所以 Hamiltonian 往往 sparse。若能用 compressed sparse row(CSR)等格式儲存,就能大幅降低 memory 與運算成本。

Block structure: 若系統有 conserved quantum numbers,不同 symmetry sectors 之間不互相 coupling,Hamiltonian 可分成獨立 blocks。每個 block 可以分開求解,通常比解整個矩陣快得多。

Banded / tridiagonal: 某些離散化問題會自然產生 banded matrix;其他 Hermitian matrix 也可透過 Householder transformations 轉成 tridiagonal form,為後續 eigenvalue routines 做準備。

這裏的核心訊息是:理解物理 symmetries 與矩陣結構,往往比盲目增加硬體更有價值。

五、常見 decomposition:把難題變容易

文章整理多種常用 matrix decompositions,每一種都有不同用途。

Eigenvalue decomposition: 對 Hamiltonian 而言,這是直接目標。若 H = U Lambda U†Lambda 的 diagonal entries 就是 energy eigenvalues。

Schur decomposition: 任意 square matrix 都有 Schur decomposition A = Q T Q†,其中 T 是 upper triangular;eigenvalues 可從 T 的 diagonal 讀出。對 Hermitian matrix,Schur decomposition 會退化成 diagonal form。

QR decomposition:A 分成 unitary Q 與 upper triangular R。它既可解線性方程,也是 QR algorithm 找 eigenvalues 的核心步驟。

LU / LDL / Cholesky: 這些分解常用於解 Ax = b。Cholesky 特別適用於 Hermitian positive definite matrices,成本較低且穩定。

SVD: Singular value decomposition 可處理 rectangular matrices,在 PCA、numerical stability analysis、tensor networks 中都非常重要。作者亦指出,直接透過 A A†A† A 的 eigenvalue decomposition 來算 SVD,對許多物理應用會帶來不可接受的數值誤差。

六、找 eigenvalues:QR、Hessenberg、shift 與 divide-and-conquer

小矩陣可以手算 characteristic polynomial,但五次以上一般沒有通用代數公式。實際上,大部分 quantum eigenvalue problems 都要靠數值方法。

最基本的 QR algorithm 會反覆做 A_k = Q_k R_k,再令 A_{k+1} = R_k Q_k。這是 similarity transformation,因此保留 eigenvalues;反覆迭代後,矩陣會趨向 upper triangular,diagonal 就給出 eigenvalues。

但直接做 QR algorithm 太貴。通常會先把矩陣轉成 Hessenberg form,對 Hermitian matrix 則會變成 tridiagonal form。這一步可透過 Householder transformations 完成,並保留 eigenvalues。之後 QR steps 會便宜得多,整體複雜度可從較差的 scaling 改善到更實用的 O(N^3) 等級。

為了提升收斂,現代方法還會使用 shifted QR、double shifted QR、implicit shifts、Francis QR step 等技巧。這些細節正是 LAPACK 類 library 難以被簡單重寫的原因。

對大型 Hermitian tridiagonal eigenvalue problems,文章亦介紹 divide-and-conquer。它把大問題拆成較小的 tridiagonal subproblems,再透過 rank-1 correction 合併。這種方法的好處是可以 parallelize,因此常見於高階 library 的 eigenvalue decomposition 實作。

七、Lanczos:大型 sparse Hamiltonian 的實用入口

當 Hamiltonian 很大又 sparse 時,完整 diagonalization 可能不可行,也不一定必要。很多 statistical mechanics 或 ground-state physics 問題,只需要最低幾個能量態。這時 Lanczos method 就很重要。

Lanczos 的核心是建立 Krylov subspace:

span{q, A q, A^2 q, ..., A^{k-1} q}

然後把原本的大矩陣投影成較小的 tridiagonal matrix。這個 tridiagonal matrix 的 extremal eigenvalues 可用來近似原矩陣的 extremal eigenvalues。

它的優勢是每一步主要只需要 matrix-vector multiplication,對 sparse matrix 特別有效。paper 給出的成本大約是 O(k p N),其中 p 是每行平均 non-zero entries,k 是 Lanczos iterations。相對於完整 dense decomposition,這在大型量子系統上差異巨大。

不過 Lanczos 也不是免費午餐。基本版本容易累積數值誤差,導致 Lanczos vectors 失去 orthogonality,因此實務上需要 reorthogonalization 或其他穩定技巧。

八、Tensor 只是另一種矩陣視角

文章最後簡短談到 tensors。rank-0 tensor 是 scalar,rank-1 是 vector,rank-2 是 matrix;更高 rank 的 tensor 可以透過 reshape 與 permutation 變成 matrix 形式,然後套用前面討論的 decomposition。

這正好連到 tensor network algorithms。很多 tensor network 方法,其實都是反覆把 tensor reshape 成 matrix,做 SVD、QR 或 eigenvalue decomposition,再 reshape 回去。理解 basic linear algebra,不只是為了傳統 quantum mechanics,也是在理解現代 tensor network computational physics 的底層語言。

九、小結

Basic linear algebra methods for quantum problems 的價值,在於它把「量子問題」和「數值線性代數」之間的橋樑講清楚。Hamiltonian、basis states、Kronecker product、Hermitian structure、sparsity、matrix decomposition、QR、SVD、Lanczos,這些不是分散技巧,而是一套共同計算語言。

對研究者來說,這篇文的實務提醒很重要:不要把 library routine 當成黑盒魔法,但也不要低估它們背後幾十年的 numerical analysis 與 systems optimization。真正有效的 computational physics,往往是在兩者之間取得平衡:理解方法,利用成熟實作,並在問題具有特殊結構時設計更合適的演算法。

Reference

  1. Aaron Dayton, Kiana Gallagher, Sarah E. Huber, and Thomas E. Baker. Basic linear algebra methods for quantum problems. arXiv:2604.25625v1 [physics.comp-ph], 28 Apr 2026. https://arxiv.org/abs/2604.25625

  2. Lloyd N. Trefethen and David Bau III. Numerical Linear Algebra. SIAM, 1997.

  3. Gene H. Golub and Charles F. Van Loan. Matrix Computations. Johns Hopkins University Press, 1996.

  4. Edward Anderson et al. LAPACK Users' Guide. SIAM, 1999.

  5. Thomas E. Baker et al. Basic tensor network computations in physics. arXiv:1911.11566, 2019.

原文 Paper

https://arxiv.org/abs/2604.25625

相關文章

查看全部
Verification of Neural Networks:神經網絡形式驗證的入門地圖

神經網絡愈來愈多出現在自動駕駛、醫療診斷、金融風控、異常偵測等高風險場景。問題是,模型準確率高,不等於我們知道它在所有重要情況下都會安全運作。當輸入稍微變動、資料包含敏感特徵,或者模型被放進一個反覆互動的系統入面,我們可否給出真正的 formal guarantee?

 
 
RecursiveMAS:讓多代理系統在 latent space 入面遞迴協作

多代理 LLM 系統近年很流行:一個 agent 做 planner,一個做 critic,一個做 solver;或者由不同 domain specialist 一齊回答,再由 summarizer 整合。問題是,這類系統通常靠文字來互相溝通,每一輪都要 decode、傳遞、再 encode,不但慢,token 成本亦會隨著回合數急升。

 
 
bottom of page