快捷方式

torch.linalg.eig

torch.linalg.eig(A, *, out=None)

計算方陣的特徵值分解(如果存在)。

K\mathbb{K}R\mathbb{R}C\mathbb{C},方陣 AKn×nA \in \mathbb{K}^{n \times n} 的**特徵值分解**(如果存在)定義為

A=Vdiag(Λ)V1VCn×n,ΛCnA = V \operatorname{diag}(\Lambda) V^{-1}\mathrlap{\qquad V \in \mathbb{C}^{n \times n}, \Lambda \in \mathbb{C}^n}

當且僅當 AA可對角化矩陣時,此分解存在。所有特徵值都不同時即屬於這種情況。

支援 float、double、cfloat 和 cdouble 資料型別的輸入。也支援批處理矩陣,如果 A 是批處理矩陣,則輸出具有相同的批處理維度。

返回的特徵值不保證按任何特定順序排列。

注意

實矩陣的特徵值和特徵向量可以是複數。

注意

當輸入位於 CUDA 裝置上時,此函式會同步該裝置與 CPU。

警告

此函式假定 A可對角化的(例如,所有特徵值都不同時)。如果它不可對角化,返回的特徵值是正確的,但 AVdiag(Λ)V1A \neq V \operatorname{diag}(\Lambda)V^{-1}

警告

返回的特徵向量被歸一化為範數 1。即便如此,矩陣的特徵向量也不是唯一的,並且它們關於 A 也不是連續的。由於這種非唯一性,不同的硬體和軟體可能計算出不同的特徵向量。

這種非唯一性是由於將特徵向量乘以 $e^{i \phi}, \phi \in \mathbb{R}$ 會產生另一組有效的矩陣特徵向量所致。因此,損失函式不應依賴於特徵向量的相位,因為此量未被明確定義。在計算此函式的梯度時會進行檢查。因此,當輸入位於 CUDA 裝置上時,計算此函式的梯度會同步該裝置與 CPU。

警告

使用 eigenvectors 張量計算的梯度僅在 A 具有不同特徵值時是有限的。此外,如果任意兩個特徵值之間的距離接近零,梯度將是數值不穩定的,因為它依賴於透過計算 1minijλiλj\frac{1}{\min_{i \neq j} \lambda_i - \lambda_j} 得到的特徵值 λi\lambda_i

另請參閱

torch.linalg.eigvals() 僅計算特徵值。與 torch.linalg.eig() 不同,eigvals() 的梯度總是數值穩定的。

torch.linalg.eigh() 計算 Hermitian 矩陣和對稱矩陣的特徵值分解(速度更快)。

torch.linalg.svd() 計算另一種適用於任意形狀矩陣的譜分解。

torch.linalg.qr() 計算另一種(快得多)適用於任意形狀矩陣的分解。

引數

A (Tensor) – 形狀為 (*, n, n) 的張量,其中 * 是零或多個批處理維度,包含可對角化矩陣。

關鍵字引數

out (tuple, 可選) – 包含兩個張量的輸出元組。如果為 None 則忽略。預設值:None

返回

一個命名元組 (eigenvalues, eigenvectors),對應於上面的 Λ\LambdaVV

eigenvalueseigenvectors 將始終是複數值的,即使 A 是實數。特徵向量由 eigenvectors 的列給出。

示例

>>> A = torch.randn(2, 2, dtype=torch.complex128)
>>> A
tensor([[ 0.9828+0.3889j, -0.4617+0.3010j],
        [ 0.1662-0.7435j, -0.6139+0.0562j]], dtype=torch.complex128)
>>> L, V = torch.linalg.eig(A)
>>> L
tensor([ 1.1226+0.5738j, -0.7537-0.1286j], dtype=torch.complex128)
>>> V
tensor([[ 0.9218+0.0000j,  0.1882-0.2220j],
        [-0.0270-0.3867j,  0.9567+0.0000j]], dtype=torch.complex128)
>>> torch.dist(V @ torch.diag(L) @ torch.linalg.inv(V), A)
tensor(7.7119e-16, dtype=torch.float64)

>>> A = torch.randn(3, 2, 2, dtype=torch.float64)
>>> L, V = torch.linalg.eig(A)
>>> torch.dist(V @ torch.diag_embed(L) @ torch.linalg.inv(V), A)
tensor(3.2841e-16, dtype=torch.float64)

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源