torch.sparse_compressed_tensor¶
- torch.sparse_compressed_tensor(compressed_indices, plain_indices, values, size=None, *, dtype=None, layout=None, device=None, pin_memory=False, requires_grad=False, check_invariants=None) Tensor¶
構造一個壓縮稀疏格式(Compressed Sparse format)的稀疏張量 - CSR、CSC、BSR 或 BSC -,並在給定的
compressed_indices和plain_indices處指定值。壓縮稀疏格式的稀疏矩陣乘法運算通常比 COO 格式的稀疏張量更快。請務必檢視關於索引資料型別的說明。注意
如果未指定
device引數,則給定的values和索引張量(s)的裝置必須匹配。但是,如果指定了該引數,則輸入張量將被轉換到指定的裝置,進而決定構造的稀疏張量的裝置。- 引數
compressed_indices (類陣列) – 大小為
(*batchsize, compressed_dim_size + 1)的 (B+1) 維陣列。每個批次的最後一個元素是非零元素或塊的數量。此張量編碼了在values和plain_indices中的索引,具體取決於給定的壓縮維度(行或列)從何處開始。張量中每個連續的數字減去其前一個數字,表示給定壓縮維度中的元素或塊的數量。plain_indices (類陣列) – 值中每個元素或塊的普通維度(列或行)座標。(B+1) 維張量,其長度與值相同。
values (類陣列) – 張量的初始值。可以是列表、元組、NumPy
ndarray、標量以及其他型別。表示 (1+K) 維(對於 CSR 和 CSC 佈局)或 (1+2+K) 維張量(對於 BSR 和 BSC 佈局),其中K是稠密維度(dense dimensions)的數量。size (list, tuple,
torch.Size, 可選) – 稀疏張量的大小:(*batchsize, nrows * blocksize[0], ncols * blocksize[1], *densesize),其中對於 CSR 和 CSC 格式,blocksize[0] == blocksize[1] == 1。如果未提供,則大小將被推斷為足夠容納所有非零元素或塊的最小大小。
- 關鍵字引數
dtype (
torch.dtype, 可選) – 返回張量所需的資料型別。預設值:如果為 None,則從values推斷資料型別。layout (
torch.layout, 必需) – 返回張量所需的佈局:torch.sparse_csr、torch.sparse_csc、torch.sparse_bsr或torch.sparse_bsc。device (
torch.device, 可選) – 返回張量所需的裝置。預設值:如果為 None,則使用預設張量型別的當前裝置(參見torch.set_default_device())。device對於 CPU 張量型別將是 CPU,對於 CUDA 張量型別將是當前的 CUDA 裝置。pin_memory (bool, 可選) – 如果設定,返回的張量將被分配到鎖頁記憶體中。僅適用於 CPU 張量。預設值:
False。requires_grad (bool, 可選) – 自動求導是否應該記錄返回張量上的操作。預設值:
False。check_invariants (bool, 可選) – 是否檢查稀疏張量的不變數。預設值:由
torch.sparse.check_sparse_tensor_invariants.is_enabled()返回的值,初始為 False。
- 示例:
>>> compressed_indices = [0, 2, 4] >>> plain_indices = [0, 1, 0, 1] >>> values = [1, 2, 3, 4] >>> torch.sparse_compressed_tensor(torch.tensor(compressed_indices, dtype=torch.int64), ... torch.tensor(plain_indices, dtype=torch.int64), ... torch.tensor(values), dtype=torch.double, layout=torch.sparse_csr) tensor(crow_indices=tensor([0, 2, 4]), col_indices=tensor([0, 1, 0, 1]), values=tensor([1., 2., 3., 4.]), size=(2, 2), nnz=4, dtype=torch.float64, layout=torch.sparse_csr)