• 文件 >
  • 具名張量運算子涵蓋範圍
捷徑

具名張量運算子涵蓋範圍

請先閱讀具名張量以瞭解具名張量的簡介。

本文件是關於*名稱推斷*的參考,這是一個定義如何使用具名張量的過程

  1. 使用名稱來提供額外的自動執行時正確性檢查

  2. 將名稱從輸入張量傳播到輸出張量

以下列出所有支援具名張量的運算及其相關聯的名稱推斷規則。

如果您沒有看到這裡列出的運算,但它有助於您的使用案例,請搜尋是否已提交問題,如果沒有,請提交一個

警告

具名張量 API 仍為實驗性質,可能會有所變動。

支援的運算

API

名稱推斷規則

Tensor.abs()torch.abs()

保留輸入名稱

Tensor.abs_()

保留輸入名稱

Tensor.acos()torch.acos()

保留輸入名稱

Tensor.acos_()

保留輸入名稱

Tensor.add()torch.add()

統一來自輸入的名稱

Tensor.add_()

統一來自輸入的名稱

Tensor.addmm()torch.addmm()

約減維度

Tensor.addmm_()

約減維度

Tensor.addmv()torch.addmv()

約減維度

Tensor.addmv_()

約減維度

Tensor.align_as()

請參閱文件

Tensor.align_to()

請參閱文件

Tensor.all()torch.all()

Tensor.any()torch.any()

Tensor.asin()torch.asin()

保留輸入名稱

Tensor.asin_()

保留輸入名稱

Tensor.atan()torch.atan()

保留輸入名稱

Tensor.atan2()torch.atan2()

統一來自輸入的名稱

Tensor.atan2_()

統一來自輸入的名稱

Tensor.atan_()

保留輸入名稱

Tensor.bernoulli()torch.bernoulli()

保留輸入名稱

Tensor.bernoulli_()

Tensor.bfloat16()

保留輸入名稱

Tensor.bitwise_not()torch.bitwise_not()

保留輸入名稱

Tensor.bitwise_not_()

Tensor.bmm()torch.bmm()

約減維度

Tensor.bool()

保留輸入名稱

Tensor.byte()

保留輸入名稱

torch.cat()

統一來自輸入的名稱

Tensor.cauchy_()

Tensor.ceil()torch.ceil()

保留輸入名稱

Tensor.ceil_()

Tensor.char()

保留輸入名稱

Tensor.chunk(), torch.chunk()

保留輸入名稱

Tensor.clamp(), torch.clamp()

保留輸入名稱

Tensor.clamp_()

Tensor.copy_()

輸出函數和原地變種

Tensor.cos(), torch.cos()

保留輸入名稱

Tensor.cos_()

Tensor.cosh(), torch.cosh()

保留輸入名稱

Tensor.cosh_()

Tensor.acosh(), torch.acosh()

保留輸入名稱

Tensor.acosh_()

Tensor.cpu()

保留輸入名稱

Tensor.cuda()

保留輸入名稱

Tensor.cumprod(), torch.cumprod()

保留輸入名稱

Tensor.cumsum(), torch.cumsum()

保留輸入名稱

Tensor.data_ptr()

Tensor.deg2rad(), torch.deg2rad()

保留輸入名稱

Tensor.deg2rad_()

Tensor.detach(), torch.detach()

保留輸入名稱

Tensor.detach_()

Tensor.device, torch.device()

Tensor.digamma(), torch.digamma()

保留輸入名稱

Tensor.digamma_()

Tensor.dim()

Tensor.div(), torch.div()

統一來自輸入的名稱

Tensor.div_()

統一來自輸入的名稱

Tensor.dot(), torch.dot()

Tensor.double()

保留輸入名稱

Tensor.element_size()

torch.empty()

工廠函數

torch.empty_like()

工廠函數

Tensor.eq(), torch.eq()

統一來自輸入的名稱

Tensor.erf(), torch.erf()

保留輸入名稱

Tensor.erf_()

Tensor.erfc(), torch.erfc()

保留輸入名稱

Tensor.erfc_()

Tensor.erfinv(), torch.erfinv()

保留輸入名稱

Tensor.erfinv_()

Tensor.exp(), torch.exp()

保留輸入名稱

Tensor.exp_()

Tensor.expand()

保留輸入名稱

Tensor.expm1(), torch.expm1()

保留輸入名稱

Tensor.expm1_()

Tensor.exponential_()

Tensor.fill_()

Tensor.flatten(), torch.flatten()

請參閱文件

Tensor.float()

保留輸入名稱

Tensor.floor(), torch.floor()

保留輸入名稱

Tensor.floor_()

Tensor.frac(), torch.frac()

保留輸入名稱

Tensor.frac_()

Tensor.ge(), torch.ge()

統一來自輸入的名稱

Tensor.get_device(), torch.get_device()

Tensor.grad

Tensor.gt(), torch.gt()

統一來自輸入的名稱

Tensor.half()

保留輸入名稱

Tensor.has_names()

請參閱文件

Tensor.index_fill(), torch.index_fill()

保留輸入名稱

Tensor.index_fill_()

Tensor.int()

保留輸入名稱

Tensor.is_contiguous()

Tensor.is_cuda

Tensor.is_floating_point(), torch.is_floating_point()

Tensor.is_leaf

Tensor.is_pinned()

Tensor.is_shared()

Tensor.is_signed(), torch.is_signed()

Tensor.is_sparse

Tensor.is_sparse_csr

torch.is_tensor()

Tensor.item()

Tensor.itemsize

Tensor.kthvalue(), torch.kthvalue()

移除維度

Tensor.le(), torch.le()

統一來自輸入的名稱

Tensor.log(), torch.log()

保留輸入名稱

Tensor.log10(), torch.log10()

保留輸入名稱

Tensor.log10_()

Tensor.log1p(), torch.log1p()

保留輸入名稱

Tensor.log1p_()

Tensor.log2(), torch.log2()

保留輸入名稱

Tensor.log2_()

Tensor.log_()

Tensor.log_normal_()

Tensor.logical_not(), torch.logical_not()

保留輸入名稱

Tensor.logical_not_()

Tensor.logsumexp(), torch.logsumexp()

移除維度

Tensor.long()

保留輸入名稱

Tensor.lt()torch.lt()

統一來自輸入的名稱

torch.manual_seed()

Tensor.masked_fill()torch.masked_fill()

保留輸入名稱

Tensor.masked_fill_()

Tensor.masked_select()torch.masked_select()

將遮罩對齊輸入,然後 unifies_names_from_input_tensors

Tensor.matmul()torch.matmul()

約減維度

Tensor.mean()torch.mean()

移除維度

Tensor.median()torch.median()

移除維度

Tensor.nanmedian()torch.nanmedian()

移除維度

Tensor.mm()torch.mm()

約減維度

Tensor.mode()torch.mode()

移除維度

Tensor.mul()torch.mul()

統一來自輸入的名稱

Tensor.mul_()

統一來自輸入的名稱

Tensor.mv()torch.mv()

約減維度

Tensor.names

請參閱文件

Tensor.narrow()torch.narrow()

保留輸入名稱

Tensor.nbytes

Tensor.ndim

Tensor.ndimension()

Tensor.ne()torch.ne()

統一來自輸入的名稱

Tensor.neg()torch.neg()

保留輸入名稱

Tensor.neg_()

torch.normal()

保留輸入名稱

Tensor.normal_()

Tensor.numel()torch.numel()

torch.ones()

工廠函數

Tensor.pow()torch.pow()

統一來自輸入的名稱

Tensor.pow_()

Tensor.prod()torch.prod()

移除維度

Tensor.rad2deg()torch.rad2deg()

保留輸入名稱

Tensor.rad2deg_()

torch.rand()

工廠函數

torch.rand()

工廠函數

torch.randn()

工廠函數

torch.randn()

工廠函數

Tensor.random_()

Tensor.reciprocal()torch.reciprocal()

保留輸入名稱

Tensor.reciprocal_()

Tensor.refine_names()

請參閱文件

Tensor.register_hook()

Tensor.register_post_accumulate_grad_hook()

Tensor.rename()

請參閱文件

Tensor.rename_()

請參閱文件

Tensor.requires_grad

Tensor.requires_grad_()

Tensor.resize_()

僅允許不改變形狀的調整大小

Tensor.resize_as_()

僅允許不改變形狀的調整大小

Tensor.round()torch.round()

保留輸入名稱

Tensor.round_()

Tensor.rsqrt()torch.rsqrt()

保留輸入名稱

Tensor.rsqrt_()

Tensor.select()torch.select()

移除維度

Tensor.short()

保留輸入名稱

Tensor.sigmoid()torch.sigmoid()

保留輸入名稱

Tensor.sigmoid_()

Tensor.sign()torch.sign()

保留輸入名稱

Tensor.sign_()

Tensor.sgn()torch.sgn()

保留輸入名稱

Tensor.sgn_()

Tensor.sin()torch.sin()

保留輸入名稱

Tensor.sin_()

Tensor.sinh()torch.sinh()

保留輸入名稱

Tensor.sinh_()

Tensor.asinh()torch.asinh()

保留輸入名稱

Tensor.asinh_()

Tensor.size()

Tensor.softmax()torch.softmax()

保留輸入名稱

Tensor.split()torch.split()

保留輸入名稱

Tensor.sqrt()torch.sqrt()

保留輸入名稱

Tensor.sqrt_()

Tensor.squeeze()torch.squeeze()

移除維度

Tensor.std()torch.std()

移除維度

torch.std_mean()

移除維度

Tensor.stride()

Tensor.sub()torch.sub()

統一來自輸入的名稱

Tensor.sub_()

統一來自輸入的名稱

Tensor.sum()torch.sum()

移除維度

Tensor.tan()torch.tan()

保留輸入名稱

Tensor.tan_()

Tensor.tanh(), torch.tanh()

保留輸入名稱

Tensor.tanh_()

Tensor.atanh(), torch.atanh()

保留輸入名稱

Tensor.atanh_()

torch.tensor()

工廠函數

Tensor.to()

保留輸入名稱

Tensor.topk(), torch.topk()

移除維度

Tensor.transpose(), torch.transpose()

排列維度

Tensor.trunc(), torch.trunc()

保留輸入名稱

Tensor.trunc_()

Tensor.type()

Tensor.type_as()

保留輸入名稱

Tensor.unbind(), torch.unbind()

移除維度

Tensor.unflatten()

請參閱文件

Tensor.uniform_()

Tensor.var(), torch.var()

移除維度

torch.var_mean()

移除維度

Tensor.zero_()

torch.zeros()

工廠函數

保留輸入名稱

所有逐點一元函數以及其他一些一元函數都遵循此規則。

  • 檢查名稱:無

  • 傳播名稱:輸入張量的名稱會傳播到輸出。

>>> x = torch.randn(3, 3, names=('N', 'C'))
>>> x.abs().names
('N', 'C')

移除維度

所有縮減運算(如 sum())都會透過縮減所需的維度來移除維度。其他運算(如 select()squeeze())也會移除維度。

只要可以將整數維度索引傳遞給運算子,就可以傳遞維度名稱。採用維度索引清單的函數也可以採用維度名稱清單。

  • 檢查名稱:如果將 dimdims 作為名稱清單傳遞,請檢查這些名稱是否存在於 self 中。

  • 傳播名稱:如果輸出張量中不存在由 dimdims 指定的輸入張量維度,則這些維度的對應名稱不會出現在 output.names 中。

>>> x = torch.randn(1, 3, 3, 3, names=('N', 'C', 'H', 'W'))
>>> x.squeeze('N').names
('C', 'H', 'W')

>>> x = torch.randn(3, 3, 3, 3, names=('N', 'C', 'H', 'W'))
>>> x.sum(['N', 'C']).names
('H', 'W')

# Reduction ops with keepdim=True don't actually remove dimensions.
>>> x = torch.randn(3, 3, 3, 3, names=('N', 'C', 'H', 'W'))
>>> x.sum(['N', 'C'], keepdim=True).names
('N', 'C', 'H', 'W')

統一輸入的名稱

所有二元算術運算都遵循此規則。廣播運算仍然會從右側按位置廣播,以保持與未命名張量的相容性。若要按名稱執行顯式廣播,請使用 Tensor.align_as()

  • 檢查名稱:所有名稱都必須從右側按位置相符。也就是說,在 tensor + other 中,match(tensor.names[i], other.names[i]) 對於 (-min(tensor.dim(), other.dim()) + 1, -1] 中的所有 i 都必須為真。

  • 檢查名稱:此外,所有已命名的維度都必須從右側對齊。在比對期間,如果將已命名的維度 A 與未命名的維度 None 比對,則 A 不得出現在具有未命名維度的張量中。

  • 傳播名稱:從兩個張量右側統一成對的名稱,以產生輸出名稱。

舉例來說,

# tensor: Tensor[   N, None]
# other:  Tensor[None,    C]
>>> tensor = torch.randn(3, 3, names=('N', None))
>>> other = torch.randn(3, 3, names=(None, 'C'))
>>> (tensor + other).names
('N', 'C')

檢查名稱

  • match(tensor.names[-1], other.names[-1])True

  • match(tensor.names[-2], tensor.names[-2])True

  • 因為我們將 tensor 中的 None'C' 比對,請檢查以確保 'C' 不存在於 tensor 中(它不存在)。

  • 檢查以確保 'N' 不存在於 other 中(它不存在)。

最後,使用 [unify('N', None), unify(None, 'C')] = ['N', 'C'] 計算輸出名稱。

更多範例

# Dimensions don't match from the right:
# tensor: Tensor[N, C]
# other:  Tensor[   N]
>>> tensor = torch.randn(3, 3, names=('N', 'C'))
>>> other = torch.randn(3, names=('N',))
>>> (tensor + other).names
RuntimeError: Error when attempting to broadcast dims ['N', 'C'] and dims
['N']: dim 'C' and dim 'N' are at the same position from the right but do
not match.

# Dimensions aren't aligned when matching tensor.names[-1] and other.names[-1]:
# tensor: Tensor[N, None]
# other:  Tensor[      N]
>>> tensor = torch.randn(3, 3, names=('N', None))
>>> other = torch.randn(3, names=('N',))
>>> (tensor + other).names
RuntimeError: Misaligned dims when attempting to broadcast dims ['N'] and
dims ['N', None]: dim 'N' appears in a different position from the right
across both lists.

注意

在最後兩個範例中,可以按名稱對齊張量,然後執行加法。使用 Tensor.align_as() 按名稱對齊張量,或使用 Tensor.align_to() 將張量對齊到自訂維度順序。

排列維度

某些運算(如 Tensor.t())會排列維度的順序。維度名稱會附加到個別維度,因此它們也會被排列。

如果運算子採用位置索引 dim,它也可以採用維度名稱作為 dim

  • 檢查名稱:如果將 dim 作為名稱傳遞,請檢查它是否存在於張量中。

  • 傳播名稱:以與正在排列的維度相同的方式排列維度名稱。

>>> x = torch.randn(3, 3, names=('N', 'C'))
>>> x.transpose('N', 'C').names
('C', 'N')

收縮維度

矩陣乘法函數遵循此規則的某些變體。我們先來看一下 torch.mm(),然後再概括批次矩陣乘法的規則。

對於 torch.mm(tensor, other)

  • 檢查名稱:無

  • 傳播名稱:結果名稱為 (tensor.names[-2], other.names[-1])

>>> x = torch.randn(3, 3, names=('N', 'D'))
>>> y = torch.randn(3, 3, names=('in', 'out'))
>>> x.mm(y).names
('N', 'out')

本質上,矩陣乘法會對兩個維度執行點積,將它們合併。當兩個張量進行矩陣乘法時,收縮的維度會消失,並且不會顯示在輸出張量中。

torch.mv()torch.dot() 的運作方式類似:名稱推斷不會檢查輸入名稱,並且會移除參與點積的維度。

>>> x = torch.randn(3, 3, names=('N', 'D'))
>>> y = torch.randn(3, names=('something',))
>>> x.mv(y).names
('N',)

現在,我們來看一下 torch.matmul(tensor, other)。假設 tensor.dim() >= 2other.dim() >= 2

  • 檢查名稱:檢查輸入的批次維度是否對齊且可廣播。如需輸入對齊的定義,請參閱 統一輸入的名稱

  • 傳播名稱:透過統一批次維度並移除收縮的維度來取得結果名稱:unify(tensor.names[:-2], other.names[:-2]) + (tensor.names[-2], other.names[-1])

範例

# Batch matrix multiply of matrices Tensor['C', 'D'] and Tensor['E', 'F'].
# 'A', 'B' are batch dimensions.
>>> x = torch.randn(3, 3, 3, 3, names=('A', 'B', 'C', 'D'))
>>> y = torch.randn(3, 3, 3, names=('B', 'E', 'F'))
>>> torch.matmul(x, y).names
('A', 'B', 'C', 'F')

最後,有許多融合 add 版本的 matmul 函數。例如,addmm()addmv()。這些被視為組成名稱推斷,例如 mm()add() 的名稱推斷。

工廠函數

工廠函數現在採用新的 names 參數,它會將名稱與每個維度關聯。

>>> torch.zeros(2, 3, names=('N', 'C'))
tensor([[0., 0., 0.],
        [0., 0., 0.]], names=('N', 'C'))

out 函數和原地變體

指定為 out= 張量的張量具有以下行為

  • 如果它沒有已命名的維度,則從運算計算的名稱會傳播到它。

  • 如果有任何已命名的維度,則從操作計算出來的名稱必須與現有名稱完全相同。否則,操作會出錯。

所有就地方法都會修改輸入,使其名稱等於從名稱推斷計算出來的名稱。例如

>>> x = torch.randn(3, 3)
>>> y = torch.randn(3, 3, names=('N', 'C'))
>>> x.names
(None, None)

>>> x += y
>>> x.names
('N', 'C')

文件

取得 PyTorch 的完整開發人員文件

查看文件

教學

取得針對初學者和進階開發人員的深入教學

查看教學

資源

尋找開發資源並獲得問題解答

查看資源