快捷方式

Softmax

torch.nn.Softmax(dim=None)[原始碼][原始碼]

將 Softmax 函式應用於 n 維輸入 Tensor。

對其進行重新縮放,使 n 維輸出 Tensor 的元素位於範圍 [0,1] 內,且總和為 1。

Softmax 的定義如下:

Softmax(xi)=exp(xi)jexp(xj)\text{Softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)}

當輸入 Tensor 是一個稀疏 Tensor 時,未指定的值被視為 -inf

形狀
  • 輸入: ()(*) 其中 * 表示任意數量的額外維度

  • 輸出: ()(*),與輸入具有相同的形狀

返回

一個與輸入具有相同維度和形狀,且值在 [0, 1] 範圍內的 Tensor

引數

dim (int) – 計算 Softmax 的維度(因此沿著 dim 的每個切片總和為 1)。

返回型別

None

注意

此模組不直接與 NLLLoss 一起使用,NLLLoss 期望在 Softmax 和自身之間計算 Log。請改用 LogSoftmax(它更快,且具有更好的數值特性)。

示例

>>> m = nn.Softmax(dim=1)
>>> input = torch.randn(2, 3)
>>> output = m(input)

文件

查閱 PyTorch 全面開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並解答疑問

檢視資源