快捷方式

SoftMarginLoss

class torch.nn.SoftMarginLoss(size_average=None, reduce=None, reduction='mean')[原始碼][原始碼]

建立一個準則,用於最佳化輸入張量 xx 和目標張量 yy(包含 1 或 -1)之間的兩類分類邏輯損失。

loss(x,y)=ilog(1+exp(y[i]x[i]))x.nelement()\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}
引數
  • size_average (bool, 可選) – 已棄用(參見 reduction)。預設情況下,損失會在批次中的每個損失元素上求平均。請注意,對於某些損失函式,每個樣本可能有多個元素。如果欄位 size_average 設定為 False,則損失會改為對每個小批次求和。當 reduceFalse 時,此引數被忽略。預設值: True

  • reduce (bool, 可選) – 已棄用(參見 reduction)。預設情況下,損失會根據 size_average 對每個小批次中的觀測值求平均或求和。當 reduceFalse 時,將返回每個批次元素的損失,並忽略 size_average`. 預設值: True

  • reduction (str, 可選) – 指定應用於輸出的歸約方式:'none' | 'mean' | 'sum'。`'none'`:不應用歸約,`'mean'`:輸出的總和將除以輸出中的元素數量,`'sum'`:輸出將被求和。注意:size_averagereduce 正在被棄用,在此期間,指定這兩個引數中的任何一個都會覆蓋 reduction。預設值: 'mean'

形狀
  • 輸入: ()(*),其中 * 表示任意維度數量。

  • 目標: ()(*),與輸入形狀相同。

  • 輸出: 標量。如果 reduction'none',則為 ()(*),形狀與輸入相同。

文件

查閱 PyTorch 的完整開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源