SmoothL1Loss¶
- class torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction='mean', beta=1.0)[source][source]¶
建立一個損失準則,當逐元素的絕對誤差小於 beta 時使用平方項,否則使用 L1 項。與
torch.nn.MSELoss相比,它對異常值不那麼敏感,在某些情況下可以防止梯度爆炸(例如,參見 Ross Girshick 的論文 Fast R-CNN)。對於大小為 的批次,未降維的損失可以描述為
其中
如果 reduction 不是 none,則
注意
Smooth L1 損失可以看作是精確的
L1Loss,但將 部分替換為一個二次函式,使得在 處的斜率為 1。二次曲線段平滑了 附近的 L1 損失。注意
Smooth L1 損失與
HuberLoss密切相關,等價於 (注意 Smooth L1 的 beta 超引數在 Huber 損失中也稱為 delta)。這導致了以下差異- 引數
size_average (bool, optional) – 已棄用(參見
reduction)。預設情況下,損失按批次中每個損失元素進行平均。請注意,對於某些損失,每個樣本有多個元素。如果欄位size_average設定為False,則損失將改為按每個 mini-batch 求和。當reduce為False時忽略此引數。預設值:Truereduce (bool, optional) – 已棄用(參見
reduction)。預設情況下,根據size_average對每個 mini-batch 的觀測值進行平均或求和。當reduce為False時,改為返回每個批次元素的損失,並忽略size_average。預設值:Truereduction (str, optional) – 指定應用於輸出的降維方式:
'none'|'mean'|'sum'。'none': 不應用降維;'mean': 輸出的總和將除以輸出中的元素數量;'sum': 輸出將求和。注意:size_average和reduce正在被棄用,在此期間,指定這兩個引數中的任何一個都將覆蓋reduction。預設值:'mean'beta (float, optional) – 指定在 L1 損失和 L2 損失之間切換的閾值。該值必須是非負的。預設值: 1.0
- 形狀
輸入: ,其中 表示任意數量的維度。
目標: ,與輸入形狀相同。
輸出: 標量。如果
reduction為'none',則為 ,與輸入形狀相同。