快捷方式

torch.nn.utils.clip_grad_value_

torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源][源]

將引數的可迭代物件的梯度裁剪到指定值。

梯度會原地修改。

引數
  • parameters (Iterable[Tensor] 或 Tensor) – 將被裁剪梯度的 Tensor 可迭代物件或單個 Tensor

  • clip_value (float) – 梯度的最大允許值。梯度將被裁剪到範圍 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right]

  • foreach (bool) – 使用更快的基於 foreach 的實現。如果為 None,則對 CUDA 和 CPU 原生張量使用 foreach 實現,並對其他裝置型別靜默回退到慢速實現。預設值:None

文件

查閱 PyTorch 的全面開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源