快捷方式

torch.autograd.graph.Node.register_prehook

abstract Node.register_prehook(fn)[原始碼][原始碼]

註冊一個反向傳播前置鉤子 (pre-hook)。

每次計算相對於該 Node 的梯度時,都會呼叫此鉤子。鉤子應具有以下簽名:

hook(grad_outputs: Tuple[Tensor]) -> Tuple[Tensor] or None

鉤子不應修改其引數,但可以選擇返回一個新的梯度,該梯度將替代 grad_outputs 使用。

此函式返回一個具有 handle.remove() 方法的控制代碼 (handle),用於移除模組中的鉤子。

注意

有關何時執行此鉤子以及其執行順序相對於其他鉤子的更多資訊,請參閱 反向傳播鉤子執行

示例

>>> a = torch.tensor([0., 0., 0.], requires_grad=True)
>>> b = a.clone()
>>> assert isinstance(b.grad_fn, torch.autograd.graph.Node)
>>> handle = b.grad_fn.register_prehook(lambda gI: (gI[0] * 2,))
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([2., 2., 2.])
>>> handle.remove()
>>> a.grad = None
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([1., 1., 1.])
返回型別

RemovableHandle (可移除控制代碼)

文件

查閱 PyTorch 全面的開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源