PReLU¶
- class torch.nn.PReLU(num_parameters=1, init=0.25, device=None, dtype=None)[源][源]¶
應用逐元素的 PReLU 函式。
或
這裡 是一個可學習引數。當不帶引數呼叫時,nn.PReLU() 在所有輸入通道上使用一個單一引數 。如果帶引數 nn.PReLU(nChannels) 呼叫,則為每個輸入通道使用一個獨立的 。
注意
為了獲得良好的效能,學習 時不應使用權重衰減。
注意
通道維度是輸入的第 2 個維度。當輸入的維度小於 2 時,沒有通道維度,通道數等於 1。
- 形狀
輸入: 其中 * 表示任意數量的額外維度。
輸出:,與輸入形狀相同。
- 變數
weight (Tensor) – 形狀為 (
num_parameters) 的可學習權重。
示例
>>> m = nn.PReLU() >>> input = torch.randn(2) >>> output = m(input)