快捷方式

PReLU

class torch.nn.PReLU(num_parameters=1, init=0.25, device=None, dtype=None)[源][源]

應用逐元素的 PReLU 函式。

PReLU(x)=max(0,x)+amin(0,x)\text{PReLU}(x) = \max(0,x) + a * \min(0,x)

PReLU(x)={x, if x0ax, otherwise \text{PReLU}(x) = \begin{cases} x, & \text{ if } x \ge 0 \\ ax, & \text{ otherwise } \end{cases}

這裡 aa 是一個可學習引數。當不帶引數呼叫時,nn.PReLU() 在所有輸入通道上使用一個單一引數 aa。如果帶引數 nn.PReLU(nChannels) 呼叫,則為每個輸入通道使用一個獨立的 aa

注意

為了獲得良好的效能,學習 aa 時不應使用權重衰減。

注意

通道維度是輸入的第 2 個維度。當輸入的維度小於 2 時,沒有通道維度,通道數等於 1。

引數
  • num_parameters (int) – 要學習的 aa 引數數量。雖然輸入是一個整數,但只有兩個合法值:1 或輸入通道數。預設值:1

  • init (float) – aa 的初始值。預設值:0.25

形狀
  • 輸入:()( *) 其中 * 表示任意數量的額外維度。

  • 輸出:()(*),與輸入形狀相同。

變數

weight (Tensor) – 形狀為 (num_parameters) 的可學習權重。

../_images/PReLU.png

示例

>>> m = nn.PReLU()
>>> input = torch.randn(2)
>>> output = m(input)

文件

訪問 PyTorch 的完整開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源