快捷方式

GELU

class torch.nn.GELU(approximate='none')[source][source]

應用高斯誤差線性單元函式。

GELU(x)=xΦ(x)\text{GELU}(x) = x * \Phi(x)

其中 Φ(x)\Phi(x) 是高斯分佈的累積分佈函式。

當 approximate 引數為 ‘tanh’ 時,Gelu 使用以下公式估計:

GELU(x)=0.5x(1+Tanh(2/π(x+0.044715x3)))\text{GELU}(x) = 0.5 * x * (1 + \text{Tanh}(\sqrt{2 / \pi} * (x + 0.044715 * x^3)))
引數

approximate (str, optional) – 要使用 gelu 近似演算法:'none' | 'tanh'。預設值:'none'

形狀
  • 輸入: ()(*), 其中 * 表示任意數量的維度。

  • 輸出: ()(*), 形狀與輸入相同。

../_images/GELU.png

示例

>>> m = nn.GELU()
>>> input = torch.randn(2)
>>> output = m(input)

文件

查閱 PyTorch 的綜合開發者文件

檢視文件

教程

獲得針對初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源