SELU¶
- class torch.nn.SELU(inplace=False)[source][source]¶
逐元素地應用 SELU 函式。
其中 和 。
警告
在使用
kaiming_normal或kaiming_normal_進行初始化時,應使用nonlinearity='linear'而不是nonlinearity='selu'來實現 自歸一化神經網路。有關更多資訊,請參閱torch.nn.init.calculate_gain()。更多細節可以在論文 Self-Normalizing Neural Networks 中找到。
- 引數
inplace (布林型別, 可選) – 可以選擇原地執行操作。預設值:
False
- 形狀
輸入: , 其中 表示任意維度數量。
輸出: , 形狀與輸入相同。
示例
>>> m = nn.SELU() >>> input = torch.randn(2) >>> output = m(input)