RNNCell¶
- class torch.nn.RNNCell(input_size, hidden_size, bias=True, nonlinearity='tanh', device=None, dtype=None)[source][source]¶
帶有 tanh 或 ReLU 非線性的 Elman RNN Cell。
如果
nonlinearity是 ‘relu’,則使用 ReLU 代替 tanh。- 引數
- 輸入:input, hidden
input: 包含輸入特徵的張量
hidden: 包含初始隱狀態的張量。如果未提供,則預設為零。
- 輸出:h’
形狀為 (batch, hidden_size) 的 h’: 包含批次中每個元素的下一個隱狀態的張量
- 形狀
input: or tensor containing input features where = input_size.
hidden: or tensor containing the initial hidden state where = hidden_size。如果未提供,則預設為零。
output: or 包含下一個隱狀態的張量。
- 變數
weight_ih (torch.Tensor) – 可學習的輸入到隱層權重,形狀為 (hidden_size, input_size)
weight_hh (torch.Tensor) – 可學習的隱層到隱層權重,形狀為 (hidden_size, hidden_size)
bias_ih – 可學習的輸入到隱層偏置,形狀為 (hidden_size)
bias_hh – 可學習的隱層到隱層偏置,形狀為 (hidden_size)
注意
所有權重和偏置均從 中初始化,其中
示例
>>> rnn = nn.RNNCell(10, 20) >>> input = torch.randn(6, 3, 10) >>> hx = torch.randn(3, 20) >>> output = [] >>> for i in range(6): ... hx = rnn(input[i], hx) ... output.append(hx)