LSTMCell¶
- class torch.nn.LSTMCell(input_size, hidden_size, bias=True, device=None, dtype=None)[原始碼][原始碼]¶
一個長短期記憶 (LSTM) 單元。
其中 是 sigmoid 函式, 是 Hadamard 乘積。
- 引數
- 輸入:input, (h_0, c_0)
形狀為 (batch, input_size) 或 (input_size) 的 input:包含輸入特徵的張量
形狀為 (batch, hidden_size) 或 (hidden_size) 的 h_0:包含初始隱藏狀態的張量
形狀為 (batch, hidden_size) 或 (hidden_size) 的 c_0:包含初始單元狀態的張量
如果未提供 (h_0, c_0),則 h_0 和 c_0 都預設為零。
- 輸出:(h_1, c_1)
形狀為 (batch, hidden_size) 或 (hidden_size) 的 h_1:包含下一個隱藏狀態的張量
形狀為 (batch, hidden_size) 或 (hidden_size) 的 c_1:包含下一個單元狀態的張量
- 變數
weight_ih (torch.Tensor) – 可學習的輸入-隱藏權重,形狀為 (4*hidden_size, input_size)
weight_hh (torch.Tensor) – 可學習的隱藏-隱藏權重,形狀為 (4*hidden_size, hidden_size)
bias_ih – 可學習的輸入-隱藏偏置,形狀為 (4*hidden_size)
bias_hh – 可學習的隱藏-隱藏偏置,形狀為 (4*hidden_size)
注意
所有權重和偏置都初始化自 ,其中
在某些 ROCm 裝置上,當使用 float16 輸入時,此模組將在反向傳播時使用不同的精度。
示例
>>> rnn = nn.LSTMCell(10, 20) # (input_size, hidden_size) >>> input = torch.randn(2, 3, 10) # (time_steps, batch, input_size) >>> hx = torch.randn(3, 20) # (batch, hidden_size) >>> cx = torch.randn(3, 20) >>> output = [] >>> for i in range(input.size()[0]): ... hx, cx = rnn(input[i], (hx, cx)) ... output.append(hx) >>> output = torch.stack(output, dim=0)