快捷方式

torch.nn.utils.rnn.pad_packed_sequence

torch.nn.utils.rnn.pad_packed_sequence(sequence, batch_first=False, padding_value=0.0, total_length=None)[source][source]

填充打包的變長序列批次。

它是 pack_padded_sequence() 的逆操作。

返回的 Tensor 資料大小將是 T x B x * (如果 batch_firstFalse) 或 B x T x * (如果 batch_firstTrue),其中 T 是最長序列的長度,B 是批次大小。

示例

>>> from torch.nn.utils.rnn import pack_padded_sequence, pad_packed_sequence
>>> seq = torch.tensor([[1, 2, 0], [3, 0, 0], [4, 5, 6]])
>>> lens = [2, 1, 3]
>>> packed = pack_padded_sequence(seq, lens, batch_first=True, enforce_sorted=False)
>>> packed
PackedSequence(data=tensor([4, 1, 3, 5, 2, 6]), batch_sizes=tensor([3, 2, 1]),
               sorted_indices=tensor([2, 0, 1]), unsorted_indices=tensor([1, 2, 0]))
>>> seq_unpacked, lens_unpacked = pad_packed_sequence(packed, batch_first=True)
>>> seq_unpacked
tensor([[1, 2, 0],
        [3, 0, 0],
        [4, 5, 6]])
>>> lens_unpacked
tensor([2, 1, 3])

注意

total_length 對於實現在 DataParallel 包裝的 Module 中實現 pack sequence -> recurrent network -> unpack sequence 模式很有用。詳情請參見 此常見問題部分

引數
  • sequence (PackedSequence) – 要填充的批次

  • batch_first (bool, optional) – 如果為 True,輸出格式為 B x T x *;否則為 T x B x *

  • padding_value (float, optional) – 填充元素的值。

  • total_length (int, optional) – 如果不為 None,輸出將被填充到 total_length 長度。如果 total_length 小於 sequence 中最長序列的長度,此方法將丟擲 ValueError

返回

包含填充後序列的 Tensor 元組,以及包含批次中每個序列長度列表的 Tensor。批次元素將按照最初傳遞給 pack_padded_sequencepack_sequence 時的順序重新排序。

返回型別

tuple[torch.Tensor, torch.Tensor]


© 版權所有 PyTorch 貢獻者。

使用 Sphinx 構建,主題由 Read the Docs 提供。

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源