EmbeddingBag¶
- class torch.nn.EmbeddingBag(num_embeddings, embedding_dim, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, mode='mean', sparse=False, _weight=None, include_last_offset=False, padding_idx=None, device=None, dtype=None)[source][source]¶
計算嵌入‘袋’(bags)的總和或平均值,而無需例項化中間嵌入。
對於長度固定的‘袋’,沒有
per_sample_weights,沒有等於padding_idx的索引,並且輸入是 2D 的情況,此類然而,
EmbeddingBag比使用這些操作鏈條更節省時間和記憶體。EmbeddingBag 還支援將 per-sample weights 作為 forward 傳遞的引數。這會在執行由
mode指定的加權歸約(reduction)之前縮放 Embedding 的輸出。如果傳遞了per_sample_weights,唯一支援的mode是"sum",它根據per_sample_weights計算加權總和。- 引數
num_embeddings (int) – 詞嵌入字典的大小
embedding_dim (int) – 每個嵌入向量的大小
max_norm (float, 可選) – 如果給定,範數大於
max_norm的每個嵌入向量將被重新規範化,使其範數為max_norm。norm_type (float, 可選) – 用於
max_norm選項計算 p-範數時的 p 值。預設值2。scale_grad_by_freq (bool, 可選) – 如果給定,這將按 mini-batch 中詞語頻率的倒數來縮放梯度。預設值
False。注意:當mode="max"時不支援此選項。mode (str, 可選) –
"sum","mean"或"max"。指定聚合(reduce)‘袋’的方式。"sum"計算加權總和,考慮了per_sample_weights。"mean"計算‘袋’中值的平均值,"max"計算每個‘袋’中的最大值。預設值:"mean"sparse (bool, 可選) – 如果為
True,關於weight矩陣的梯度將是稀疏張量。有關稀疏梯度的更多詳細資訊,請參見注意事項(Notes)。注意:當mode="max"時不支援此選項。include_last_offset (bool, 可選) – 如果為
True,offsets將包含一個額外的元素,其中最後一個元素等於 indices 的大小。這與 CSR 格式相匹配。padding_idx (int, 可選) – 如果指定,位於
padding_idx的條目不參與梯度計算;因此,位於padding_idx的嵌入向量在訓練期間不會更新,即它保持為固定的“填充”。對於新構造的 EmbeddingBag,位於padding_idx的嵌入向量預設為全零,但可以更新為其他值以用作填充向量。請注意,位於padding_idx的嵌入向量被排除在歸約(reduction)之外。
- 變數
weight (Tensor) – 模組的可學習權重,形狀為 (num_embeddings, embedding_dim),從 初始化。
示例
>>> # an EmbeddingBag module containing 10 tensors of size 3 >>> embedding_sum = nn.EmbeddingBag(10, 3, mode='sum') >>> # a batch of 2 samples of 4 indices each >>> input = torch.tensor([1, 2, 4, 5, 4, 3, 2, 9], dtype=torch.long) >>> offsets = torch.tensor([0, 4], dtype=torch.long) >>> embedding_sum(input, offsets) tensor([[-0.8861, -5.4350, -0.0523], [ 1.1306, -2.5798, -1.0044]]) >>> # Example with padding_idx >>> embedding_sum = nn.EmbeddingBag(10, 3, mode='sum', padding_idx=2) >>> input = torch.tensor([2, 2, 2, 2, 4, 3, 2, 9], dtype=torch.long) >>> offsets = torch.tensor([0, 4], dtype=torch.long) >>> embedding_sum(input, offsets) tensor([[ 0.0000, 0.0000, 0.0000], [-0.7082, 3.2145, -2.6251]]) >>> # An EmbeddingBag can be loaded from an Embedding like so >>> embedding = nn.Embedding(10, 3, padding_idx=2) >>> embedding_sum = nn.EmbeddingBag.from_pretrained( embedding.weight, padding_idx=embedding.padding_idx, mode='sum')
- forward(input, offsets=None, per_sample_weights=None)[source][source]¶
EmbeddingBag 的前向傳播(forward pass)。
- 引數
- 返回值
Tensor 輸出形狀為 (B, embedding_dim)。
- 返回型別
注意
關於
input和offsets的注意事項input和offsets必須是相同型別,要麼是 int,要麼是 long如果
input是形狀為 (B, N) 的 2D Tensor,它將被視為B個固定長度為N的‘袋’(序列),並且將返回B個值,其聚合方式取決於mode。在這種情況下,offsets被忽略且必須為None。如果
input是形狀為 (N) 的 1D Tensor,它將被視為多個‘袋’(序列)的拼接。offsets必須是包含input中每個‘袋’起始索引位置的 1D Tensor。因此,對於形狀為 (B) 的offsets,input將被視為包含B個‘袋’。空‘袋’(即長度為 0 的‘袋’)將返回由零填充的向量。
- classmethod from_pretrained(embeddings, freeze=True, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, mode='mean', sparse=False, include_last_offset=False, padding_idx=None)[source][source]¶
從給定的二維 FloatTensor 建立 EmbeddingBag 例項。
- 引數
embeddings (Tensor) – 包含 EmbeddingBag 權重的 FloatTensor。第一個維度被傳遞給 EmbeddingBag 作為 ‘num_embeddings’,第二個維度作為 ‘embedding_dim’。
freeze (bool, 可選) – 如果為
True,則該 Tensor 在學習過程中不會更新。等價於設定embeddingbag.weight.requires_grad = False。預設值:Truemax_norm (float, 可選) – 參見模組初始化文件。預設值:
Nonenorm_type (float, 可選) – 參見模組初始化文件。預設值
2。scale_grad_by_freq (bool, 可選) – 參見模組初始化文件。預設值
False。mode (str, 可選) – 參見模組初始化文件。預設值:
"mean"sparse (bool, 可選) – 參見模組初始化文件。預設值:
False。include_last_offset (bool, 可選) – 參見模組初始化文件。預設值:
False。padding_idx (int, 可選) – 參見模組初始化文件。預設值:
None。
- 返回型別
示例
>>> # FloatTensor containing pretrained weights >>> weight = torch.FloatTensor([[1, 2.3, 3], [4, 5.1, 6.3]]) >>> embeddingbag = nn.EmbeddingBag.from_pretrained(weight) >>> # Get embeddings for index 1 >>> input = torch.LongTensor([[1, 0]]) >>> embeddingbag(input) tensor([[ 2.5000, 3.7000, 4.6500]])