快捷方式

Embedding

class torch.ao.nn.quantized.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, dtype=torch.quint8)[source][source]

一個量化的 Embedding 模組,輸入為量化後的 packed 權重。我們採用了與 torch.nn.Embedding 相同的介面,更多文件請參考 https://pytorch.com.tw/docs/stable/generated/torch.nn.Embedding.html

Embedding 類似,屬性在模組建立時會隨機初始化,之後會被覆蓋。

變數

weight (Tensor) – 模組的非可學習量化權重,形狀為 (num_embeddings,embedding_dim)(\text{num\_embeddings}, \text{embedding\_dim})

示例:
>>> m = nn.quantized.Embedding(num_embeddings=10, embedding_dim=12)
>>> indices = torch.tensor([9, 6, 5, 7, 8, 8, 9, 2, 8])
>>> output = m(indices)
>>> print(output.size())
torch.Size([9, 12])
classmethod from_float(mod, use_precomputed_fake_quant=False)[source][source]

從 float 模組建立一個量化 embedding 模組

引數

mod (Module) – 一個 float 模組,可以由 torch.ao.quantization 工具生成,也可以由使用者提供


© 版權所有 PyTorch 貢獻者。

使用 Sphinx 構建,主題由 Read the Docs 提供。

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源