快捷方式

LinearReLU¶

class torch.ao.nn.intrinsic.qat.LinearReLU(in_features, out_features, bias=True, qconfig=None)[源][源]

一個由 Linear 和 ReLU 模組融合而成的 LinearReLU 模組,附加了用於權重的 FakeQuantize 模組,用於量化感知訓練。

我們採用了與 torch.nn.Linear 相同的介面。

torch.ao.nn.intrinsic.LinearReLU 類似,FakeQuantize 模組已初始化為預設值。

變數

weight (torch.Tensor) – 權重的假量化模組

示例

>>> m = nn.qat.LinearReLU(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])

文件

訪問 PyTorch 的綜合開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並解答疑問

檢視資源