快捷方式

MLP

class torchvision.ops.MLP(in_channels: int, hidden_channels: ~typing.List[int], norm_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = None, activation_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = <class 'torch.nn.modules.activation.ReLU'>, inplace: ~typing.Optional[bool] = None, bias: bool = True, dropout: float = 0.0)[原始碼]

此塊實現多層感知器(MLP)模組。

引數:
  • in_channels (int) – 輸入通道數

  • hidden_channels (List[int]) – 隱藏通道維度列表

  • norm_layer (Callable[..., torch.nn.Module], optional) – 將堆疊線上性層之上的歸一化層。如果為 None,則不使用此層。預設值:None

  • activation_layer (Callable[..., torch.nn.Module], optional) – 將堆疊在歸一化層(如果不是 None)之上,否則堆疊線上性層之上的啟用函式。如果為 None,則不使用此層。預設值:torch.nn.ReLU

  • inplace (bool, optional) – 啟用層的引數,可以選擇原地執行操作。預設值為 None,此時使用 activation_layer 和 Dropout 層各自的預設值。

  • bias (bool) – 是否線上性層中使用偏置。預設值 True

  • dropout (float) – Dropout 層的機率。預設值:0.0

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取適合初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源