快捷方式

shufflenet_v2_x1_5

torchvision.models.quantization.shufflenet_v2_x1_5(*, weights: Optional[Union[ShuffleNet_V2_X1_5_QuantizedWeights, ShuffleNet_V2_X1_5_Weights]] = None, progress: bool = True, quantize: bool = False, **kwargs: Any) QuantizableShuffleNetV2[source]

構建一個輸出通道數為 1.5 倍的 ShuffleNetV2 模型,詳情請參閱論文 ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design

注意

注意,quantize = True 返回一個帶有 8 位權重的量化模型。量化模型僅支援推理並在 CPU 上執行。目前尚不支援 GPU 推理。

引數:
  • weights (ShuffleNet_V2_X1_5_QuantizedWeightsShuffleNet_V2_X1_5_Weights, 可選) – 模型的預訓練權重。請參閱下方的 ShuffleNet_V2_X1_5_QuantizedWeights 瞭解更多詳情和可能的值。預設情況下,不使用預訓練權重。

  • progress (bool, 可選) – 如果為 True,則在標準錯誤輸出 (stderr) 中顯示下載進度條。預設值為 True。

  • quantize (bool, 可選) – 如果為 True,則返回模型的量化版本。預設值為 False。

  • **kwargs – 傳遞給 torchvision.models.quantization.ShuffleNet_V2_X1_5_QuantizedWeights 基類的引數。請參閱原始碼瞭解有關此類的更多詳情。

class torchvision.models.quantization.ShuffleNet_V2_X1_5_QuantizedWeights(value)[source]

上面的模型構建器接受以下值作為 weights 引數。ShuffleNet_V2_X1_5_QuantizedWeights.DEFAULT 等同於 ShuffleNet_V2_X1_5_QuantizedWeights.IMAGENET1K_FBGEMM_V1。您也可以使用字串,例如 weights='DEFAULT'weights='IMAGENET1K_FBGEMM_V1'

ShuffleNet_V2_X1_5_QuantizedWeights.IMAGENET1K_FBGEMM_V1:

這些權重是在下方列出的非量化權重之上進行訓練後量化(eager 模式)生成的。也可透過 ShuffleNet_V2_X1_5_QuantizedWeights.DEFAULT 獲取。

acc@1 (在 ImageNet-1K 上)

72.052

acc@5 (在 ImageNet-1K 上)

90.7

最小尺寸

高=1, 寬=1

類別

丁鱖, 金魚, 大白鯊, … (省略 997 個)

後端

fbgemm

訓練方法

連結

引數數量

3503624

未量化

ShuffleNet_V2_X1_5_Weights.IMAGENET1K_V1

GIPS

0.30

檔案大小

3.7 MB

推理轉換可在 ShuffleNet_V2_X1_5_QuantizedWeights.IMAGENET1K_FBGEMM_V1.transforms 獲取,並執行以下預處理操作:接受 PIL.Image、批次 (B, C, H, W) 和單張 (C, H, W) 影像 torch.Tensor 物件。影像使用 interpolation=InterpolationMode.BILINEAR 重置大小為 resize_size=[232],然後進行中心裁剪,大小為 crop_size=[224]。最後,值首先被重新縮放到 [0.0, 1.0],然後使用 mean=[0.485, 0.456, 0.406]std=[0.229, 0.224, 0.225] 進行歸一化。

class torchvision.models.ShuffleNet_V2_X1_5_Weights(value)[source]

上面的模型構建器接受以下值作為 weights 引數。ShuffleNet_V2_X1_5_Weights.DEFAULT 等同於 ShuffleNet_V2_X1_5_Weights.IMAGENET1K_V1。您也可以使用字串,例如 weights='DEFAULT'weights='IMAGENET1K_V1'

ShuffleNet_V2_X1_5_Weights.IMAGENET1K_V1:

這些權重是使用 TorchVision 的新訓練方法從頭開始訓練的。也可透過 ShuffleNet_V2_X1_5_Weights.DEFAULT 獲取。

acc@1 (在 ImageNet-1K 上)

72.996

acc@5 (在 ImageNet-1K 上)

91.086

最小尺寸

高=1, 寬=1

類別

丁鱖, 金魚, 大白鯊, … (省略 997 個)

訓練方法

連結

引數數量

3503624

GFLOPS

0.30

檔案大小

13.6 MB

推理轉換可在 ShuffleNet_V2_X1_5_Weights.IMAGENET1K_V1.transforms 獲取,並執行以下預處理操作:接受 PIL.Image、批次 (B, C, H, W) 和單張 (C, H, W) 影像 torch.Tensor 物件。影像使用 interpolation=InterpolationMode.BILINEAR 重置大小為 resize_size=[232],然後進行中心裁剪,大小為 crop_size=[224]。最後,值首先被重新縮放到 [0.0, 1.0],然後使用 mean=[0.485, 0.456, 0.406]std=[0.229, 0.224, 0.225] 進行歸一化。

文件

查閱 PyTorch 的全面開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源