快捷方式

fake_quantize_affine_cachemask

torchao.quantization.fake_quantize_affine_cachemask(input: Tensor, block_size: Tuple[int, ...], scale: Tensor, zero_point: Optional[Tensor], quant_dtype: dtype, quant_min: Optional[Union[int, float]] = None, quant_max: Optional[Union[int, float]] = None, zero_point_domain: ZeroPointDomain = ZeroPointDomain.INT) Tuple[Tensor, Tensor][原始碼]

用於量化感知訓練 (QAT) 的通用假量化操作。它等同於呼叫 quantize_affine + dequantize_affine,但不進行 dtype 轉換。

注意:與 fake_quantize_affine() 相比,此操作消耗更多記憶體,併為中間量化值返回一個額外的離群值掩碼。

:param 與 fake_quantize_affine() 相同。

返回值:

一個包含以下兩項的元組 (

最終的假量化值,中間量化值的離群值掩碼

)

文件

訪問 PyTorch 的完整開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並解答您的疑問

檢視資源