fake_quantize_affine_cachemask¶
- torchao.quantization.fake_quantize_affine_cachemask(input: Tensor, block_size: Tuple[int, ...], scale: Tensor, zero_point: Optional[Tensor], quant_dtype: dtype, quant_min: Optional[Union[int, float]] = None, quant_max: Optional[Union[int, float]] = None, zero_point_domain: ZeroPointDomain = ZeroPointDomain.INT) Tuple[Tensor, Tensor][原始碼]¶
用於量化感知訓練 (QAT) 的通用假量化操作。它等同於呼叫 quantize_affine + dequantize_affine,但不進行 dtype 轉換。
注意:與
fake_quantize_affine()相比,此操作消耗更多記憶體,併為中間量化值返回一個額外的離群值掩碼。:param 與
fake_quantize_affine()相同。- 返回值:
- 一個包含以下兩項的元組 (
最終的假量化值,中間量化值的離群值掩碼
)