leaky_relu¶ class torch.ao.nn.quantized.functional.leaky_relu(input, negative_slope=0.01, inplace=False, scale=None, zero_point=None)[源][源]¶ 量化版本的 leaky_relu。leaky_relu(input, negative_slope=0.01, inplace=False, scale, zero_point) -> Tensor 逐元素應用,LeakyReLU(x)=max(0,x)+negative_slope∗min(0,x)\text{LeakyReLU}(x) = \max(0, x) + \text{negative\_slope} * \min(0, x)LeakyReLU(x)=max(0,x)+negative_slope∗min(0,x) 引數 input (Tensor) – 量化輸入 negative_slope (float) – 負輸入的斜率 inplace (bool) – 就地修改輸入張量 scale (Optional[float]) – 輸出張量的尺度和零點。 zero_point (Optional[int]) – 輸出張量的尺度和零點。 有關更多詳細資訊,請參見 LeakyReLU。