快捷方式

torch.nn.attention.sdpa_kernel

torch.nn.attention.sdpa_kernel(backends, set_priority=False)[原始碼][原始碼]

用於選擇用於縮放點積注意力後端的上下文管理器。

警告

此函式為測試版,可能會發生變化。

引數
  • backends (Union[List[SDPBackend], SDPBackend]) – 用於縮放點積注意力後端的列表或單個後端。

  • set_priority_order (python:bool=False) – 後端列表的順序是否解釋為其優先順序順序。

示例

from torch.nn.functional import scaled_dot_product_attention
from torch.nn.attention import SDPBackend, sdpa_kernel
# Only enable flash attention backend
with sdpa_kernel(SDPBackend.FLASH_ATTENTION):
    scaled_dot_product_attention(...)

# Enable the Math or Efficient attention backends
with sdpa_kernel([SDPBackend.MATH, SDPBackend.EFFICIENT_ATTENTION]):
    scaled_dot_product_attention(...)

此上下文管理器可用於選擇用於縮放點積注意力後端。退出上下文管理器後,將恢復之前的標誌狀態,啟用所有後端。

文件

訪問 PyTorch 的完整開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源