torch.nn.attention.sdpa_kernel¶
- torch.nn.attention.sdpa_kernel(backends, set_priority=False)[原始碼][原始碼]¶
用於選擇用於縮放點積注意力後端的上下文管理器。
警告
此函式為測試版,可能會發生變化。
- 引數
backends (Union[List[SDPBackend], SDPBackend]) – 用於縮放點積注意力後端的列表或單個後端。
set_priority_order (python:bool=False) – 後端列表的順序是否解釋為其優先順序順序。
示例
from torch.nn.functional import scaled_dot_product_attention from torch.nn.attention import SDPBackend, sdpa_kernel # Only enable flash attention backend with sdpa_kernel(SDPBackend.FLASH_ATTENTION): scaled_dot_product_attention(...) # Enable the Math or Efficient attention backends with sdpa_kernel([SDPBackend.MATH, SDPBackend.EFFICIENT_ATTENTION]): scaled_dot_product_attention(...)
此上下文管理器可用於選擇用於縮放點積注意力後端。退出上下文管理器後,將恢復之前的標誌狀態,啟用所有後端。