快捷方式

torch.cuda.comm.broadcast_coalesced

torch.cuda.comm.broadcast_coalesced(tensors, devices, buffer_size=10485760)[源][源]

將一系列張量廣播到指定的 GPU。

小張量首先被合併到一個緩衝區中,以減少同步次數。

引數
  • tensors (sequence) – 要廣播的張量。必須在同一個裝置上,可以是 CPU 或 GPU。

  • devices (Iterable[torch.device, str or int]) – GPU 裝置的可迭代物件,用於廣播。

  • buffer_size (int) – 用於合併的緩衝區的最大大小

返回

一個元組,包含 tensor 的副本,放置在 devices 上。


© 版權所有 PyTorch 貢獻者。

使用 Sphinx 構建,主題由 Read the Docs 提供。

文件

查閱 PyTorch 全面的開發者文件

檢視文件

教程

獲取適合初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源