快捷方式

torch.cuda.host_memory_stats

torch.cuda.host_memory_stats()[源][源]

返回給定裝置的 CUDA 記憶體分配器統計資訊字典。

此函式的返回值是一個統計資訊字典,其中每個統計資訊都是一個非負整數。

核心統計資訊

  • "allocated.{current,peak,allocated,freed}": 記憶體分配器收到的分配請求數。

  • "allocated_bytes.{current,peak,allocated,freed}": 已分配的記憶體量。

  • "segment.{current,peak,allocated,freed}": 透過 cudaMalloc() 保留的段數。

  • "reserved_bytes.{current,peak,allocated,freed}": 保留的記憶體量。

對於這些核心統計資訊,值細分如下。

指標型別

  • current: 此指標的當前值。

  • peak: 此指標的最大值(峰值)。

  • allocated: 此指標的歷史累計增加量。

  • freed: 此指標的歷史累計減少量。

除了核心統計資訊外,我們還提供了一些簡單的事件計數器

  • "num_host_alloc": CUDA 分配呼叫次數。這包括 cudaHostAlloccudaHostRegister

  • "num_host_free": CUDA 釋放呼叫次數。這包括 cudaHostFreecudaHostUnregister

最後,我們還提供了一些簡單的計時計數器

  • "host_alloc_time.{total,max,min,count,avg}": 透過 CUDA 呼叫進行分配請求的計時。

  • "host_free_time.{total,max,min,count,avg}": 透過 CUDA 呼叫進行釋放請求的計時。

對於這些計時統計資訊,值細分如下。

指標型別

  • total: 花費的總時間。

  • max: 每次呼叫的最大值。

  • min: 每次呼叫的最小值。

  • count: 呼叫次數。

  • avg: 每次呼叫的平均時間。

返回值型別

dict[str, Any]

文件

查閱全面的 PyTorch 開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源