快捷方式

torch.cuda.max_memory_allocated

torch.cuda.max_memory_allocated(device=None)[source][source]

返回給定裝置上張量佔用的最大 GPU 記憶體(以位元組為單位)。

預設情況下,此函式返回程式啟動以來分配的峰值記憶體。可以使用 reset_peak_memory_stats() 重置此度量的跟蹤起點。例如,這兩個函式可以測量訓練迴圈中每次迭代的峰值記憶體分配使用量。

引數

device (torch.deviceint, 可選) – 選擇的裝置。如果 deviceNone (預設),則返回由 current_device() 給定的當前裝置的統計資訊。

返回型別

int

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱記憶體管理

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源