快捷方式

torch.cuda.reset_max_memory_cached¶

torch.cuda.reset_max_memory_cached(device=None)[source][source]

重置給定裝置上由快取分配器管理的 GPU 最大記憶體跟蹤的起始點。

有關詳細資訊,請參閱 max_memory_cached()

引數

device (torch.deviceint, 可選) – 選定的裝置。如果 deviceNone (預設值),則返回由 current_device() 給出的當前裝置的統計資訊。

警告

此函式現在會呼叫 reset_peak_memory_stats(),該函式會重置 /所有/ 峰值記憶體統計資訊。

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理


© 版權所有 PyTorch 貢獻者。

使用 Sphinx 和 Read the Docs 提供的主題構建。

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源