快捷方式

torch.cuda.empty_cache

torch.cuda.empty_cache()[source][source]

釋放快取分配器當前持有的所有未佔用快取記憶體,以便這些記憶體可用於其他 GPU 應用程式並顯示在 nvidia-smi 中。

注意

empty_cache() 不會增加 PyTorch 可用的 GPU 記憶體總量。但是,在某些情況下,它可能有助於減少 GPU 記憶體的碎片化。有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源