torch.cuda.empty_cache¶ torch.cuda.empty_cache()[source][source]¶ 釋放快取分配器當前持有的所有未佔用快取記憶體,以便這些記憶體可用於其他 GPU 應用程式並顯示在 nvidia-smi 中。 注意 empty_cache() 不會增加 PyTorch 可用的 GPU 記憶體總量。但是,在某些情況下,它可能有助於減少 GPU 記憶體的碎片化。有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理。