快捷方式

torch.cuda.caching_allocator_delete

torch.cuda.caching_allocator_delete(mem_ptr)[源][源]

刪除使用 CUDA 記憶體分配器分配的記憶體。

使用 caching_allocator_alloc() 分配的記憶體在此處釋放。相關的裝置和流在分配器內部進行跟蹤。

引數

mem_ptr (int) – 記憶體地址,由分配器釋放。

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱記憶體管理

文件

查閱全面的 PyTorch 開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源