快捷方式

torch.cuda.memory_allocated

torch.cuda.memory_allocated(device=None)[源][源]

返回給定裝置上張量當前佔用的 GPU 記憶體量(以位元組為單位)。

引數

device (torch.deviceint, 可選) – 選擇的裝置。如果 deviceNone(預設),則返回由 current_device() 給出的當前裝置的統計資訊。

返回型別

int

注意

這可能少於 nvidia-smi 中顯示的量,因為部分未使用的記憶體可能由快取分配器持有,並且需要在 GPU 上建立一些上下文。有關 GPU 記憶體管理的更多詳細資訊,請參閱記憶體管理

文件

查閱 PyTorch 的全面開發者文件

查閱文件

教程

獲取面向初學者和高階開發者的深入教程

查閱教程

資源

查詢開發資源並獲得解答

查閱資源