torch.cuda.memory_allocated¶
- torch.cuda.memory_allocated(device=None)[源][源]¶
返回給定裝置上張量當前佔用的 GPU 記憶體量(以位元組為單位)。
- 引數
device (torch.device 或 int, 可選) – 選擇的裝置。如果
device為None(預設),則返回由current_device()給出的當前裝置的統計資訊。- 返回型別
注意
這可能少於 nvidia-smi 中顯示的量,因為部分未使用的記憶體可能由快取分配器持有,並且需要在 GPU 上建立一些上下文。有關 GPU 記憶體管理的更多詳細資訊,請參閱記憶體管理。