torch.cuda.max_memory_allocated¶
- torch.cuda.max_memory_allocated(device=None)[source][source]¶
返回給定裝置上張量佔用的最大 GPU 記憶體(以位元組為單位)。
預設情況下,此函式返回程式啟動以來分配的峰值記憶體。可以使用
reset_peak_memory_stats()重置此度量的跟蹤起點。例如,這兩個函式可以測量訓練迴圈中每次迭代的峰值記憶體分配使用量。- 引數
device (torch.device 或 int, 可選) – 選擇的裝置。如果
device為None(預設),則返回由current_device()給定的當前裝置的統計資訊。- 返回型別
注意
有關 GPU 記憶體管理的更多詳細資訊,請參閱記憶體管理。