torch.cuda.max_memory_reserved¶
- torch.cuda.max_memory_reserved(device=None)[source][source]¶
返回給定裝置上由快取分配器管理的 GPU 最大記憶體量(位元組)。
預設情況下,此函式返回程式開始以來快取記憶體的峰值。可以使用
reset_peak_memory_stats()重置此指標的跟蹤起點。例如,這兩個函式可以測量訓練迴圈中每次迭代的快取記憶體峰值量。- 引數
device (torch.device or int, optional) – 指定的裝置。如果
device為None(預設),則返回當前裝置(由current_device()指定)的統計資訊。- 返回型別
注意
有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理。