ClearCudaCache¶ class torchrl.trainers.ClearCudaCache(interval: int)[source]¶ 以給定的間隔清除 CUDA 快取。 示例 >>> clear_cuda = ClearCudaCache(100) >>> trainer.register_op("pre_optim_steps", clear_cuda) abstract register(trainer: Trainer, name: str)¶ 在 trainer 的預設位置註冊 hook。 引數: trainer (Trainer) – hook 必須註冊到此 trainer 中。 name (str) – hook 的名稱。 注意 要在預設位置以外的其他位置註冊 hook,請使用 register_op()。