快捷方式

HardUpdate

torchrl.objectives.HardUpdate(loss_module: Union['DQNLoss', 'DDPGLoss', 'SACLoss', 'TD3Loss'], *, value_network_update_interval: float = 1000)[原始碼]

一個硬更新類,用於 Double DQN/DDPG 中的目標網路更新(與軟更新相對)。

這在原始的 Double DQN 論文中提出:“Deep Reinforcement Learning with Double Q-learning”,https://arxiv.org/abs/1509.06461。

引數:

loss_module (DQNLossDDPGLoss) – 需要更新目標網路的損失模組。

關鍵字引數:

value_network_update_interval (標量) – 目標網路應多久更新一次。預設值: 1000


© 版權所有 2022, Meta。

使用 Sphinx 構建,主題由 Read the Docs 提供。

文件

獲取 PyTorch 的全面開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源