TD1Estimator¶
- 類 torchrl.objectives.value.TD1Estimator(*args, **kwargs)[原始碼]¶
\(\infty\)-時序差分 (TD(1)) 優勢函式估計。
- 關鍵字引數:
gamma (標量) – 指數平均折扣。
value_network (TensorDictModule) – 用於獲取價值估計的價值運算元。
average_rewards (bool, 可選) – 如果為
True,獎勵將在計算 TD 之前進行標準化。differentiable (bool, 可選) –
如果為
True,梯度會透過價值函式的計算傳播。預設為False。注意
使函式呼叫不可微的正確方法是在 torch.no_grad() 上下文管理器/裝飾器中裝飾它,或者為函式式模組傳遞分離(detached)的引數。
skip_existing (bool, 可選) – 如果為
True,價值網路將跳過其輸出已存在於 tensordict 中的模組。預設為None,即tensordict.nn.skip_existing()的值不受影響。advantage_key (str 或 str 元組, 可選) – [已棄用] 優勢項的鍵。預設為
"advantage"。value_target_key (str 或 str 元組, 可選) – [已棄用] 優勢項的鍵。預設為
"value_target"。value_key (str 或 str 元組, 可選) – [已棄用] 從輸入 tensordict 讀取的價值鍵。預設為
"state_value"。shifted (bool, 可選) – 如果為
True,價值和下一時刻價值透過對價值網路的一次呼叫進行估計。這更快,但僅在滿足以下條件時有效:(1) “next” 價值僅偏移一個時間步(例如,多步價值估計則不是這種情況)並且 (2) 在時間 t 和 t+1 使用的引數相同時(使用目標引數時則不是這種情況)。預設為False。device (torch.device, 可選) – 將例項化緩衝區的裝置。預設為
torch.get_default_device()。time_dim (int, 可選) – 輸入 tensordict 中對應於時間的維度。如果未提供,則預設為標有
"time"名稱的維度(如果存在),否則預設為最後一個維度。可在呼叫value_estimate()期間覆蓋。負維度是相對於輸入 tensordict 計算的。
- forward(tensordict=None, *, params: TensorDictBase | None = None, target_params: TensorDictBase | None = None)[原始碼]¶
計算給定 tensordict 資料中的 TD(1) 優勢值。
如果提供了函式式模組,則可以將包含引數(以及如果相關的話,目標引數)的巢狀 TensorDict 傳遞給該模組。
- 引數:
tensordict (TensorDictBase) – 包含計算價值估計和 TDEstimate 所需資料(觀察鍵、
"action"、("next", "reward")、("next", "done")、("next", "terminated")以及環境返回的"next"tensordict 狀態)的 TensorDict。傳遞給此模組的資料應結構為[*B, T, *F],其中B是批次大小,T是時間維度,F是特徵維度。 tensordict 的形狀必須是[*B, T]。- 關鍵字引數:
params (TensorDictBase, 可選) – 包含要傳遞給函式式價值網路模組的引數的巢狀 TensorDict。
target_params (TensorDictBase, 可選) – 包含要傳遞給函式式價值網路模組的目標引數的巢狀 TensorDict。
- 返回值:
一個更新後的 TensorDict,包含建構函式中定義的優勢值 (`advantage`) 和價值誤差 (`value_error`) 鍵。
示例
>>> from tensordict import TensorDict >>> value_net = TensorDictModule( ... nn.Linear(3, 1), in_keys=["obs"], out_keys=["state_value"] ... ) >>> module = TDEstimate( ... gamma=0.98, ... value_network=value_net, ... ) >>> obs, next_obs = torch.randn(2, 1, 10, 3) >>> reward = torch.randn(1, 10, 1) >>> done = torch.zeros(1, 10, 1, dtype=torch.bool) >>> terminated = torch.zeros(1, 10, 1, dtype=torch.bool) >>> tensordict = TensorDict({"obs": obs, "next": {"obs": next_obs, "done": done, "reward": reward, "terminated": terminated}}, [1, 10]) >>> _ = module(tensordict) >>> assert "advantage" in tensordict.keys()
該模組也支援非 tensordict(即解包的 tensordict)輸入
示例
>>> value_net = TensorDictModule( ... nn.Linear(3, 1), in_keys=["obs"], out_keys=["state_value"] ... ) >>> module = TDEstimate( ... gamma=0.98, ... value_network=value_net, ... ) >>> obs, next_obs = torch.randn(2, 1, 10, 3) >>> reward = torch.randn(1, 10, 1) >>> done = torch.zeros(1, 10, 1, dtype=torch.bool) >>> terminated = torch.zeros(1, 10, 1, dtype=torch.bool) >>> advantage, value_target = module(obs=obs, next_reward=reward, next_done=done, next_obs=next_obs, next_terminated=terminated)
- value_estimate(tensordict, target_params: TensorDictBase | None = None, next_value: torch.Tensor | None = None, time_dim: int | None = None, **kwargs)[原始碼]¶
獲取價值估計,通常用作價值網路的目標價值。
如果狀態價值鍵存在於
tensordict.get(("next", self.tensor_keys.value))下,則將使用此值,而無需再次呼叫價值網路。- 引數:
tensordict (TensorDictBase) – 包含要讀取資料的 tensordict。
target_params (TensorDictBase, 可選) – 包含要傳遞給函式式價值網路模組的目標引數的巢狀 TensorDict。
next_value (torch.Tensor, 可選) – 下一狀態或狀態-動作對的價值。與
target_params互斥。**kwargs – 將傳遞給價值網路的關鍵字引數。
返回值:對應於狀態價值的張量。