TargetReturn¶
- class torchrl.envs.transforms.TargetReturn(target_return: float, mode: str = 'reduce', in_keys: Sequence[NestedKey] | None = None, out_keys: Sequence[NestedKey] | None = None, reset_key: NestedKey | None = None)[source]¶
為智慧體設定一個目標回報,以便在環境中實現。
在目標條件強化學習 (goal-conditioned RL) 中,
TargetReturn被定義為從當前狀態到目標狀態或情節結束時獲得的預期累積獎勵。它被用作策略的輸入來指導其行為。對於訓練好的策略,通常選擇環境中最大的回報作為目標回報。然而,由於它被用作策略模組的輸入,因此應進行相應的縮放。使用TargetReturn變換,可以更新 tensordict 以包含使用者指定的目標回報。mode引數可用於指定目標回報是每一步透過減去每一步獲得的獎勵來更新,還是保持不變。- 引數:
target_return (
float) – 智慧體需要達成的目標回報。mode (str) – 用於更新目標回報的模式。可以是 “reduce” 或 “constant”。預設值:“reduce”。
in_keys (sequence of NestedKey, optional) – 指向獎勵條目的鍵。預設為父環境的獎勵鍵。
out_keys (sequence of NestedKey, optional) – 指向目標鍵的鍵。預設為 in_keys 的副本,其中最後一個元素被替換為
"target_return",如果這些鍵不唯一則會引發異常。reset_key (NestedKey, optional) – 用作部分重置指示器的重置鍵。必須是唯一的。如果未提供,則預設為父環境中唯一的重置鍵(如果只有一個),否則會引發異常。
示例
>>> from torchrl.envs import GymEnv >>> env = TransformedEnv( ... GymEnv("CartPole-v1"), ... TargetReturn(10.0, mode="reduce")) >>> env.set_seed(0) >>> torch.manual_seed(0) >>> env.rollout(20)['target_return'].squeeze() tensor([10., 9., 8., 7., 6., 5., 4., 3., 2., 1., 0., -1., -2., -3.])
- transform_input_spec(input_spec: TensorSpec) TensorSpec[source]¶
變換輸入 spec,使其結果 spec 與變換對映匹配。
- 引數:
input_spec (TensorSpec) – 變換前的 spec
- 返回:
變換後的預期 spec
- transform_observation_spec(observation_spec: TensorSpec) TensorSpec[source]¶
變換觀察 spec,使其結果 spec 與變換對映匹配。
- 引數:
observation_spec (TensorSpec) – 變換前的 spec
- 返回:
變換後的預期 spec