RewardScaling¶
- class torchrl.envs.transforms.RewardScaling(loc: Union[float, torch.Tensor], scale: Union[float, torch.Tensor], in_keys: Sequence[NestedKey] | None = None, out_keys: Sequence[NestedKey] | None = None, standard_normal: bool = False)[原始碼]¶
獎勵的仿射變換。
獎勵根據以下公式進行變換:
\[reward = reward * scale + loc\]- 引數:
loc (數字 或 torch.Tensor) – 仿射變換的位置引數
scale (數字 或 torch.Tensor) – 仿射變換的縮放參數
standard_normal (布林值, 可選) –
如果為
True,變換將是\[reward = (reward-loc)/scale\]如同標準化操作一樣。預設為 False。
- transform_reward_spec(reward_spec: TensorSpec) TensorSpec[原始碼]¶
變換獎勵的 Spec (規範),使其結果 Spec 與變換對映相匹配。
- 引數:
reward_spec (TensorSpec) – 變換前的 Spec (規範)
- 返回:
變換後的預期 Spec (規範)