快捷方式

RewardScaling

class torchrl.envs.transforms.RewardScaling(loc: Union[float, torch.Tensor], scale: Union[float, torch.Tensor], in_keys: Sequence[NestedKey] | None = None, out_keys: Sequence[NestedKey] | None = None, standard_normal: bool = False)[原始碼]

獎勵的仿射變換。

獎勵根據以下公式進行變換:

\[reward = reward * scale + loc\]
引數:
  • loc (數字torch.Tensor) – 仿射變換的位置引數

  • scale (數字torch.Tensor) – 仿射變換的縮放參數

  • standard_normal (布林值, 可選) –

    如果為 True,變換將是

    \[reward = (reward-loc)/scale\]

    如同標準化操作一樣。預設為 False

transform_reward_spec(reward_spec: TensorSpec) TensorSpec[原始碼]

變換獎勵的 Spec (規範),使其結果 Spec 與變換對映相匹配。

引數:

reward_spec (TensorSpec) – 變換前的 Spec (規範)

返回:

變換後的預期 Spec (規範)

文件

獲取全面的 PyTorch 開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源