快捷方式

BatchSubSampler

class torchrl.trainers.BatchSubSampler(batch_size: int, sub_traj_len: int = 0, min_sub_traj_len: int = 0)[source]

用於線上 RL SOTA 實現的資料子取樣器。

此類從環境中剛剛收集的整批資料中抽取一部分進行子取樣。

引數:
  • batch_size (int) – 要收集的子批次大小。提供的批次大小必須等於輸出 tensordict 中的專案總數,其大小將為 [batch_size // sub_traj_len, sub_traj_len]。

  • sub_traj_len (int, 可選) – 線上設定中,子樣本必須具有的軌跡長度。預設為 -1(即取軌跡的完整長度)

  • min_sub_traj_len (int, 可選) – sub_traj_len 的最小值,以防批次中的某些元素包含較少的步驟。預設為 -1(即無最小值)

示例

>>> td = TensorDict(
...     {
...         key1: torch.stack([torch.arange(0, 10), torch.arange(10, 20)], 0),
...         key2: torch.stack([torch.arange(0, 10), torch.arange(10, 20)], 0),
...     },
...     [2, 10],
... )
>>> trainer.register_op(
...     "process_optim_batch",
...     BatchSubSampler(batch_size=batch_size, sub_traj_len=sub_traj_len),
... )
>>> td_out = trainer._process_optim_batch_hook(td)
>>> assert td_out.shape == torch.Size([batch_size // sub_traj_len, sub_traj_len])
register(trainer: Trainer, name: str = 'batch_subsampler')[source]

在訓練器的預設位置註冊 hook。

引數:
  • trainer (Trainer) – 必須註冊 hook 的訓練器。

  • name (str) – hook 的名稱。

注意

要在除預設位置以外的其他位置註冊 hook,請使用 register_op()

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取針對初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並解答疑問

檢視資源