Stack¶
- 類 torchrl.envs.transforms.Stack(in_keys: Sequence[NestedKey], out_key: NestedKey, in_key_inv: NestedKey | None = None, out_keys_inv: Sequence[NestedKey] | None = None, dim: int = - 1, allow_positive_dim: bool = False, *, del_keys: bool = True)[原始碼]¶
堆疊張量(tensor)和 tensordict。
沿新維度連線一系列張量或 tensordict。
in_keys下的 tensordict 或張量必須具有相同的形狀。此轉換僅將輸入堆疊為一個輸出 key。將多組輸入 key 堆疊到不同的輸出 key 需要多個轉換。
此轉換對於包含多個智慧體、其 specs 在不同 key 下相同的情況非常有用。可以將智慧體的 specs 和 tensordict 在一個共享 key 下堆疊在一起,以便執行多智慧體強化學習 (MARL) 演算法,這些演算法需要觀察、獎勵等的張量包含所有智慧體的批次資料。
- 引數:
in_keys (NestedKey 序列) – 要堆疊的 key。
out_key (NestedKey) – 結果堆疊條目的 key。
in_key_inv (NestedKey, 可選) – 在
inv()呼叫期間用於取消堆疊的 key。預設為None。out_keys_inv (NestedKey 序列, 可選) –
inv()呼叫後結果取消堆疊條目的 key。預設為None。dim (int, 可選) – 要插入的維度。預設為
-1。allow_positive_dim (bool, 可選) – 如果為
True,則接受正維度。預設為False,即不允許非負維度。
- 關鍵字引數:
del_keys (bool, 可選) – 如果為
True,則輸入值將在堆疊後被刪除。預設為True。
示例
>>> import torch >>> from tensordict import TensorDict >>> from torchrl.envs import Stack >>> td = TensorDict({"key1": torch.zeros(3), "key2": torch.ones(3)}, []) >>> td TensorDict( fields={ key1: Tensor(shape=torch.Size([3]), device=cpu, dtype=torch.float32, is_shared=False), key2: Tensor(shape=torch.Size([3]), device=cpu, dtype=torch.float32, is_shared=False)}, batch_size=torch.Size([]), device=None, is_shared=False) >>> transform = Stack(in_keys=["key1", "key2"], out_key="out", dim=-2) >>> transform(td) TensorDict( fields={ out: Tensor(shape=torch.Size([2, 3]), device=cpu, dtype=torch.float32, is_shared=False)}, batch_size=torch.Size([]), device=None, is_shared=False) >>> td["out"] tensor([[0., 0., 0.], [1., 1., 1.]])
>>> agent_0 = TensorDict({"obs": torch.rand(4, 5), "reward": torch.zeros(1)}) >>> agent_1 = TensorDict({"obs": torch.rand(4, 5), "reward": torch.zeros(1)}) >>> td = TensorDict({"agent_0": agent_0, "agent_1": agent_1}) >>> transform = Stack(in_keys=["agent_0", "agent_1"], out_key="agents") >>> transform(td) TensorDict( fields={ agents: TensorDict( fields={ obs: Tensor(shape=torch.Size([2, 4, 5]), device=cpu, dtype=torch.float32, is_shared=False), reward: Tensor(shape=torch.Size([2, 1]), device=cpu, dtype=torch.float32, is_shared=False)}, batch_size=torch.Size([2]), device=None, is_shared=False)}, batch_size=torch.Size([]), device=None, is_shared=False)
- forward(tensordict: TensorDictBase) TensorDictBase¶
讀取輸入的 tensordict,並對選定的 key 應用轉換。
- transform_done_spec(done_spec: TensorSpec) TensorSpec[原始碼]¶
轉換 done spec,使其結果 spec 與轉換對映匹配。
- 引數:
done_spec (TensorSpec) – 轉換前的 spec
- 返回:
轉換後預期的 spec
- transform_input_spec(input_spec: TensorSpec) TensorSpec[原始碼]¶
轉換 input spec,使其結果 spec 與轉換對映匹配。
- 引數:
input_spec (TensorSpec) – 轉換前的 spec
- 返回:
轉換後預期的 spec
- transform_observation_spec(observation_spec: TensorSpec) TensorSpec[原始碼]¶
轉換 observation spec,使其結果 spec 與轉換對映匹配。
- 引數:
observation_spec (TensorSpec) – 轉換前的 spec
- 返回:
轉換後預期的 spec
- transform_reward_spec(reward_spec: TensorSpec) TensorSpec[原始碼]¶
轉換 reward spec,使其結果 spec 與轉換對映匹配。
- 引數:
reward_spec (TensorSpec) – 轉換前的 spec
- 返回:
轉換後預期的 spec