快捷方式

Composite

class torchrl.data.Composite(*args, **kwargs)[原始碼]

TensorSpecs 的組合。

如果一個 TensorSpec 是張量類別的集合描述,那麼 Composite 類類似於 TensorDict 類。像 TensorDict 一樣,它有一個 shape(類似於 TensorDictbatch_size)和一個可選的 device

引數:
  • *args – 如果傳遞一個無名引數,它必須是一個字典,其鍵與 Composite 物件中預期找到的鍵匹配。這對於構建帶有元組索引的巢狀 CompositeSpecs 非常有用。

  • **kwargs (key (str) – value (TensorSpec)): 要儲存的 tensospecs 字典。值可以為 None,在這種情況下,is_in 對於相應的張量將被假定為 True,並且 project() 將不起作用。包含缺失值時不能使用 spec.encode

變數:
  • device (torch.device or None) – 如果未指定,複合 spec 的 device 為 None(TensorDict 的情況也是如此)。非 None 的 device 會約束所有葉子節點位於同一 device。另一方面,None device 允許葉子節點擁有不同的 device。預設為 None

  • shape (torch.Size) – 所有葉子節點的前導 shape。等同於相應 tensordicts 的批大小 (batch-size)。

示例

>>> pixels_spec = Bounded(
...     low=torch.zeros(4, 3, 32, 32),
...     high=torch.ones(4, 3, 32, 32),
...     dtype=torch.uint8
... )
>>> observation_vector_spec = Bounded(
...     low=torch.zeros(4, 33),
...     high=torch.ones(4, 33),
...     dtype=torch.float)
>>> composite_spec = Composite(
...     pixels=pixels_spec,
...     observation_vector=observation_vector_spec,
...     shape=(4,)
... )
>>> composite_spec
Composite(
    pixels: BoundedDiscrete(
        shape=torch.Size([4, 3, 32, 32]),
        space=ContinuousBox(
            low=Tensor(shape=torch.Size([4, 3, 32, 32]), device=cpu, dtype=torch.uint8, contiguous=True),
            high=Tensor(shape=torch.Size([4, 3, 32, 32]), device=cpu, dtype=torch.uint8, contiguous=True)),
        device=cpu,
        dtype=torch.uint8,
        domain=discrete),
    observation_vector: BoundedContinuous(
        shape=torch.Size([4, 33]),
        space=ContinuousBox(
            low=Tensor(shape=torch.Size([4, 33]), device=cpu, dtype=torch.float32, contiguous=True),
            high=Tensor(shape=torch.Size([4, 33]), device=cpu, dtype=torch.float32, contiguous=True)),
        device=cpu,
        dtype=torch.float32,
        domain=continuous),
    device=None,
    shape=torch.Size([4]))
>>> td = composite_spec.rand()
>>> td
TensorDict(
    fields={
        observation_vector: Tensor(shape=torch.Size([4, 33]), device=cpu, dtype=torch.float32, is_shared=False),
        pixels: Tensor(shape=torch.Size([4, 3, 32, 32]), device=cpu, dtype=torch.uint8, is_shared=False)},
    batch_size=torch.Size([4]),
    device=None,
    is_shared=False)
>>> # we can build a nested composite spec using unnamed arguments
>>> print(Composite({("a", "b"): None, ("a", "c"): None}))
Composite(
    a: Composite(
        b: None,
        c: None,
        device=None,
        shape=torch.Size([])),
    device=None,
    shape=torch.Size([]))
assert_is_in(value: 張量) None

斷言張量是否屬於該框,否則引發異常。

引數:

value (torch.Tensor) – 要檢查的值。

cardinality() int[原始碼]

spec 的基數 (cardinality)。

這指的是 spec 中可能結果的數量。假定複合 spec 的基數是所有可能結果的笛卡爾積。

clear_device_()[原始碼]

清除 Composite 的 device。

clone() Composite[原始碼]

克隆 Composite spec。

鎖定 (locked) 的 spec 不會產生鎖定的克隆。

contains(item: torch.Tensor | TensorDictBase) bool

如果值 val 可以由 TensorSpec 生成,則返回 True,否則返回 False

更多資訊請參見 is_in()

cpu()

將 TensorSpec 轉換為 ‘cpu’ device。

cuda(device=None)

將 TensorSpec 轉換為 ‘cuda’ device。

property device: Union[device, str, int]

spec 的 device。

只有 Composite spec 可以有 None device。所有葉子節點必須有非空 device。

empty()[原始碼]

建立一個類似於 self 但沒有條目的 spec。

encode(vals: Dict[str, Any], *, ignore_device: bool = False) Dict[str, 張量][原始碼]

根據指定的 spec 編碼值,並返回相應的張量。

此方法用於返回一個值(例如 numpy 陣列)的環境中,該值可以輕鬆對映到 TorchRL 所需的域。如果該值已經是張量,則 spec 不會更改其值並按原樣返回。

引數:

val (np.ndarray or torch.Tensor) – 要編碼為張量的值。

關鍵字引數:

ignore_device (bool, optional) – 如果為 True,則 spec device 將被忽略。這用於在呼叫 TensorDict(..., device="cuda") 中對張量進行分組轉換,這樣更快。

返回:

與所需張量 spec 匹配的 torch.Tensor。

enumerate() TensorDictBase[原始碼]

返回可以從 TensorSpec 中獲取的所有樣本。

樣本將沿著第一維度堆疊。

此方法僅針對離散 spec 實現。

expand(*shape)[原始碼]

返回一個具有擴充套件 shape 的新 Spec。

引數:

*shape (tuple or iterable of int) – Spec 的新 shape。必須與當前 shape 可廣播:其長度必須至少與當前 shape 長度一樣長,並且其最後一個值也必須相容;也就是說,它們只能在當前維度為單例時與當前 shape 不同。

flatten(start_dim: int, end_dim: int) T

展平 TensorSpec

有關此方法的更多資訊,請檢視 flatten()

get(item, default=_NoDefault.ZERO)[原始碼]

從 Composite 中獲取一個 item。

如果該 item 不存在,可以傳遞一個預設值。

classmethod implements_for_spec(torch_function: Callable) Callable

為 TensorSpec 註冊一個 torch 函式覆蓋。

index(index: INDEX_TYPING, tensor_to_index: torch.Tensor | TensorDictBase) torch.Tensor | TensorDictBase[原始碼]

對輸入張量進行索引。

此方法用於編碼一個或多個分類變數的 spec(例如 OneHotCategorical),以便可以用樣本對張量進行索引,而無需關心索引的實際表示。

引數:
  • index (int, torch.Tensor, slice or list) – 張量的索引

  • tensor_to_index – 要索引的張量

返回:

索引後的張量

示例
>>> from torchrl.data import OneHot
>>> import torch
>>>
>>> one_hot = OneHot(n=100)
>>> categ = one_hot.to_categorical_spec()
>>> idx_one_hot = torch.zeros((100,), dtype=torch.bool)
>>> idx_one_hot[50] = 1
>>> print(one_hot.index(idx_one_hot, torch.arange(100)))
tensor(50)
>>> idx_categ = one_hot.to_categorical(idx_one_hot)
>>> print(categ.index(idx_categ, torch.arange(100)))
tensor(50)
is_empty(recurse: bool | None =False)[原始碼]

複合 spec 是否包含 specs。

引數:

recurse (bool) – 是否遞迴地評估 spec 是否為空。如果為 True,如果不存在葉子節點則返回 True。如果為 False (預設值),則返回根級別是否定義了任何 spec。

is_in(val: Union[dict, TensorDictBase]) bool[原始碼]

如果值 val 可以由 TensorSpec 生成,則返回 True,否則返回 False

更精確地說,is_in 方法檢查值 val 是否在由 space 屬性(即邊界)定義的限制內,以及 dtypedeviceshape 和其他可能的元資料是否與 spec 的元資料匹配。如果這些檢查中的任何一個失敗,is_in 方法將返回 False

引數:

val (torch.Tensor) – 要檢查的值。

返回:

指示值是否屬於 TensorSpec 邊界的布林值。

items(include_nested: bool = False, leaves_only: bool = False, *, is_leaf: Callable[[type], bool] | None =None) _CompositeSpecItemsView[原始碼]

Composite 的 items。

引數:
  • include_nested (bool, optional) – 如果為 False,返回的鍵將不是巢狀的。它們只表示根節點的直接子節點,而不是整個巢狀序列,例如 Composite(next=Composite(obs=None)) 將產生鍵 ["next"]. 預設值為 ``False``,即不返回巢狀鍵。

  • leaves_only (bool, optional) – 如果為 False,返回的值將包含每一層巢狀,例如 Composite(next=Composite(obs=None)) 將產生鍵 ["next", ("next", "obs")]。預設值為 False

關鍵字引數:

is_leaf (callable, optional) – 讀取一個型別並返回一個布林值,指示該型別是否應被視為葉子節點。預設情況下,所有非 Composite 節點都被視為葉子節點。

keys(include_nested: bool = False, leaves_only: bool = False, *, is_leaf: Callable[[type], bool] | None =None) _CompositeSpecKeysView[原始碼]

Composite 的 keys。

keys 引數反映了 tensordict.TensorDict 的 keys。

引數:
  • include_nested (bool, optional) – 如果為 False,返回的鍵將不是巢狀的。它們只表示根節點的直接子節點,而不是整個巢狀序列,例如 Composite(next=Composite(obs=None)) 將產生鍵 ["next"]. 預設值為 ``False``,即不返回巢狀鍵。

  • leaves_only (bool, optional) – 如果為 False,返回的值將包含每一層巢狀,例如 Composite(next=Composite(obs=None)) 將產生鍵 ["next", ("next", "obs")]。預設值為 False

關鍵字引數:

is_leaf (callable, optional) – 讀取一個型別並返回一個布林值,指示該型別是否應被視為葉子節點。預設情況下,所有非 Composite 節點都被視為葉子節點。

lock_(recurse: bool | None =None) T[原始碼]

鎖定 Composite 並阻止對其內容的修改。

recurse 引數控制鎖定是否傳播到子 spec。當前的預設值是 False,但在 v0.8 中為了與 TensorDict API 保持一致,它將變為 True

示例

>>> shape = [3, 4, 5]
>>> spec = Composite(
...         a=Composite(
...         b=Composite(shape=shape[:3], device="cpu"), shape=shape[:2]
...     ),
...     shape=shape[:1],
... )
>>> spec["a"] = spec["a"].clone()
>>> recurse = False
>>> spec.lock_(recurse=recurse)
>>> try:
...     spec["a"] = spec["a"].clone()
... except RuntimeError:
...     print("failed!")
failed!
>>> try:
...     spec["a", "b"] = spec["a", "b"].clone()
...     print("succeeded!")
... except RuntimeError:
...     print("failed!")
succeeded!
>>> recurse = True
>>> spec.lock_(recurse=recurse)
>>> try:
...     spec["a", "b"] = spec["a", "b"].clone()
...     print("succeeded!")
... except RuntimeError:
...     print("failed!")
failed!
make_neg_dim(dim: int) T

將指定維度轉換為 -1

property ndim

spec shape 的維度數量。

len(spec.shape) 的快捷方式。

ndimension()[原始碼]

spec shape 的維度數量。

len(spec.shape) 的快捷方式。

one(shape: torch.Size = None) torch.Tensor | TensorDictBase

返回在該範圍內填充為 1 的張量。

注意

即使無法保證 1 屬於規範域,當此條件違反時,此方法也不會引發異常。one 的主要用例是生成空資料緩衝區,而不是有意義的資料。

引數:

shape (torch.Size) – 填充為 1 的張量的形狀

返回:

在 TensorSpec 範圍內抽樣得到的填充為 1 的張量。

ones(shape: torch.Size = None) torch.Tensor | TensorDictBase

one() 的代理。

pop(key: NestedKey, default: Any = _NoDefault.ZERO) Any[]

從複合規範中移除並返回與指定鍵關聯的值。

此方法在複合規範中搜索給定的鍵,將其移除,並返回其關聯的值。如果未找到該鍵,則返回指定的預設值(如果已指定),否則引發 KeyError

引數:
  • key (NestedKey) – 要從複合規範中移除的鍵。它可以是單個鍵或巢狀鍵。

  • default (Any, optional) – 如果在複合規範中未找到指定的鍵,則返回的值。如果未提供且未找到該鍵,則會引發 KeyError

返回:

從複合規範中移除的與指定鍵關聯的值。

返回型別:

Any

引發:

KeyError – 如果在複合規範中未找到指定的鍵且未提供預設值。

project(val: TensorDictBase) TensorDictBase[]

如果輸入張量不在 TensorSpec 範圍內,則根據定義的啟發式方法將其映射回該範圍。

引數:

val (torch.Tensor) – 要對映到該範圍的張量。

返回:

屬於 TensorSpec 範圍的 torch.Tensor。

rand(shape: Optional[Size] = None) TensorDictBase[]

返回在規範定義的空間內的隨機張量。

抽樣將在空間內均勻進行,除非該範圍無界,在這種情況下將抽取正態分佈值。

引數:

shape (torch.Size) – 隨機張量的形狀

返回:

在 TensorSpec 範圍內抽樣得到的隨機張量。

reshape(*shape) T

重塑一個 TensorSpec

請查閱 reshape() 以獲取有關此方法的更多資訊。

sample(shape: torch.Size = None) torch.Tensor | TensorDictBase

返回在規範定義的空間內的隨機張量。

詳情請參閱 rand()

separates(*keys: NestedKey, default: Optional[Any] = None) Composite[]

透過提取指定的鍵及其關聯的值,將複合規範分割成一個新的複合規範。

此方法遍歷提供的鍵,將其從當前複合規範中移除,並將其新增到新的複合規範中。如果未找到鍵,則使用指定的預設值。返回新的複合規範。

引數:
  • *keys (NestedKey) – 要從複合規範中提取的一個或多個鍵。每個鍵可以是單個鍵或巢狀鍵。

  • default (Any, optional) – 如果在複合規範中未找到指定的鍵時使用的值。預設為 None

返回:

包含提取的鍵及其關聯值的新複合規範。

返回型別:

Composite

注意

如果找不到任何指定的鍵,則此方法返回 None

set(name: str, spec: TensorSpec) Composite[]

在複合規範中設定一個規範。

squeeze(dim: int | None = None)[]

返回一個新的規範,其中所有大小為 1 的維度都被移除。

當給定 dim 時,僅在該維度上執行壓縮操作。

引數:

dim (int or None) – 要應用壓縮操作的維度

to(dest: Union[dtype, device, str, int]) Composite[]

將 TensorSpec 轉換為指定裝置或資料型別。

如果未進行更改,則返回相同的規範。

to_numpy(val: TensorDict, safe: Optional[bool] = None) dict[]

返回輸入張量對應的 np.ndarray

這旨在作為 encode() 的逆操作。

引數:
  • val (torch.Tensor) – 要轉換為 numpy 的張量。

  • safe (bool) – 布林值,指示是否應對值對照規範域執行檢查。預設為 CHECK_SPEC_ENCODE 環境變數的值。

返回:

一個 np.ndarray。

type_check(value: Union[Tensor, TensorDictBase], selected_keys: Optional[Union[str, Sequence[str]]] = None)[]

檢查輸入值的 dtype 是否與 TensorSpecdtype 匹配,如果不匹配則引發異常。

引數:
  • value (torch.Tensor) – 需要檢查其資料型別的張量。

  • key (str, optional) – 如果 TensorSpec 有鍵,則值的 dtype 將對照由指定鍵指向的規範進行檢查。

unflatten(dim: int, sizes: Tuple[int]) T

解展平一個 TensorSpec

請查閱 unflatten() 以獲取有關此方法的更多資訊。

unlock_(recurse: bool | None = None) T[]

解鎖此複合物件並允許修改其內容。

這僅是第一級鎖定修改,除非透過 recurse 引數另有指定。

unsqueeze(dim: int)[]

返回一個新的規範,其中增加一個大小為 1 的維度(位於由 dim 指定的位置)。

引數:

dim (int or None) – 要應用擴充套件維度操作的維度。

values(include_nested: bool = False, leaves_only: bool = False, *, is_leaf: Callable[[type], bool] | None = None) _CompositeSpecValuesView[]

複合物件的值。

引數:
  • include_nested (bool, optional) – 如果為 False,返回的鍵將不是巢狀的。它們只表示根節點的直接子節點,而不是整個巢狀序列,例如 Composite(next=Composite(obs=None)) 將產生鍵 ["next"]. 預設值為 ``False``,即不返回巢狀鍵。

  • leaves_only (bool, optional) – 如果為 False,返回的值將包含每一層巢狀,例如 Composite(next=Composite(obs=None)) 將產生鍵 ["next", ("next", "obs")]。預設值為 False

關鍵字引數:

is_leaf (callable, optional) – 讀取一個型別並返回一個布林值,指示該型別是否應被視為葉子節點。預設情況下,所有非 Composite 節點都被視為葉子節點。

view(*shape) T

重塑一個 TensorSpec

請查閱 reshape() 以獲取有關此方法的更多資訊。

zero(shape: Optional[Size] = None) TensorDictBase[]

返回在該範圍內填充為 0 的張量。

注意

即使無法保證 0 屬於規範域,當此條件違反時,此方法也不會引發異常。zero 的主要用例是生成空資料緩衝區,而不是有意義的資料。

引數:

shape (torch.Size) – 填充為 0 的張量的形狀

返回:

在 TensorSpec 範圍內抽樣得到的填充為 0 的張量。

zeros(shape: torch.Size = None) torch.Tensor | TensorDictBase

zero() 的代理。

文件

查閱 PyTorch 的完整開發者文件

查閱文件

教程

獲取針對初學者和高階開發者的深度教程

查閱教程

資源

查詢開發資源並獲得問題解答

查閱資源