快捷方式

DTLoss

class torchrl.objectives.DTLoss(*args, **kwargs)[原始碼]

TorchRL 實現的線上 Decision Transformer 損失函式。

“Decision Transformer: Reinforcement Learning via Sequence Modeling” <https://arxiv.org/abs/2106.01345> 中提出

引數:

actor_network (ProbabilisticActor) – 隨機執行者網路

關鍵字引數:
  • loss_function (str) – 要使用的損失函式。預設為 "l2"

  • reduction (str, optional) – 指定應用於輸出的歸約方式:"none" | "mean" | "sum""none":不應用歸約,"mean":輸出的總和除以輸出中的元素數量,"sum":對輸出求和。預設為 "mean"

default_keys

_AcceptedKeys 的別名

forward(tensordict: TensorDictBase = None) TensorDictBase[原始碼]

計算線上 Decision Transformer 的損失。

文件

查閱全面的 PyTorch 開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深度教程

檢視教程

資源

查詢開發資源並獲取問題解答

檢視資源