ChainedScheduler¶
- class torch.optim.lr_scheduler.ChainedScheduler(schedulers, optimizer=None)[原始碼][原始碼]¶
將一系列學習率排程器串聯起來。
接受一個可串聯的學習率排程器序列,並在一次 step() 呼叫中依次呼叫它們的 step() 函式。
- 引數
schedulers (sequence) – 串聯的排程器序列。
optimizer (Optimizer, optional) – 包裝的最佳化器。預設值:None。
示例
>>> # Assuming optimizer uses lr = 1. for all groups >>> # lr = 0.09 if epoch == 0 >>> # lr = 0.081 if epoch == 1 >>> # lr = 0.729 if epoch == 2 >>> # lr = 0.6561 if epoch == 3 >>> # lr = 0.59049 if epoch >= 4 >>> scheduler1 = ConstantLR(optimizer, factor=0.1, total_iters=2) >>> scheduler2 = ExponentialLR(optimizer, gamma=0.9) >>> scheduler = ChainedScheduler([scheduler1, scheduler2], optimizer=optimizer) >>> for epoch in range(100): >>> train(...) >>> validate(...) >>> scheduler.step()
- load_state_dict(state_dict)[原始碼][原始碼]¶
載入排程器的狀態。
- 引數
state_dict (dict) – 排程器狀態。應為呼叫
state_dict()返回的物件。