学习率衰减代码pytorch
时间: 2023-12-15 09:32:57 浏览: 124
pytorch动态调整学习率
以下是PyTorch中学习率衰减的代码示例:
```python
import torch.optim as optim
from torch.optim.lr_scheduler import StepLR
# 定义优化器和初始学习率
optimizer = optim.SGD(model.parameters(), lr=0.1)
# 定义学习率衰减策略
scheduler = StepLR(optimizer, step_size=30, gamma=0.1)
# 在训练过程中更新学习率
for epoch in range(100):
train(...)
validate(...)
scheduler.step()
```
在这个例子中,我们使用了PyTorch内置的`optim`模块来定义优化器,并将其传递给`StepLR`学习率调度程序。`step_size`参数表示每经过多少个epoch后,学习率将会衰减,`gamma`参数表示衰减的比例。在训练过程中,我们可以通过调用`scheduler.step()`来更新学习率。
阅读全文