在PyTorch中,可以通过访问优化器对象(optimizerobject)来查看当前的学习率。优化器对象通常在训练循环中使用,用于更新模型参数。以下是一个查看当前学习率的示例代码:```pythonimporttorch.op
在 PyTorch 中,可以通过访问优化器对象(optimizer object)来查看当前的学习率。优化器对象通常在训练循环中使用,用于更新模型参数。以下是一个查看当前学习率的示例代码:
```python
import torch.optim as optim
# 定义一个模型和一个优化器
model=MyModel()
optimizer=optim.Adam(model.parameters(), lr=0.001)
# 查看当前学习率
print(optimizer.param_groups[0]['lr'])
```
在上面的示例代码中,`optimizer.param_groups` 是一个列表,其中的每个元素都代表一个参数组,包含了该参数组对应的学习率等信息。由于我们只有一个参数组,因此我们可以通过访问 `optimizer.param_groups[0]` 来获取该参数组的信息,然后通过 `'lr'` 键来获取当前的学习率。
要调整模型训练的学习率,可以通过修改优化器对象中的学习率来实现。以下是一个调整学习率的示例代码:
```python
import torch.optim as optim
# 定义一个模型和一个优化器
model=MyModel()
optimizer=optim.Adam(model.parameters(), lr=0.001)
# 调整学习率
new_lr=0.0001
for param_group in optimizer.param_groups:
param_group['lr']=new_lr
```
在上面的示例代码中,我们首先定义了一个模型和一个优化器,并将学习率设置为 0.001。然后,我们通过遍历优化器对象中的参数组,并修改 `'lr'` 键来将学习率调整为 0.0001。需要注意的是,由于优化器对象中可能包含多个参数组,因此我们需要遍历所有的参数组才能将学习率调整到我们希望的值。