pytorch各种学习率衰减器

阅读: 评论:0

pytorch各种学习率衰减器

pytorch各种学习率衰减器

各种学习率衰减器

各类衰减器文档:【here】

指数衰减

torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma=0.98)


一般将last_epoch 设置成-1,verbose设置成FALSE
学习率调整公式:

固定步长衰减

torch.optim.lr_scheduler.StepLR(optimizer, step_size=step_size, gamma=0.1)
参数:
optimizer (Optimizer):的优化器;
step_size(int):更新epoch;
gamma(float):更新lr的乘法因子;
last_epoch (int):默认-1

多步长衰减

torch.optim.lr_scheduler.MultiStepLR(optimizer,milestones=[20,50], gamma=0.8)


余弦退火衰减

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=60, eta_min=0)


T_max为余弦函数的一个半周期

函数衰减

lambda1 = lambda i: 0.1 * i
torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1, verbose=False)
#lr = lr *lamda

自适应调整衰减

torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

warm up

先将学习率从很小的值逐渐上升,再用现有的学习率衰减器

预热余弦退火

torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer, T_0=20, T_mult=2, eta_min=0.01)


T_0和T_mult的不同设置的比较

本文发布于:2024-02-02 10:06:27,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170683958843083.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:衰减器   pytorch
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23