前面我们介绍了k折交叉验证的原理,本文我们进行实践,来看一下通过k折交叉验证完成超参数学习率的调节。本文我们使用xgboost来完成文本分类的任务,但是使用xgboost的时候需要指定学习率,那么此时我们就需要完成学习率的调参工作,究竟哪个学习率最合适呢?
本文我们设置如下所示的学习率,那么究竟哪个学习率最合适呢?
learning_rate=[0.001,0.001,0.01,0.1,0.3,0.9]
下面我们使用交叉验证方式确定究竟哪个超参数才是最好的
首先我们先导入我们所需要的python库,如下所示:
del_selection import StratifiedKFold
del_selection import GridSearchCV
这两个库一个是k折交叉验证,一个是调参利器网格搜索,我们二者结合就可以快速找到最佳的超参数学习率
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2)
learning_rate=[0.001,0.001,0.01,0.1,0.3,0.9]
param_grid=dict(learning_rate=learning_rate)
model=XGBClassifier()
kfold=Stratified
本文发布于:2024-01-28 19:36:15,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/17064417819777.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |