有两个方面:
1.数据的随机性化
2.待选特征的随机化
使得随机森林中的决策树都能够彼此不同,提升系统的多样性,从而提升分类性能。
收集数据:任何方法
准备数据:转换样本集
分析数据:任何方法
训练算法:通过数据随机化和特征随机化,进行多实例的分类评估
测试算法:计算错误率
使用算法:输入样本数据,然后 进行随机森算法判断输入数据属于哪一类别,最后对计算出的分类执行后续处理
优点:几乎不需要输入准备,可实现隐式特征选择,训练速度非常快,其他模型很难超越。
缺点:模型大小是个很难去解释的黑盒子。
在调参时,可以参考这个顺序:
案例背景:根据用户状态数据和其采用的改善方法,预测其改善效果。即已知P和X,预测Y。
实现代码:
**********************************************导入库********************************************************
semble import RandomForestClassifier
del_selection import GridSearchCV #网格搜索
del_selection import cross_val_score #交叉验证
import matplotlib.pyplot as plt
import pandas as pd
import numpy as np****************************************导入数据集,探索数据**************************************************
path=r'C:UsersHPDesktopdata.csv'
dataad_csv(path,encoding='gbk')**********************************************归一化*********************************************************
max_min_scaler = lambda x : (x-np.min(x))/(np.max(x)-np.min(x))#归一化
data[['症状1','症状2','症状3','症状4','症状5','症状6','症状7','症状8','症状9','症状10','症状11','症状12','症状13']]=
data[['症状1','症状2','症状3','症状4','症状5','症状6','症状7','症状8','症状9','症状10','症状11','症状12','症状13']].apply(max_min_scaler)
train=data.loc[0:89999,:]#前90000行作为训练集
test=data.loc[90000:100000,:]#测试集******************************************设置训练集和测试集***************************************************
train_y=train['效果']#训练标签
train_x=train.drop('效果',axis=1)#训练参数
test_y=test['效果']
test_x=test.drop('效果',axis=1)********************************************随机森林建模预测***************************************************
clf=RandomForestClassifier(n_estimators=100)#定义随机森林
clf.fit(np.array(train_x),np.array(train_y))#训练
result=clf.predict(np.array(test_x))#预测
print('预测病情结果如下')
print(result)#输出结果
accurate=(result==test_y)#输出结果与应有的效果比较,True代表一样,False代表不一样
print(accurate.value_counts())
#结果:
预测病情结果如下
[1 1 0 ... 1 0 1]
True 5878
False 4122
Name: 效果, dtype: int64*******************************************学习曲线调参n_estimators*********************************************
scorel = []#十次交叉验证的均值
for i in range(0,200,10):clf = RandomForestClassifier(n_estimators=i+1,n_jobs=-1,random_state=90)score = cross_val_score(clf,test_x,test_y,cv=10).mean()scorel.append(score)
print(max(scorel),(scorel.index(max(scorel))*10)+1)#打印十次交叉的均值和索引
plt.figure(figsize=[20,5])
plt.plot(range(1,201,10),scorel)
plt.show()
#结果:
0.5891211820243883 131
学习曲线如图1, n_estimators取131***********************************************进一步细化学习曲线***********************************************
scorel = []#十次交叉验证的均值
for i in range(35,45):clf = RandomForestClassifier(n_estimators=i,n_jobs=-1,random_state=90)score = cross_val_score(clf,test_x,test_y,cv=10).mean()scorel.append(score)
print(max(scorel),([*range(125,135)][scorel.index(max(scorel))]))#打印十次交叉的均值和索引
plt.figure(figsize=[20,5])
plt.plot(range(125,135),scorel)
plt.show()
#结果:
0.5861234791260843 134
学习曲线如图2,n_estimators取134***********************************************网格搜索,调整max_depth*****************************************
param_grid = {'max_depth':np.arange(1,20,1)}
clf = RandomForestClassifier(n_estimators=134,random_state=90)
GS = GridSearchCV(clf,param_grid,cv=10)
GS.fit(test_x,test_y)
GS.best_params_
GS.best_score_
#结果:
{'max_depth': 8}
0.6154*********************************************网格搜索,调整min_samples_leaf************************************
param_grid = {'min_samples_leaf':np.arange(1,20,1)}
clf = RandomForestClassifier(n_estimators=134,max_depth=8,random_state=90)
GS = GridSearchCV(clf,param_grid,cv=10)
GS.fit(test_x,test_y)
GS.best_params_
GS.best_score_
#结果:
{'min_samples_leaf': 5}
0.6161*********************************************网格搜索,调整min_samples_split************************************
param_grid = {'min_samples_split':np.arange(2,20,1)}
clf = RandomForestClassifier(n_estimators=134,max_depth=8,min_samples_leaf=5,random_state=90)
GS = GridSearchCV(clf,param_grid,cv=10)
GS.fit(test_x,test_y)
GS.best_params_
GS.best_score_
#结果:
{'min_samples_split': 2}
0.6161***************************************************网格搜索,调整max_features*************************************
param_grid = {'max_features':np.arange(1,20,1)}
clf = RandomForestClassifier(n_estimators=134,max_depth=8,min_samples_leaf=5,random_state=90GS = GridSearchCV(clf,param_grid,cv=10)
GS.fit(test_x,test_y)
GS.best_params_
GS.best_score_
#结果:
{'max_features': 4}
0.6161*****************************************************网格搜索,调整criterion***************************************
param_grid = {'criterion':['gini','entropy']}
clf = RandomForestClassifier(n_estimators=134,max_depth=8,min_samples_leaf=5,random_state=90)
GS = GridSearchCV(clf,param_grid,cv=10)
GS.fit(test_x,test_y)
GS.best_score_
#结果:
0.6152(下降了)
图1:
图2:
本文发布于:2024-02-01 17:01:45,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170677810738126.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |