admin管理员组文章数量:1650772
第一种方法:
这种方法是唐宇迪老师视频课里的,做了很小的改动,代码如下:
# 得到特征重要性
importances = list(rf.feature_importances_)
feature_importances = [(feature, round(importance, 2)) for feature, importance in zip(feature_list, importances)]
print(type(feature_importances))
# 排序-降序,key参数决定按哪一列进行排序,lambda函数确定出按第二列排序
feature_importances = sorted(feature_importances, key =lambda x:x[1], reverse = True)
print(feature_importances)
# 对应进行打印
[print('Variable: {} Importance: {}'.format(*pair)) for pair in feature_importances]
显示结果:
第二种方法:
自己写的:
importances=np.reshape(np.round(np.array(rf.feature_importances_),2),(-1,1))
feature_list=np.reshape(np.array(feature_list),(-1,1))
feature_importances=np.hstack((feature_list, importances))
#print(importances,feature_list,feature_importances)
feature_importances=pd.DataFrame(feature_importances,columns=('features','importance'))
print(feature_importances)
feature_importances.sort_values(by=['importance'],ascending = [False],inplace=True)
print(feature_importances)
本文标签: 两种森林方法决策树importances
版权声明:本文标题:决策树-随机森林-两种Feature importances排序方法 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/dianzi/1729533078a1205059.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论