Tree ensemble算法中feature importance计算方法

编程入门 行业动态 更新时间:2024-10-27 22:33:15

基于Tree的集成机器学习算法已经成为机器学习领域的主流算法。我们在做任何一个机器学习任务时,大部分的精力都会放在特征工程上(Feature Engineering)。我们通常会采用前向或后向策略,根据模型的结果进行特征选择。然而,在使用Tree ensemble算法时,有一个更有用的模型属性(feature importance),我们经常用它来进行特征选择。所以,有必要介绍一下feature importance的计算公式,便于大家更好理解特征和模型。

Friedman在GBM[1]的论文中提出的方法:

特征 xj 在整个模型中的重要程度为:
J2j^=1MMm=1J2j^(Tm)
其中,M是模型中树的数量。特征 xj 在单独一个树上的特征重要度为:
J2j^(T)=L1t=1I2t^1(vt=j)
其中, L1 是树中非叶子节点数量, vt 表示在内部节点t进行分裂时选择的特征, I2t^ 是内部节点t分裂后平方损失的减少量。

J. H. Friedman. 2001. Greedy Function Approximation: A
Gradient Boosting Machine. Annals of Statistics 29(5):1189-
1232.

更多推荐

Tree ensemble算法中feature importance计算方法

本文发布于:2023-06-14 04:42:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1439384.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:算法   计算方法   ensemble   Tree   feature

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!