240 发简信
IP属地:上海
  • 各种集成方法比较

    各种集成方法比较 1. AdaBoost和RF AdaBoost改变了训练数据的权值,即样本的概率分布,减少上一轮被正确分类的样本权值,提高被错误分类的样本权值,而随机森林在...

  • GBDT进化->XGBoost & LightGBM简记

    很全面的阐释XGBoost: 集成学习之Boosting —— XGBoost 大体来看,XGBoost 在原理方面的改进主要就是在损失函数上作文章。一是在原损失函数的基础上...

  • XGBoost三种特征重要性计算方法对比

    特征重要性作用与来源 特征重要性,我们一般用来观察不同特征的贡献度。排名靠前的,我们认为是重要的。这一思路,通常被用来做特征筛选。剔除贡献度不高的尾部特征,增强模型的鲁棒性...

  • 逐步回归

    Stepwise Regression 逐步回归算法可以用来筛选以及拟合特征,来实现特征的降维,主要是再Y对应多个x_i的情况(即一个因变量对应多个自变量的情况,也可称为多元...

  • 经常看书和不经常看书的区别

    经常看书得看是看什么书,玛丽苏一类的,成功学一类的,养生保健一类的,看再多都跟那些不看书的没区别。 但是, 如果是一个经常看马克思,看毛选,看邓选,看亚当斯密之类经济政治等理...