1.主成分分析
sklearn.decomposition.PCA
2.lda
pca映射后数据更发散,lda分类效果更好。
3.皮尔逊相关系数
如果有10个特征,选择合适的来建模,有一点像我研究生的工作。
scipy.stats.pearsonr
皮尔逊相关系数介于-1与1之间,越接近1则代表越正相关。
4.卡方检验
统计样本的观测值与理论推断值之间的偏离程度。
5.数据抽样
numpy.random.choice()
1.主成分分析
sklearn.decomposition.PCA
2.lda
pca映射后数据更发散,lda分类效果更好。
3.皮尔逊相关系数
如果有10个特征,选择合适的来建模,有一点像我研究生的工作。
scipy.stats.pearsonr
皮尔逊相关系数介于-1与1之间,越接近1则代表越正相关。
4.卡方检验
统计样本的观测值与理论推断值之间的偏离程度。
5.数据抽样
numpy.random.choice()