240 发简信
IP属地:北京
  • 0x10_为什么系列

    1、为什么要有监督类算法? A:在提炼算法的过程中,需要从中发现“规律”,那就是通过数据本身的属性去进行总结和归纳,本着有因有果的表象,需要对问...

  • Resize,w 360,h 240
    0x09_SVM

    支持向量机,解决的是分类问题,非监督分类。相比逻辑回归中根据sigmoid函数将“结果”压缩到0-1区间,根据概率函数进行建模,而SVM则是将数...

  • 0x08_主成分分析法

    PCA(Principal Component Analysis),即主成分分析方法,是一种使用最广泛的数据降维算法(非监督的机器学习方法)。 ...

  • Resize,w 360,h 240
    0x07_决策树

    决策树学习本质上是从训练数据集中归纳出一组分类规则。 决策树学习算法有三个步骤: 1、特征选择(选择最优划分属性) 2、决策树生成 3、决策...

  • Resize,w 360,h 240
    0x06_逻辑回归

    在之前学习线性回归算法时,是做预测,相比逻辑回归本身是做分类。逻辑回归是通过sigmoid函数整合将预测值进行相应转换: 逻辑回归本质是求概率...

  • Resize,w 360,h 240
    0x05_多元线性回归+偏差与方差+L12正则

    #多元线性回归 通俗理解为 多元N次方程组,数据多了,靠拼凑。升维以解决高拟合。 #偏差与方差 偏差:模型的预测值与实际值的差距; 方差:模型在...

  • 机器学习_语义处理

    在看到语义处理——降维处理环节时,有用到LSA(潜语义分析)通过对大量的文本集进行统计分析,从中提取出词语的上下文使用含义。 LSA和传统向量空...

  • 0x04_梯度下降

    看完“还不了解梯度下降法?看完这篇就懂了!”这句话印象最深刻:首先梯度下降(Gradient Descent, GD),不是一个机器学习算...

  • Resize,w 360,h 240
    0x03_线性回归方程_最小二乘和梯度下降法

    最基本的算法:一元线性回归方程 y=f(x)=aX+b 以前的应用题是解 一元一次方程组, 给出2组数据,即可求出a,b。 现在给出N 组数据,...