240 发简信
IP属地:北京
  • Resize,w 360,h 240
    信息熵与交叉熵

    信息熵一条信息的信息量和它的不确定性有关系,对于不知道不了解的事情,所需要的信息量更大。 对于大概率发生的事情的信息量较小,而越小概率的事情发生...

  • 爬虫 外汇牌价

    需求:爬取每天00:00:05的个别币种中行外汇价格

  • 验证码的图像处理

    突然发现可以用markdown插入代码的╮(╯▽╰)╭ 可以使用ImageEnhance方法对图像进行处理,首先改变图像的对比度,使用Image...

  • log和box-cox变换

    1. 通常对于y进行log变换,因为诸如线性模型、SVM等要求target variable是服从正态分布的 2. 对于特征值服从偏态分布的,可...

  • 误差项服从正态分布时,最小二乘法等同于极大似然估计

    关于“误差项服从正态分布时,最小二乘法等同于极大似然估计“这句话尝试推导了一下,如有错误请指正

  • Resize,w 360,h 240
    Ridge Regression、Lasso Regression和Elastic Net Regression

    本文为初学者个人理解,既不规范也不全面,还有可能理解有误,慎入。 Ridge Regression(称岭回归或脊回归)、Lasso Regres...

  • 归一化

    归一化其实就是把数据scale缩小到一定范围内,就像概率中相关系数是协方差的归一化结果。 对定性型特征采用one-hot,对定量型特征采...

  • Resize,w 360,h 240
    one-hot encoding

    one-hot encoding与哑变量均用于将定性特征转为定量特征。注:无序列要求的定量,若有序,考虑用map。 one-hot en...

个人介绍
机器学习初学者,如有错误请指正
csdn博客地址:https://blog.csdn.net/tofu_jelly