240 发简信
IP属地:上海
  • 【机器学习】关于

    本文集是本人在coursera上学习吴恩达-机器学习的笔记。相关说明会在这一页上更新。 课程主页https://www.coursera.org...

  • Resize,w 360,h 240
    【神经网络】表征

    一、引子 对于非线性的分类问题,当自变量较多的时候,用之前的回归的方法就会非常复杂,因为在我们要拟合的函数项的可能性会爆炸。例如,如果我们有10...

  • 【过拟合】

    过拟合 特征多了,模型对当前的样本高度拟合,但一旦换一组样本,会出现极大的偏差。我们如何解决过拟合的问题呢? 减少特征(人为选择或者利用算法模型...

  • Resize,w 360,h 240
    【多分类】

    多分类的例子: 邮件标签:工作、家庭、兴趣爱好... 身体状况:健康、亚健康、患病... ...用图表示:二元分类多分类我们已经知道了对于二元分...

  • 【逻辑回归】

    一、代价函数 我们希望获得凸(convex)函数,这样的函数有更好的收敛性。因此我们不能直接使用之前线性回归用的代价函数。 当y=1时,有:h→...

  • 【机器学习】分类问题

    假设函数的表达式 逻辑回归模型 我们希望 0≤h≤1,可以设h=g(θ.T x)令g(z)=1/(1+e^(-z))这个函数g叫做sigmoid...

  • 【线性回归】多元的线性回归

    〇、数学表示 n: 特征量的维度 下图表示第i个样本的特征向量的第j个特征分量 h(x)=θ0x0+θ1x1+θ2x2+θ3x3+...+θnx...

  • Resize,w 360,h 240
    【线性回归】梯度下降

    梯度下降在整个机器学习中都很重要 〇、问题回顾 找到θ0、θ1,最小化代价函数J(θ0,θ1) outline 初始化θ0,θ1 调整θ0、θ1...

  • Resize,w 360,h 240
    【监督学习】模型和代价函数

    一、监督学习的模型 m:训练样本数目 x:输入变量/特征量 y:输出变量/目标变量 (x(i),y(i)):第i个训练样本 x(i):第i个训练...