本文集是本人在coursera上学习吴恩达-机器学习的笔记。相关说明会在这一页上更新。 课程主页https://www.coursera.org...
一、引子 对于非线性的分类问题,当自变量较多的时候,用之前的回归的方法就会非常复杂,因为在我们要拟合的函数项的可能性会爆炸。例如,如果我们有10...
过拟合 特征多了,模型对当前的样本高度拟合,但一旦换一组样本,会出现极大的偏差。我们如何解决过拟合的问题呢? 减少特征(人为选择或者利用算法模型...
多分类的例子: 邮件标签:工作、家庭、兴趣爱好... 身体状况:健康、亚健康、患病... ...用图表示:二元分类多分类我们已经知道了对于二元分...
一、代价函数 我们希望获得凸(convex)函数,这样的函数有更好的收敛性。因此我们不能直接使用之前线性回归用的代价函数。 当y=1时,有:h→...
假设函数的表达式 逻辑回归模型 我们希望 0≤h≤1,可以设h=g(θ.T x)令g(z)=1/(1+e^(-z))这个函数g叫做sigmoid...
〇、数学表示 n: 特征量的维度 下图表示第i个样本的特征向量的第j个特征分量 h(x)=θ0x0+θ1x1+θ2x2+θ3x3+...+θnx...
梯度下降在整个机器学习中都很重要 〇、问题回顾 找到θ0、θ1,最小化代价函数J(θ0,θ1) outline 初始化θ0,θ1 调整θ0、θ1...
一、监督学习的模型 m:训练样本数目 x:输入变量/特征量 y:输出变量/目标变量 (x(i),y(i)):第i个训练样本 x(i):第i个训练...