现在来约定一些变量
"m"
= Number of training examples(表示训练样本的数目)
"x"
="input" variable /features (输入变量或者是特征变量)
"y"
="output" variable/"target" variables (输出变量或者目标变量)
Model Representation(模型表示)
Model Representation
线性回归模型(Linear regression)模型,说简单点就是一个关于单变量的线性回归,即单变量线性回归这个变量就是x。
Cost Functon(代价函数)
代价函数的概念,使得我们能够弄清楚如何把最有可能的直线与我们的数据相拟合。代价函数也被称为平方误差函数或者平方误差代价函数。我们之所以要求出误差的平方和,是因为平方误差代价函数对于大多数回归问题都是一个合理的选择。(还有其他的代价函数,但是平方误差代价函数可能是解决回归问题最常用的手段,后续会讨论其他的)
代价函数的工作原理:求出与我们的数据相拟合的最有可能的直线
代价函数到底在计算什么: 误差。因为代价函数实际上是就是代价函数所求的值越小,那么误差就越小,拟合出来的曲线越接近数据的实际情况
Cost Function
Cost Function - Intuition I
通过给假设函数的自变量赋值带入,然后求出J的值,从而手动的拟合出一条曲线,估计出J的最小值。
所以其实根据已经有的点来获得拟合函数,1是可以通过《HeadFirst DA》来直接用excel来拟合,2是可以通过已经有的点来手动拟合这点应该只是高中的知识。3是 可以通过代价函数,求出相关性最大的公式。
更加深入的学习代价函数的作用:
目前为止的重要公式
contour plot 或contour figure都是轮廓图的意思
Cost Function - Intuition II
右边轮廓图中的一个点,就是左边图像中的一条线。
即,我们真正需要的,是编写程序来找出最小化代价函数的θ0和θ1的值,我们需要知道一种算法,能够自动地找出能使代价函数 J 最小化的参数θ0和θ1的值 ,这就要引出下一节讨论的内容——梯度下降函数。