1.我们希望找到一条与数据拟合的直线,所以我们构造了下面这个假设函数,包括theta0和theta1,随着参数的选择不同,我们会得到不同的直线,和数据相符额直线如下图绿色直线,代价函数是J(theta0,theta1),我们的目标是最小化代价函数

  2.为了更好的使得代价函数J可视化,我们使用一个简化的假设函数,如下图中所示,假设函数只包括一个参数theta1,代价函数和之前的类似,这里我们的目标就是尽量优化J的值。

  

  3.假设函数和代价函数是需要我们仔细了解的关键函数

    (1)假设函数是在给定theta1的情况下,是一个关于x的函数

    (2)代价函数J是关于theta1的函数,theta1控制着直线的斜率

    (3)假设threta1等于1,我们要弄清楚的是当theta1=1的时候,J(theta1)的值,接下来计算代价函数的第一个值

 

    这里我们知道J(1)=0

  

    代价函数是三段直线的高度和。然后代价函数的计算如下:

  

     (4)当theta1=0的时候,可以计算绘制下图

 

 

 

 

    (5)当theta1=-0.5的时候,代价函数的值很大,约为5.25

    (6)经过一些列的计算,可以得到下面的值

  

    (7)对于每一个theta1的值,都对应着一个假设函数,对应着不同的直线,同时也可以找到不同的J(theta1)的值

      所以我们学习算法的目的是选择不同的theta1的值,求出最小的J(theta)的值,这就是线性回归的目标函数

 

版权声明:本文为bigdata-stone原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/bigdata-stone/p/10299251.html