Python代码

  1. def computeCost(X, y, theta):
  2. inner = np.power(((X * theta.T) - y), 2)
  3. return np.sum(inner) / (2 * len(X))







梯度下降算法收敛所需要的迭代次数根据模型的不同而不同,我们不能提前预知,我们可以绘制迭代次数和代价函数的图表来观测算法在何时趋于收敛。



梯度下降算法的每次迭代受到学习率的影响,如果学习率α过小,则达到收敛所需的迭代次数会非常高;如果学习率α过大,每次迭代可能不会减小代价函数,可能会越过局部最小值导致无法收敛。









参考黄海广博士

版权声明:本文为fangzhiyou原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/fangzhiyou/p/12602167.html