代价函数与目标函数 - as火柴人
一。引入
在机器学习过程中,在ppt上看到一句话,大部分的分类,回归,聚类算法,不过就是迭代,选择参数,优化目标函数。所以把代价函数整理一下。
损失函数:单个样本的误差
代价函数:损失函数的平均(让代价函数最小)
目标函数:需要优化的函数,等于经验风险+结构化风险(正则化项)
最小化代价函数是为了优化目标函数服务的。
二 代价函数
线性回归:用得比较多的是均方误差。
逻辑回归:交叉熵
原理解释:对于线性回归问题,均方误差就是衡量拟合误差的很好理解,但是逻辑回归问题需要解释一下。
其中
代价函数是为了衡量h(x)拟合y的好坏,所以当h(x)很好地拟合了y的时候,损失函数值要比较小,当拟合得很差时,损失函数就很大。这样其均值,即代价函数才能很好地表示模型拟合的好坏。
当y=1的时候,Cost(h(x), y) = -log(h(x))。h(x)的值趋近于1的时候,代价函数的值越小趋近于0,也就是说预测的值h(x)和训练集结果y=1越接近,预测错误的代价越来越接近于0,分类结果为1的概率为1。当h(x)的值趋近于0的时候,代价函数的值无穷大,也就说预测的值h(x)和训练集结果y=1越相反,预测错误的代价越来越趋于无穷大,分类结果为1的概率为0
参考:https://blog.csdn.net/lyl771857509/article/details/79428475
补充:https://www.cnblogs.com/lliuye/p/9549881.html