几种常见的损失函数「建议收藏」

几种常见的损失函数「建议收藏」1.损失函数、代价函数与目标函数  损失函数(LossFunction):是定义在单个样本上的,是指一个样本的误差。  代价函数(CostFun

大家好,又见面了,我是你们的朋友全栈君。

1. 损失函数、代价函数与目标函数

  损失函数(Loss Function):是定义在单个样本上的,是指一个样本的误差。
  代价函数(Cost Function):是定义在整个训练集上的,是所有样本误差的平均,也就是所有损失函数值的平均。
  目标函数(Object Function):是指最终需要优化的函数,一般来说是经验风险+结构风险,也就是(代价函数+正则化项)。

2. 常用的损失函数

  这一节转载自博客

(1)0-1损失函数(0-1 loss function)

\[L(y, f(x)) = \begin{cases} 1, & {y \neq f(x) } \\ 0, & {y = f(x)} \end{cases} \]

  也就是说,当预测错误时,损失函数为1,当预测正确时,损失函数值为0。该损失函数不考虑预测值和真实值的误差程度。只要错误,就是1。

(2)平方损失函数(quadratic loss function)

\[L(y, f(x)) = (y – f(x))^2 \]

  是指预测值与实际值差的平方。

(3)绝对值损失函数(absolute loss function)

\[L(y, f(x)) = | y -f(x) | \]

  该损失函数的意义和上面差不多,只不过是取了绝对值而不是求绝对值,差距不会被平方放大。

(4)对数损失函数(logarithmic loss function)

\[L(y, p(y|x)) = – \log p(y|x) \]

  这个损失函数就比较难理解了。事实上,该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的概率。由于概率之间的同时满足需要使用乘法,为了将其转化为加法,我们将其取对数。最后由于是损失函数,所以预测正确的概率越高,其损失值应该是越小,因此再加个负号取个反。

(5)Hinge loss

  Hinge loss一般分类算法中的损失函数,尤其是SVM,其定义为:

\[L(w,b) = max \{0, 1-yf(x) \} \]

  其中 $ y = +1 或 y = -1 $ ,$ f(x) = wx+b $ ,当为SVM的线性核时。


3. 常用的代价函数

(1)均方误差(Mean Squared Error)

\[MSE = \frac{1}{N} \sum_{i=1}^N (y^{(i)} – f(x^{(i)}))^2 \]

  均方误差是指参数估计值与参数真值之差平方的期望值; MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。( $ i $ 表示第 $ i $ 个样本,$ N $ 表示样本总数)
  通常用来做回归问题的代价函数

(2)均方根误差

\[RMSE = \sqrt{\frac{1}{N} \sum_{i=1}^N (y^{(i)} – f(x^{(i)}))^2 } \]

  均方根误差是均方误差的算术平方根,能够直观观测预测值与实际值的离散程度。
  通常用来作为回归算法的性能指标

(3)平均绝对误差(Mean Absolute Error)

\[MAE = \frac{1}{N} \sum_{i=1}^N |y^{(i)} – f(x^{(i)})| \]

  平均绝对误差是绝对误差的平均值 ,平均绝对误差能更好地反映预测值误差的实际情况。
  通常用来作为回归算法的性能指标

(4)交叉熵代价函数(Cross Entry)

\[H(p,q) = – \sum_{i=1}^{N} p(x^{(i)}) \log {q(x^{(-i)})} \]

  交叉熵是用来评估当前训练得到的概率分布与真实分布的差异情况,减少交叉熵损失就是在提高模型的预测准确率。其中 $ p(x) $ 是指真实分布的概率, q(x) 是模型通过数据计算出来的概率估计。
  比如对于二分类模型的交叉熵代价函数(可参考逻辑回归一节):

\[L(w,b) = -\frac{1}{N} \sum_{i=1}^{N} (y^{(i)} \log {f(x^{(i)})} + ( 1- y^{(i)}) \log {(1- f(x^{(i)})})) \]

  其中 $ f(x) $ 可以是sigmoid函数。或深度学习中的其它激活函数。而 $ y^{(i)} \in { 0,1 } $ 。
  通常用做分类问题的代价函数。


引用及参考:
[1] https://blog.csdn.net/reallocing1/article/details/56292877
[2] https://blog.csdn.net/m_buddy/article/details/80224409
[3] https://blog.csdn.net/chaipp0607/article/details/76037351
[4] https://blog.csdn.net/shenxiaoming77/article/details/51614601

写在最后:本文参考以上资料进行整合与总结,文章中可能出现理解不当的地方,若有所见解或异议可在下方评论,谢谢!
若需转载请注明https://www.cnblogs.com/lliuye/p/9549881.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/154310.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • leetcode-19删除链表的倒数第 N 个结点

    leetcode-19删除链表的倒数第 N 个结点原题链接给你一个链表,删除链表的倒数第 n 个结点,并且返回链表的头结点。进阶:你能尝试使用一趟扫描实现吗?示例 1:输入:head = [1,2,3,4,5], n = 2输出:[1,2,3,5]示例 2:输入:head = [1], n = 1输出:[]示例 3:输入:head = [1,2], n = 1输出:[1]提示:链表中结点的数目为 sz1 <= sz <= 300 <= Node.val <= 1001 <= n <= s

    2022年8月9日
    4
  • Java面试题大全(2020版)[通俗易懂]

    发现网上很多Java面试题都没有答案,所以花了很长时间搜集整理出来了这套Java面试题大全,希望对大家有帮助哈~本套Java面试题大全,全的不能再全,哈哈~一、Java基础1.JDK和JRE有什么区别?JDK:JavaDevelopmentKit的简称,java开发工具包,提供了java的开发环境和运行环境。 JRE:JavaRuntimeEnviron…

    2022年4月9日
    39
  • TensorFlow DCNN

    TensorFlow DCNNDeepConvolutionalNeuralNetwork,DCNN计算机视觉三大核心问题:图像分类物体检测图像语义分割图像语义分割是将图像分割成几组有某种特定语义含义的像素部分,最终获得具有语义标注的图像。应2012年AlexNet诞生,它是8层的DCNN,以10%的优势击败了传统图像构建特征方法,在1000类的图像分类任务中获得冠军。参考:笔记:基于DCNN的图…

    2022年5月5日
    55
  • 计算距离矩阵的方法_矩阵的欧式距离

    计算距离矩阵的方法_矩阵的欧式距离给定一个 N 行 M 列的 01 矩阵 A,A[i][j] 与 A[k][l] 之间的曼哈顿距离定义为:dist(A[i][j],A[k][l])=|i−k|+|j−l|输出一个 N 行 M 列的整数矩阵 B,其中:B[i][j]=min1≤x≤N,1≤y≤M,A[x][y]=1dist(A[i][j],A[x][y])输入格式第一行两个整数 N,M。接下来一个 N 行 M 列的 01 矩阵,数字之间没有空格。输出格式一个 N 行 M 列的矩阵 B,相邻两个整数之间用一个空格隔开。数据范围

    2022年8月8日
    7
  • AV有马赛克吗_视频某个地方加马赛克

    AV有马赛克吗_视频某个地方加马赛克程序员的成长之路互联网/程序员/技术/资料共享关注阅读本文大概需要2.8分钟。来自:网络,侵删近日一位43岁的岛国男性,利用AI技术去除18禁视频马赛克,到处贩售。在岛国舆论一片哗然…

    2022年9月28日
    5
  • 5 types of thresholding「建议收藏」

    5 types of thresholding「建议收藏」threshold

    2022年5月30日
    36

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号