交叉熵代价函数(作用及公式推导)

交叉熵代价函数(作用及公式推导)交叉熵代价函数(Cross-entropycostfunction)是用来衡量人工神经网络(ANN)的输出值与实际值的一种方式。与二次代价函数(Quadraticcostfunction)相比,它能更有效地配合反向传播算法,促进ANN的训练。

大家好,又见面了,我是你们的朋友全栈君。

        交叉熵代价函数(Cross-entropy cost function)是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式。与二次代价函数相比,它能更有效地促进ANN的训练。在介绍交叉熵代价函数之前,本文先简要介绍二次代价函数,以及其存在的不足。


1. 二次代价函数的不足

        ANN的设计目的之一是为了使机器可以像人一样学习知识。人在学习分析新事物时,当发现自己犯的错误越大时,改正的力度就越大。比如投篮:当运动员发现自己的投篮方向离正确方向越远,那么他调整的投篮角度就应该越大,篮球就更容易投进篮筐。同理,我们希望:ANN在训练时,如果预测值与实际值的误差越大,那么在反向传播训练的过程中,各种参数调整的幅度就要更大,从而使训练更快收敛。然而,如果使用二次代价函数训练ANN,看到的实际效果是,如果误差越大,参数调整的幅度可能更小,训练更缓慢。

        以一个神经元的二类分类训练为例,进行两次实验(ANN常用的激活函数为sigmoid函数,该实验也采用该函数):输入一个相同的样本数据x=1.0(该样本对应的实际分类y=0);两次实验各自随机初始化参数,从而在各自的第一次前向传播后得到不同的输出值,形成不同的代价(误差):

交叉熵代价函数(作用及公式推导)

实验1:第一次输出值为0.82

     交叉熵代价函数(作用及公式推导)

实验2:第一次输出值为0.98

        

        在实验1中,随机初始化参数,使得第一次输出值为0.82(该样本对应的实际值为0);经过300次迭代训练后,输出值由0.82降到0.09,逼近实际值。而在实验2中,第一次输出值为0.98,同样经过300迭代训练,输出值只降到了0.20。

        从两次实验的代价曲线中可以看出:实验1的代价随着训练次数增加而快速降低,但实验2的代价在一开始下降得非常缓慢;直观上看,初始的误差越大,收敛得越缓慢

        其实,误差大导致训练缓慢的原因在于使用了二次代价函数。二次代价函数的公式如下:

交叉熵代价函数(作用及公式推导)


        其中,C表示代价,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。为简单起见,同样一个样本为例进行说明,此时二次代价函数为:

交叉熵代价函数(作用及公式推导)


        目前训练ANN最有效的算法是反向传播算法。简而言之,训练ANN就是通过反向传播代价,以减少代价为导向,调整参数。参数主要有:神经元之间的连接权重w,以及每个神经元本身的偏置b。调参的方式是采用梯度下降算法(Gradient descent),沿着梯度方向调整参数大小。w和b的梯度推导如下:

交叉熵代价函数(作用及公式推导)


        其中,z表示神经元的输入,交叉熵代价函数(作用及公式推导)表示激活函数。从以上公式可以看出,w和b的梯度跟激活函数的梯度成正比,激活函数的梯度越大,w和b的大小调整得越快,训练收敛得就越快。而神经网络常用的激活函数为sigmoid函数,该函数的曲线如下所示:

交叉熵代价函数(作用及公式推导)


        如图所示,实验2的初始输出值(0.98)对应的梯度明显小于实验1的输出值(0.82),因此实验2的参数梯度下降得比实验1慢。这就是初始的代价(误差)越大,导致训练越慢的原因。与我们的期望不符,即:不能像人一样,错误越大,改正的幅度越大,从而学习得越快。

        可能有人会说,那就选择一个梯度不变化或变化不明显的激活函数不就解决问题了吗?图样图森破,那样虽然简单粗暴地解决了这个问题,但可能会引起其他更多更麻烦的问题。而且,类似sigmoid这样的函数(比如tanh函数)有很多优点,非常适合用来做激活函数,具体请自行google之。



2. 交叉熵代价函数

        换个思路,我们不换激活函数,而是换掉二次代价函数,改用交叉熵代价函数:

交叉熵代价函数(作用及公式推导)


        其中,x表示样本,n表示样本的总数。那么,重新计算参数w的梯度:

交叉熵代价函数(作用及公式推导)


        其中(具体证明见附录):

交叉熵代价函数(作用及公式推导)


        因此,w的梯度公式中原来的交叉熵代价函数(作用及公式推导)被消掉了;另外,该梯度公式中的交叉熵代价函数(作用及公式推导)表示输出值与实际值之间的误差。所以,当误差越大,梯度就越大,参数w调整得越快,训练速度也就越快。同理可得,b的梯度为:

交叉熵代价函数(作用及公式推导)


        实际情况证明,交叉熵代价函数带来的训练效果往往比二次代价函数要好。



3. 交叉熵代价函数是如何产生的?

        以偏置b的梯度计算为例,推导出交叉熵代价函数:

交叉熵代价函数(作用及公式推导)


        在第1小节中,由二次代价函数推导出来的b的梯度公式为:

交叉熵代价函数(作用及公式推导)


        为了消掉该公式中的交叉熵代价函数(作用及公式推导),我们想找到一个代价函数使得:

交叉熵代价函数(作用及公式推导)


        即:

交叉熵代价函数(作用及公式推导)


        对两侧求积分,可得:

交叉熵代价函数(作用及公式推导)


        而这就是前面介绍的交叉熵代价函数。




附录:

        sigmoid函数为:

交叉熵代价函数(作用及公式推导)

        可证:

交叉熵代价函数(作用及公式推导)





版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/130569.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • python后端常见架构_常见的后端框架

    python后端常见架构_常见的后端框架后端vs前端如果您是Web开发世界的新手,后端和前端开发之间的区别可能不那么明显,但是,了解两者之间的区别很重要。以下是前端开发人员与后端开发人员的一些区别。前端开发:前端开发人员在很大程度上负责用户所看到的内容(即网站页面),前端开发人员主要使用HTML,CSS和JavaScript。他们的主要关注点是创建出色的用户体验,并确保网站设计和布局或Web应用程序始终具有凝聚力。后端开发:另一方面,后…

    2022年6月10日
    67
  • Django设置超时时间_东1时区

    Django设置超时时间_东1时区前言我们都知道时区,标准时区是UTC时区,django默认使用的就是UTC时区,所以我们存储在数据库中的时间是UTC的时间,但是当我们做的网站只面向国内用户,或者只是提供内部平台使用,我们希望存储在

    2022年8月7日
    5
  • c hexdump「建议收藏」

    c hexdump「建议收藏」记录下,有时要打日志用#ifndefhexdump_h#definehexdump_h#ifdef__cpluscplusextern”C”{#endif  voidhexDump(char*desc,void*addr,intlen);   #ifdef__cplusplus}#endif

    2022年9月15日
    0
  • 15个权威的PLC学习资料下载地址 (西门子、三菱、欧姆龙)

    15个权威的PLC学习资料下载地址 (西门子、三菱、欧姆龙)论坛贴吧及工作中经常有人问PLC的学习资料去哪里下载,比如博图TIA软件哪里下载,怎么安装。三菱PLC的编程软件哪里下载等等,一般得到的回复是去官网啊,可是去官网下载界面也不太好找。今天整理了一下,把西门子、三菱、欧姆龙的官方下载地址直接贴出来供大家直接使用。比如下文第一个链接西门子资料下载中心,不仅包括西门子相关编程软件的下载,还包括常见系列的编程手册、产品目录、新手必读等等。西门子…

    2022年10月18日
    0
  • jquery中失去焦点事件_easyui失去焦点事件没触发

    jquery中失去焦点事件_easyui失去焦点事件没触发触发焦点:$("Element").focus()触发每一个匹配元素获得焦点事件。$("Element").focus(function)事件会在获得焦

    2022年8月4日
    4
  • tty是啥_linuxtty中文

    tty是啥_linuxtty中文1.gcctbzftp: ftp://ftp.int.ru/pub/FreeBSD/ports/i386/packages-8-stable/lang/2.mountcdrom:mount/dev/hdc/mnt/cdrom InstallttylinuxinVritualBox1.downloadhttp://ttylinux.net/Downlo…

    2022年8月12日
    6

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号