对于多层神经网络,BP算法的直接作用_什么是多层神经网络

对于多层神经网络,BP算法的直接作用_什么是多层神经网络多层神经网络BP算法原理及推导转载;https://www.cnblogs.com/liuwu265/p/4696388.html首先什么是人工神经网络?简单来说就是将单个感知器作为一个神经网络

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

多层神经网络BP算法 原理及推导

转载;https://www.cnblogs.com/liuwu265/p/4696388.html 

  首先什么是人工神经网络?简单来说就是将单个感知器作为一个神经网络节点,然后用此类节点组成一个层次网络结构,我们称此网络即为人工神经网络(本人自己的理解)。当网络的层次大于等于3层(输入层+隐藏层(大于等于1)+输出层)时,我们称之为多层人工神经网络。

1、神经单元的选择

  那么我们应该使用什么样的感知器来作为神经网络节点呢?在上一篇文章我们介绍过感知器算法,但是直接使用的话会存在以下问题:

  1)感知器训练法则中的输出

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  由于sign函数时非连续函数,这使得它不可微,因而不能使用上面的梯度下降算法来最小化损失函数。

  2)增量法则中的输出为;

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  每个输出都是输入的线性组合,这样当多个线性单元连接在一起后最终也只能得到输入的线性组合,这和只有一个感知器单元节点没有很大不同。 

  为了解决上面存在的问题,一方面,我们不能直接使用线性组合的方式直接输出,需要在输出的时候添加一个处理函数;另一方面,添加的处理函数一定要是可微的,这样我们才能使用梯度下降算法。

  满足上面条件的函数非常的多,但是最经典的莫过于sigmoid函数,又称Logistic函数,此函数能够将对于多层神经网络,BP算法的直接作用_什么是多层神经网络内的任意数压缩到(0,1)之间,因此这个函数又称为挤压函数。为了将此函数的输入更加规范化,我们在输入的线性组合中添加一个阀值,使得输入的线性组合以0为分界点。

  sigmoid函数:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  其函数曲线如图1.1所示。

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

图1.1 sigmoid函数曲线[2]

  此函数有个重要特性就是他的导数:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

 

  有了此特性在计算它的梯度下降时就简便了很多。

  另外还有双曲函数tanh也可以用来替代sigmoid函数,二者的曲线图比较类似。

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

 

2、反向传播算法又称BP算法(Back Propagation)

         现在,我们可以用上面介绍的使用sigmoid函数的感知器来搭建一个多层神经网络,为简单起见,此处我们使用三层网络来分析。假设网络拓补如图2.1所示。

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

图2.1 BP网络拓补结构[3]

  网络的运行流程为:当输入一个样例后,获得该样例的特征向量,再根据权向量得到感知器的输入值,然后使用sigmoid函数计算出每个感知器的输出,再将此输出作为下一层感知器的输入,依次类推,直到输出层。

  那么如何确定每个感知器的权向量呢?这时我们需要使用反向传播算法来逐步进行优化。在正式介绍反向传播算法之前,我们先继续进行分析。

  在上一篇介绍感知器的文章中,为了得到权向量,我们通过最小化损失函数来不断调整权向量。此方法也适用于此处求解权向量,首先我们需要定义损失函数,由于网络的输出层有多个输出结点,我们需要将输出层每个输出结点的差值平方求和。于是得到每一个训练样例的损失函数为:(前面加个0.5方便后面求导使用)

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  在多层的神经网络中,误差曲面可能有多个局部极小值,这意味着使用梯度下降算法找到的可能是局部极小值,而不是全局最小值。

  现在我们有了损失函数,这时可以根据损失函数来调整输出结点中的输入权向量,这类似感知器中的随机梯度下降算法,然后从后向前逐层调整权重,这就是反向传播算法的思想。

 

具有两层sigmoid单元的前馈网络的反向传播算法:

1)将网络中的所有权值随机初始化。

2)对每一个训练样例,执行如下操作:

  A)根据实例的输入,从前向后依次计算,得到输出层每个单元的输出。然后从输出层开始反向计算每一层的每个单元的误差项。

  B)对于输出层的每个单元k,计算它的误差项:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  C)对于网络中每个隐藏单元h,计算它的误差项:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  D)更新每个权值:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

符号说明:

xji:结点i到结点j的输入,wji表示对应的权值。

outputs:表示输出层结点集合。

整个算法与delta法则的随机梯度下降算法类似,算法分析如下:

  1)权值的更新方面,和delta法则类似,主要依靠学习速率,该权值对应的输入,以及单元的误差项。

  2)对输出层单元,它的误差项是(t-o)乘以sigmoid函数的导数ok(1-ok),这与delta法则的误差项有所不同,delta法则的误差项为(t-o)。

  3)对于隐藏层单元,因为缺少直接的目标值来计算隐藏单元的误差,因此需要以间接的方式来计算隐藏层的误差项对于多层神经网络,BP算法的直接作用_什么是多层神经网络对受隐藏单元h影响的每一个单元的误差对于多层神经网络,BP算法的直接作用_什么是多层神经网络进行加权求和,每个误差对于多层神经网络,BP算法的直接作用_什么是多层神经网络权值为wkh, wkh就是隐藏单元h到输出单元k的权值。

 

3、反向传播算法的推导

  算法的推导过程主要是利用梯度下降算法最小化损失函数的过程,现在损失函数为:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  对于网络中的每个权值wji,计算其导数:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  1)若j是网络的输出层单元

  对netj的求导:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  其中:

  对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  所以有:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  为了使表达式简洁,我们使用:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  权值的改变朝着损失函数的负梯度方向,于是有权值改变量:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

 

2)若j是网络中的隐藏单元

  由于隐藏单元中w的值通过下一层来间接影响输入,故使用逐层剥离的方式来进行求导:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  因为:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  所以:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  同样,我们使用:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  所以权值变化量:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

 

4、算法的改进

  反向传播算法的应用非常的广泛,为了满足各种不同的需求,产生了很多不同的变体,下面介绍两种变体:

  1)增加冲量项

  此方法主要是修改权值更新法则。他的主要思想在于让第n次迭代时的权值的更新部分依赖于第n-1次的权值。

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

  其中0<=a<1:称为冲量的系数。加入冲量项在一定程度上起到加大搜索步长的效果,从而能更快的进行收敛。另一方面,由于多层网络易导致损失函数收敛到局部极小值,但通过冲量项在某种程度上可以越过某些狭窄的局部极小值,达到更小的地方。

  2)学习任意的深度的无环网络

  在上述介绍的反向传播算法实际只有三层,即只有一层隐藏层的情况,要是有很多隐藏层应当如何进行处理?

  现假设神经网络共有m+2层,即有m层的隐藏层。这时,只需要变化一个地方即可得到具有m个隐藏层的反向传播算法。第k层的单元r的误差 的值由更深的第k+1层的误差项计算得到:

对于多层神经网络,BP算法的直接作用_什么是多层神经网络

5、总结

  对于反向传播算法主要从以下几个方面进行总结:

1)局部极小值

  对于多层网络,误差曲面可能含有多个不同的局部极小值,梯度下降可能导致陷入局部极小值。缓解局部极小值的方法主要有增加冲量项,使用随机梯度下降,多次使用不同的初始权值训练网络等。

2)权值过多

  当隐藏节点越多,层数越多时,权值成倍的增长。权值的增长意味着对应的空间的维数越高,过高的维数易导致训练后期的过拟合。

4)算法终止策略

  当迭代次数达到设定的阀值时,或者损失函数小于设定的阀值时,或

3)过拟合

  当网络的训练次数过多时,可能会出现过拟合的情况。解决过拟合主要两种方法:一种是使用权值衰减的方式,即每次迭代过程中以某个较小的因子降低每个权值;另一种方法就是使用验证集的方式来找出使得验证集误差最小的权值,对训练集较小时可以使用交叉验证等。

  另外,神经网络中还有非常多的问题可以讨论,比如隐藏节点数量的多少,步长是否固定等,在此不展开讨论。

 

展望:

  关于神经网络现在已有较多的研究,也产生了很多新的扩展算法,比如卷积神经网络,深度神经网络,脉冲神经网络等。尤其是脉冲神经网络被称为第三代神经网络,这些神经网络算法在未来将会有越来越多的应用,比如深度神经网络在图像识别,语音识别等领域已经取得了非常好的效果。

 

  最后,此文主要参考Mitchell的机器学习课本撰写而成,如有错误欢迎指正!

 

参考文献:

[1] Tom M. Mitchell, 机器学习。

[2] Keep Going, http://www.cnblogs.com/startover/p/3143763.html

[3] HaHack, http://hahack.com/reading/ann2/

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/168206.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 获取股票历史数据(网易163行情接口)[通俗易懂]

    获取股票历史数据(网易163行情接口)获取股票历史数据,通过网易163接口来获取数据,可以获取指数数据,也可以获取股票数据importpandasaspd#沪市前面加0,深市前面加1,比如0000001,是上证指数,1000001是中国平安defget_daily(code,start=’19900101′,end=”):url_mod=”http://quotes.money.163.com/service/chddata.html?code=%s&start=%s

    2022年4月17日
    51
  • pycharm快捷键、常用设置、配置管理「建议收藏」

    pycharm快捷键、常用设置、配置管理「建议收藏」http://blog.csdn.net/pipisorry/article/details/39909057本博客一直在同步更新中!内容包含:pycharm学习技巧Learningtips、PyCharm3.0默认快捷键(翻译的)、pycharm常用设置、pycharm环境和路径配置、Pycharm实用拓展功能:pycharm中清除已编译.pyc中间文件、python2转python…

    2022年6月14日
    48
  • java webservice asmx_WebService-asmx后缀接口调用[通俗易懂]

    java webservice asmx_WebService-asmx后缀接口调用[通俗易懂]简述:.asmx是webservice服务程序的后缀名,ASP.NET使用.asmx文件来对WebServices的支持。.asmx文件和.aspx文件一样都属于文本文件。它包含在.aspx文件之中,成为ASP.NET应用程序的一部分。废话不多说上代码POM引用commons-discoverycommons-discovery0.2webService接口调用,并解析@Overridep…

    2022年6月12日
    61
  • Linux环境变量文件介绍[通俗易懂]

    Linux环境变量文件介绍[通俗易懂]在Linux系统中,环境变量按照其作用范围不同大致可以分为系统级环境变量和用户级环境变量。      系统级环境变量:每一个登录到系统的用户都能够读取到系统级的环境变量      用户级环境变量:每一个登录到系统的用户只能够读取属于自己的用户级的环境变量 自然而然地,环境变量的配置文件也相应的被分成了系统级和用户级两种。系统级/etc/profile在…

    2022年5月29日
    41
  • VMM TEST「建议收藏」

    VMM TEST「建议收藏」vmm_testisintroducedinvmm1.1.Toknowthevmmversionwhichyouareusing,usethiscommandvcs-R-sverilog-ntb_optsdtm        +incdir+$VMM_HOME/sv$VMM_HOME/sv/vmm_versions.svv

    2022年9月22日
    0
  • 前端,什么是跨域,及跨域常见的解决方案(简讲)「建议收藏」

    前端,什么是跨域,及跨域常见的解决方案(简讲)「建议收藏」认识跨域解决跨域

    2022年5月18日
    33

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号