多层感知机详解(如果增加多层感知机的隐藏层层数)

Principlesoftrainingmulti-layerneuralnetworkusingbackpropagation  Theprojectdescribesteachingprocessofmulti-layerneuralnetworkemploying backpropagation algorithm.Toillustrateth…

大家好,又见面了,我是你们的朋友全栈君。

Principles of training multi-layer neural network using backpropagation


 

The project describes teaching process of multi-layer neural network employing backpropagation algorithm. To illustrate this process the three layer neural network with two inputs and one output,which is shown in the picture below, is used: 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

Each neuron is composed of two units. First unit adds products of weights coefficients and input signals. The second unit realise nonlinear function, called neuron activation function. Signal e is adder output signal, and y = f(e) is output signal of nonlinear element. Signal y is also output signal of neuron. 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

To teach the neural network we need training data set. The training data set consists of input signals (x1 and x2 ) assigned with corresponding target (desired output) z. The network training is an iterative process. In each iteration weights coefficients of nodes are modified using new data from training data set. Modification is calculated using algorithm described below: Each teaching step starts with forcing both input signals from training set. After this stage we can determine output signals values for each neuron in each network layer. Pictures below illustrate how signal is propagating through the network, Symbols w(xm)n represent weights of connections between network input xm and neuron n in input layer. Symbols yn represents output signal of neuron n
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

Propagation of signals through the hidden layer. Symbols wmn represent weights of connections between output of neuron m and input of neuron n in the next layer. 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

Propagation of signals through the output layer. 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

In the next algorithm step the output signal of the network y is compared with the desired output value (the target), which is found in training data set. The difference is called error signal d of output layer neuron. 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

It is impossible to compute error signal for internal neurons directly, because output values of these neurons are unknown. For many years the effective method for training multiplayer networks has been unknown. Only in the middle eighties the backpropagation algorithm has been worked out. The idea is to propagate error signal d (computed in single teaching step) back to all neurons, which output signals were input for discussed neuron. 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

The weights’ coefficients wmn used to propagate errors back are equal to this used during computing output value. Only the direction of data flow is changed (signals are propagated from output to inputs one after the other). This technique is used for all network layers. If propagated errors came from few neurons they are added. The illustration is below: 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

When the error signal for each neuron is computed, the weights coefficients of each neuron input node may be modified. In formulas belowdf(e)/de represents derivative of neuron activation function (which weights are modified). 
 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

 

多层感知机详解(如果增加多层感知机的隐藏层层数)

Coefficient h affects network teaching speed. There are a few techniques to select this parameter. The first method is to start teaching process with large value of the parameter. While weights coefficients are being established the parameter is being decreased gradually. The second, more complicated, method starts teaching with small parameter value. During the teaching process the parameter is being increased when the teaching is advanced and then decreased again in the final stage. Starting teaching process with low parameter value enables to determine weights coefficients signs. 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/128063.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • Java正则表达式 匹配中文字符[通俗易懂]

    Java正则表达式 匹配中文字符[通俗易懂]若要用JAVA正则表达式匹配中文字符,主要是了解中文字符的编码。

    2022年6月18日
    85
  • window10编译器_windows shell编程

    window10编译器_windows shell编程原文地址http://www.cctry.com/forum.php?mod=viewthread&tid=250698&extra=page%3D1&page=1&如何让我们的c++程序可以支持脚本,尤其是支持JavaScript是件很有意思的事情的,那样可以为软件的灵活性,扩展性提供可能。你可能会说用JavaScript引擎,对,JavaScript引擎有很多,有Googlev8,s

    2022年10月10日
    0
  • wptx64能卸载吗_电脑可以卸载bonjour软件吗?详细介绍bonjour软件

    wptx64能卸载吗_电脑可以卸载bonjour软件吗?详细介绍bonjour软件细心的用户发现电脑里面忽然多了一个叫bonjour的程序,以前都没有见过的,bonjour是什么?它是苹果电脑公司在其开发的操作系统MacOSX10.2版本之后引入的服务器搜索协议所使用的一个商标名。为什么电脑会多出bonjour软件?那么bonjour软件可以卸载吗?带着一系列疑问,我们一起阅读下文教程吧。bonjour是否可以卸载bonjour软件为什么会突然出现,那是因为你在电脑上安装了…

    2022年6月7日
    117
  • Android应用程序开发以及背后的设计思想深度剖析

    Android应用程序开发以及背后的设计思想深度剖析原文链接:http://www.uml.org.cn/mobiledev/201211063.asp#2初步过了一下,很多地方写得还是比较深入的,先转载,后面再仔细看看。 本文内容,主题是透过应用程序来分析Android系统的设计原理与构架。我们先会简单介绍一下Android里的应用程序编程,然后以这些应用程序在运行环境上的需求来分析出,为什么我们的Android系统需要今天这样的设

    2022年6月20日
    35
  • 校园智能安防监控解决方案

    校园智能安防监控解决方案目前,我国基本上还处于人防和物防的传统状态,技术防控处于起步阶段,尽管政府和校方不断加大人防和物防的投入并取得了一定的效果,但面对日益复杂多变的校园环境和社会因素,暴力犯罪、偷盗抢劫、意外事件时有发生,加之疫情防控常态化趋势,校园里仍旧存在诸多不可控的安全隐患。为更好的应对校园迫切的安全管控及疫情防控常态化需求,提升校园安全监控能力,是社会和校方迫不及待的需求。基于校园安全防控需求,拟在全市中小学和幼儿园中建立“平安校园”“智慧安防”系统,建设一套智能化、可视化、全方位的视频监控系统,并与公安系统实时联

    2022年6月28日
    28
  • 流水线设计的概念_流水线原理

    流水线设计的概念_流水线原理流水线设计的概念它是面积换取速度思想的又一种具体现。所谓流水线设计实际上是把规模较大、层次较多的组合逻辑电路分为几个级,在每一级插入寄存器并暂存中间数据。流水线处理是提高组合逻辑设计的处理速度和吞吐量的常用手段。如果某个组合逻辑设计的处理流程可以分为若干步骤,而且整个数据处理过程是“单流向”的,即没有反馈或者迭代运算,前一个步骤的输出是下一个步骤的输入,则可以考虑采用流水线设计方法提高数据处理频率,即吞吐量。……

    2022年8月14日
    3

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号