极限学习机(Extreme Learning Machine)概述

极限学习机(Extreme Learning Machine)概述摘要当今研究领域的一项事实就是,前向神经网络(feed-forwardneuralnetworks)的训练速度比人们所期望的速度要慢很多。并且,在过去的几十年中,前向神经网络在应用领域存在着很大的

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

摘要

当今研究领域的一项事实就是,前向神经网络(feed-forward neural networks)的训练速度比人们所期望的速度要慢很多。并且,在过去的几十年中,前向神经网络在应用领域存在着很大的瓶颈。导致这一现状的两个关键因素就是:

  • 神经网络的训练,大多使用基于梯度的算法,而这种算法的训练速度有限;
  • 使用这种训练算法,在迭代时,网络的所有参数都要进行更新调整。

而在2004年,由南洋理工学院黄广斌教授所提出的极限学习机器(Extreme Learning Machine,ELM)理论可以改善这种情况。最初的极限学习机是对单隐层前馈神经网络(single-hidden layer feed-forward neural networks,SLFNs)提出的一种新型的学习算法。它随机选取输入权重,并分析以决定网络的输出权重。在这个理论中,这种算法试图在学习速度上提供极限的性能。
如需转载本文,请注明出处:http://blog.csdn.net/ws_20100/article/details/49555959


极限学习机原理

ELM是一种新型的快速学习算法,对于单隐层神经网络,ELM 可以随机初始化输入权重和偏置并得到相应的隐节点输出:
这里写图片描述

对于一个单隐层神经网络(结构如上图所示),假设有

N
个任意的样本

(xj,tj)
,其中,



xj=[xj1,xj2,...,xjn]TRn  tj=[tj1,tj2,...,tjm]TRm

对于一个有



L
个隐层节点的单隐层神经网络可以表示为



i=1Lβig(wixj+bi)=oj,  j=1,2,...,N

其中,



g(x)
为激活函数,



wi=[wi1,wi2,...,win]T
是第



i
个隐层单元的输入权重,



bi
是第



i
个隐层单元的偏置,



βi=[βi1,βi2,...,βim]T
是第



i
个隐层单元的输出权重。



wixj
表示



wi




xj
的内积。

1.学习目标

单隐层神经网络学习的目标是使得输出的误差最小,可以表示为



j=1N||ojtj||=0

即存在



wi




xj




bi
使得:




i=1Lβig(wixj+bi)=tj,  j=1,2,...,N

可以矩阵表示:




Hβ=T

其中,



H
是隐层节点的输出,



β
为输出权重,



T
为期望输出。




H(w1,...,wL,b1,...,bL,x1,...,xN)=g(w1x1+b1)g(w1xN+b1)g(wLx1+bL)g(wLxN+bL)N×Lβ=β1TβLTL×m T=t1TtNTN×m

为了能够训练单隐层神经网络,我们希望得到



wi^




bi^




βi^
,使得




||H(wi^,bi^)β^T||=minw,b,β||H(wi,bi)βT||

其中,



i=1,2,...,L
,这等价于最小化损失函数




E=j=1N||i=1Lβig(wixj+bi)tj||22

2.学习方法

传统的一些基于梯度下降法的算法,可以用来求解这样的问题,但是基本的基于梯度的学习算法需要在迭代的过程中调整所有参数。而在ELM算法中, 一旦输入权重

wi
和隐层的偏置

bi
被随机确定,隐层的输出矩阵

H
就被唯一确定。训练单隐层神经网络可以转化为求解一个线性系统:

Hβ=T
。并且输出权重可以被确定



β^=HT

其中,



H
是矩阵



H




MoorePenrose
广义逆矩阵。且可证明求得的解



β^
的范数是最小的并且唯一。


实现代码

代码下载:http://download.csdn.net/detail/ws_20100/9230271

输入的训练数据,格式为一个

N×(1+n)
矩阵,其中每行代表一个样本(共有

N
行)。每行的第一个元素为该样本的“回归的期望值”或“分类的类别号”(对应于

tj
),后面的n个元素为该样本的输入数据(对应于

xjRn
)。测试数据的格式也类似。

对于回归应用,一个例子为:

[TrainingTime, TestingTime, TrainingAccuracy, TestingAccuracy] = elm('sinc_train', 'sinc_test', 0, 20, 'sig')

对于分类应用,一个例子为:

elm('diabetes_train', 'diabetes_test', 1, 20, 'sig')

这两个训练和测试集在黄广斌教授的网站上都可以下载。


参考资料:

[1] G.-B. Huang, Q.-Y. Zhu, and C.-K. Siew, “Extreme learning machine: A new learning scheme of feedforward neural networks,” in Proc. Int. Joint Conf. Neural Networks, July 2004, vol. 2, pp. 985–990.

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/167918.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 常用的perl正则表达式

    常用的perl正则表达式^\d+$  //匹配非负整数(正整数+0) //匹配整数^\d+(\.\d+)?$  //匹配非负浮点数(正浮点数+0) ^(([0-9]+\.[0-9]*[1-9][0-9]*)|([0-9]*[1-9][0-9]*\.[0-9]+)|([0-9]*[1-9][0-9]*))$  //匹配正浮点数 ^((-\d+(\.\d+)?)|(0+(\.0+)?))$  //匹配

    2022年5月30日
    34
  • web前端发展历程[通俗易懂]

    web前端发展历程[通俗易懂]前言目前在IT公司中前端的岗位越来越成为不可或缺的,前端的地位也愈见明显,很多学校已经体系的传授前端课程,众多培训机构也将前端知识作为了主流课程,也有越来越多的同学加入到前端学习的行列中,作为前端工程师或者前端的学习者我们有必要去了解前端的发展史。…

    2022年6月21日
    27
  • 决策树原理及使用_虹吸原理图解

    决策树原理及使用_虹吸原理图解1.树模型和线性模型的区别树形模型是一个一个特征进行处理线性模型是所有特征给予权重相加得到一个新的值2.什么是决策树所谓决策树,就是一个类似于流程图的树形结构,树内部的每一个节点代表的是对一个特征的测试,树的分支代表该特征的每一个测试结果,而树的每一个叶子节点代表一个类别。树的最高层是就是根节点。下图即为一个决策树的示意描述,内部节点用矩形表示,叶子节点用椭圆表示。3.学习过程**特征选择:**特征选择是指从训练数据中众多的特征中选择一个特征作为当前节点的分裂标准,如何选

    2025年9月5日
    6
  • latex中bibtex生成参考文献_英文参考文献自动生成方法

    latex中bibtex生成参考文献_英文参考文献自动生成方法创建BibTeX文件  BibTex是一种专门用于协调LaTeX的参考文献处理的文件格式,其后缀为.bib。BibTex可以用JabRef,bibtex等软件生成,也可以直接用记事本创建,操作起来非常灵活,这里主要介绍用JabRef来生成BibTex文件。JabRef是一套开放源代码、处理BibTeX格式的文献管理软件,提供了简易操作的界面来编辑BibTeX档案,功能包含从网络上的科学数据库汇…

    2025年8月30日
    5
  • bzero memset_arctan3分之1

    bzero memset_arctan3分之1bzero函数函数原型:voidbzero(void*s,intn);头文件:#include<string.h>功能:将字符串s的前n个字节置为0,一般来说n通常取sizeof(s),将整块空间清零。返回值:无返回值例子:将一个数组清零:charstr[10];bzero(str,sizeof(str));也可以将一个结构体清零:structnode{…

    2022年10月13日
    6
  • 带通 带阻滤波器 幅频响应_二阶有源带通滤波器设计

    带通 带阻滤波器 幅频响应_二阶有源带通滤波器设计二阶有源带通滤波器设计1、背景对于微弱的信号的处理方式一般是:放大和滤波,这个过程中就涉及到放大电路的选取、滤波器的选择以及偏置电路的设计。本例以实例的方式讲解并附带参数计算、仿真、实物测试三个环节。 假设需要处理一个20mV的正弦信号,该信号的频率范围是15~35Hz,经过处理后幅值不超过3.3V,且需要经过带通滤波器滤除杂波。2、滤波器定义滤波电路又称为滤波器,是一种选频电路,能够使特定频率范…

    2022年5月2日
    61

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号