几种神经网络模型及其应用

几种神经网络模型及其应用
几种神经网络模型及其应用

几种神经网络模型及其应用

摘要:本文介绍了径向基网络,支撑矢量机,小波神经网络,反馈神经网络这几种神经网络结构的基本概念与特点,并对它们在科研方面的具体应用做了一些介绍。

关键词:神经网络径向基网络支撑矢量机小波神经网络反馈神经网络Several neural network models and their application

Abstract: This paper introduced the RBF networks, support vector machines, wavelet neural networks, feedback neural networks with their concepts and features, as well as their applications in scientific research field.

Key words: neural networks RBF networks support vector machines wavelet neural networks feedback neural networks

2

引言

随着对神经网络理论的不断深入研究,其应用目前已经渗透到各个领域。并在智能控制,模式识别,计算机视觉,自适应滤波和信号处理,非线性优化,语音识别,传感技术与机器人,生物医学工程等方面取得了令人吃惊的成绩。本文介绍几种典型的神经网络,径向基神经网络,支撑矢量机,小波神经网络和反馈神经网络的概念及它们在科研中的一些具体应用。

1. 径向基网络

1.1 径向基网络的概念

径向基的理论最早由Hardy,Harder和Desmarais 等人提出。径向基函数(Radial Basis Function,RBF)神经网络,它的输出与连接权之间呈线性关系,因此可采用保证全局收敛的线性优化算法。径向基神经网络(RBFNN)是 3 层单元的神经网络,它是一种静态的神经网络,与函数逼近理论相吻合并且具有唯一的最佳逼近点。由于其结构简单且神经元的敏感区较小,因此可以广泛地应用于非线性函数的局部逼近中。主要影响其网络性能的参数有3 个:输出层权值向量,隐层神经元的中心以及隐层神经元的宽度(方差)。一般径向基网络的学习总是从网络的权值入手,然后逐步调整网络的其它参数,由于权值与神经元中心及宽度有着直接关系,一旦权值确定,其它两个参数的调整就相对困难。

其一般结构如下:

如图 1 所示,该网络由三层构成,各层含义如下:

第一层:输入层:输入层神经元只起连接作用。

第二层:隐含层:隐含层神经元的变换函数为高斯核.

第三层:输出层:它对输入模式的作用做出响应.

图 1. 径向基神经网络拓扑结构

其数学模型通常如下:

设网络的输入为x = ( x1 , x2 , ?, xH ) T,输入层神经元至隐含层第j 个神经元的中心矢

为vj = ( v1 j , v2 j , ?, vIj ) T (1 ≤j ≤H),隐含层第j 个神经元对应输入x的状态为:zj

=

φ= ‖x - vj ‖= exp Σx1 - vij ) 2 / (2σ2j ) ,其中σ(1≤j ≤H)为隐含层第j个神

经元的

控制参数。隐含层神经元至输出层第k 个神经元的连接系数矢量为wK = (w1K ,w2K ,?,

wHK (1 ≤k ≤p),输出为:Y i =ΣHj = 0wij Zj ,其中wi0 为节点i 的阈值。

事实上,RBF神经网络可看作从特征子空间到类的映射,每类对应于网络一个输出结点

3

的响应。一般来说,输入层的结点数与输入特征矢量的维数相等,输出层的结点数就是待分类模式类别数。

径向基函数φ()r 一般分为两类:局部的和整体的。如果limφ(r)为零,则称之为局部

r→∞

径向基函数,否则称之为整体径向基函数。局部径向基函数旨在输入数据所在区域的中心插值,而整体径向基函数可以全局插值。最常用的RBF 神经网络的隐含层非线性函数是高斯函

数,其详细表达式描如下:

2

? ||PC- || ?

i

RPi ()=-exp? 2 ?

σ

? i ?

其中Ri (P)是隐含层第i个结点的输出,P是输入模式,Ci 是隐含层第i个结点基函数

2

的中心。σ是第i个隐含结点的归一化参数,它决定该中心对应的基函数的作用范围,σi i

又称之为RBF 隐含结点的宽度系数。隐含结点输出在0 和1之间,输入与中心的距离越近,

隐含结点的响应就越大。显然该高斯函数是径向对称的,即对于与基函数中心径向距离相同的输入,隐含结点都产生相同的输出。

1.2 径向基神经网络的应用:

通常情况下,根据科研项目具体情况的需要,通过对径向基神经网络加以改动或调整,就可以应用在各个领域中,举实例如下:

目标识别是模式识别领域的一项重要研究内容,在这一领域,它能将来自某一目标的多源信息加以智能化合成,产生比单一信源更精确、更完全的估计和判别。用经典的贝叶斯统计方法或智能系统能够解决目标识别和分类问题。但当情况较为复杂,用统计方法不易解决的时候,神经网络可以成功的解决这一类问题。由于人工神经网络具有并行处理、鲁棒性和自组织等特点而被广泛应用。人工神经网络对于解决信息融合目标识别和分类问题具有较大的潜力。BP 神经网络模型被广泛的应用于模式匹配、模式分类、模式识别与模式分析等方面。但BP 网络模型算法收敛速度很慢,且目标函数存在局部极小点,因此BP 网络的效率

不高.而径向基(RBF)神经网络模型在一定程度上克服了这些缺点,其特点是将非监督学习与监督学习有效结合起来,从而得到很好的识别效果。

改进的RBF网络模型的混合学习算法其步骤为:

(1) 给定初始权矩阵wI ×H,训练样本逆相关矩阵初始值和误差迭代终止值εmin;

(2) 按K - 均值聚类算法选取RB F的中心矢量vj (1≤j≤H) ;

(3) 按Z j =φ(‖x - vj ‖)= exp(- Σ( x i - v ij) 2/ (2σ2j))计算径向基函数zj (1≤j ≤H) ;

(4) 分别计算值K(n)与逆相关矩阵值

(5) 计算误差信号E ( n)

(7) 计算累计误差J ( n) ;

(8) 若J ( n) ≥εmin ,转(5) ;否则转(9) ;

(9) 训练结束。

运用上述步骤对目标进行识别:

假定目标已经存在,考虑有四种类型的目标,设计三层的网络结构,各层神经元个数分

别为3, 3, 2。神经网络的输入是由三个传感器的特征量测组成的一个三维向量,输出层的两个神经元提供了一个值Y = [ Y1,Y2 ]用来对目标的类型进行识别,按四个输出值00, 01, 10,

11 分别来训练网络,00 代表目标0,01 代表目标1,10 代表目标2,11 代表目标3。在每

种目标中选取100 个样本进行训练。训练后的效果说明RBF 神经网络的类中心更接近真实

4

类中心,这说明其选择中心矢量的方法优于传统的方法;并且RBF算法的平均识别率更高,具有更强的聚类能力,使目标识别更加准确。充分说明径向基(RBF)神经网络对目标进行识别是非常有效的,具有潜在的应用价值。

2. 支撑矢量机

2.1 支撑矢量机的概念

统计推断问题又称为预知性学习问题,即根据观测数据(训练样本)推断一个未知系统

的输入—输出依赖关系。这个问题有极大的理论意义和实践意义。但由于系统的未知性和观测数据的有限性,因此这是个十分困难的问题。

随着近代计算机技术的发展,人们开始利用神经网络来解决以上提出的问题,并在一些

实际工程项目中得到成功的应用,但是神经网络没有严格的理论依据,因此对于实际应用中提出的许多重要设计问题,无法做出准确的回答,只能依靠经验和技巧解决。20世纪60 年代末,V apnik 和Cervonenkis的研究所取得的突破性进展终于导致了现代意义上的统计学习

理论的建立,这就是目前国际文献上所称的VC 理论。这一理论不仅圆满地回答了人工神经

网络研究与应用中提出的一系列理论性问题,而且构造出一种能克服神经网络局限性的更强有力的预知性学习算法—支撑矢量机(SVM)方法,根据不同情况,其又可以分为线性支撑矢量机和非线性支撑矢量机两种。

如图 2 所示支撑矢量机网络结构:

图 2. 支撑矢量机(SVM)网络结构示意

支撑矢量机(SVMs)基于结构风险最小化原理,该原理给出了测试误差的上界:不超

过训练误差和置信范围之和,置信范围取决于VC 维的大小,VC 维越小则置信范围也越小。

通过最小化这一上界,以得到较小的测试误差,因而SVMs 具有强的泛化能力。SVMs 的

实现涉及求解线性约束的二次规划问题,该问题可以收敛到全局最优解。

总结起来,SVM主要体现了以下思想:

1)分类器容量控制的思想。也即控制分类器集合函数的VC维。该思想直接来源于统计学

习理论,SVM通过同时控制经验风险和学习机的容量来提高推广能力。

2)通过引入核的思想来控制分类器容量。若在原始特征空间中实现的分类器结构十分复

杂(对应分类器函数集的vC维比较高),则通过定义适当的核函数诱导出某个非线性变换,用

此变换将原始特征空间映射到一个高维空间,然后在这个新的特征空间中求得最优线性分类面,以降低分类器的复杂度(即降低分类器函数集的VC维)。

3)通过求解QP来实现容量控制的思想与核的思想。

5

现阶段SVM的主要研究方向如下:

1)SVM提出之后,从理论的角度研究SVM的推广性能一直是SVM领域的研究重点,并取得

了丰硕的成果,这些成果为提高SVM的推广性能提供了理论保证。

2)从SVM实现算法的角度看,求解SVM可以转化成一个二次规划(QP)问题,目前,针对QP

的研究已相当深入,这些研究成果从算法实现上保证了SVM的实用性。但实际上,通过求解

QP来实现容量控制与核的思想,在实践中还存在众多问题。其中一个主要问题就是参数选择

与优化问题,包括核函数的选择与参数优化及控制经验风险与分类器函数集VC维的参数c 的

优化等。核函数选择及参数优化是当今SVM领域的研究热点。

3)SVM是一种两类分类器,而在实际应用中要解决多类分类问题。用SVM构造多类分类器是SVM领域的又一研究重点。用SVM构造多类分类器有众多的理论与算法问题需要解决。一方

面,衡量SVM推广性能的理论成果不能直接应用于由SVM构造的多类分类器之中,因此,有必

要从理论上研究由SVM构造的多类分类器的推广能力,为构造多类分类器提供理论指导。另

一方面,虽然现阶段SVM的实现算法已高效,但由于多类分类问题往往较复杂,要处理的数

据也比较庞大,因此,多类分类器的高效构造算法的研究就显得非常重要。

2.2 支撑矢量机的实际应用举例如下:

支撑矢量机目前的应用研究领域主要包括图像识别(指纹、卫星图像等)与声音、压力等

感知信号的识别。举一实例如下:

V apnik 等人在美国A T &T 实验室做的手写数字识别。他们利用美国国家邮政总局数据

库提供的7300 个训练样本和2000 个测试数据设计了多项式、径向基函数、二层神经网络等

不同形式的支撑矢量机,样本的分辨率为16×16 像素,故系统维数为256。实验结果表明3

种SVM 求得的支撑矢量数目接近(274、291、254),其中共同的支撑矢量约占80 % ,识别

误差也接近(4. 0 %、4. 1 %、4. 2 %) ,优于常规神经网络(5. 1 %~5. 9 %)。近年来有一系列

SVM 应用的报道,在模式识别方面的应用有 3 维物体识别、语音识别、脸像识别、文本分

类、综合语音及图像数据核实人的身份等。

3. 小波神经网络

3.1 小波神经网络的概念

小波分析方法是近年来得到迅速发展并形成研究热潮的信号分析新技术,被认为是对Fourier 分析方法的突破性进展,在图像分析与处理、奇异性检测等方面已有许多成功的应用。使用小波分析方法对噪声进行处理的技术发展迅速,现有的研究多采用小波的多分辨分析或小波包技术等进行消噪处理,这些方法主要用于从含高频噪声的确定信号中去除噪声,而且消噪效果与小波函数的选取、阈值的处理方式和消噪算法等有很大关系。

小波变换具有时频局部特性和军焦特性,而神经网络具有自学习、自适应、鲁棒性、容

错性和推广能力。如何把两者的优势结合起来,一直是人们关注的问题。一种方法是用小波分析对信号进行预处理,即以小波空间作为模式识别的特征空间,通过小波分析来实现信号的特征提取,然后将提取的特征向量送入神经网络处理;另一种即所谓的小波神经网络(Wavelet Neural Network, WNN) 或小波网络(Wavelet Network WN) 。小波神经网络最早是

由法国著名的信息科学研究机构IRLSA的Zhang Qinghu 等人1992 年提出来的。小波神经

网络是基于小波变换而构成的神经网络模型,即用非线性小波基取代通常的神经元非线性激励函数(如Sigmoid 函数),把小波变换与神经网络有机地结合起来,充分继承了两者的优点。

如图 3 所示,小波神经网络是基于小波分析而构造的一种新型的前馈型人工神经网络。它以

小波空间作为模式识别的特征空间,通过将小波基与信号向量的内积进行加权和来实现信号6

的特征提取,结合了小波变换良好的时频局域化性质及传统神经网络的自学习功能,因而有较强的逼近与容错能力。

其传递函数为小波函数。在此采用的小波母函数为:

根据其母小波,信号可以由下式逼近:

式中,wk、1/ak、bk/ak分别是子小波的权系数、伸缩系数和平移系数,K是网络所采用

的神经元个数。此式可由图 1 所示的神经网络来实现。网络参数wk,bk,ak的优化学习通过

最小化能量函数来完成,能量函数为:

其优点有:结构确定, 避免了BP 网络在结构设计的盲目性;网络权系数线性分布和学习目标函数的凸性,使网络的训练过程从根本上避免了局部最优化等问题;有较强的函数学习能力,可以任意精度逼近任意非线性函数。

小波神经网络具有以下特点。首先,小波基元及整个网络结构的确定有可靠的理论根据,可避免BP神经网络等结构设计上的盲目性;其次,网络权系数线性分布和学习目标函数的凸

性,使网络训练过程从根本上避免了局部最优等非线性优化问题;第三,有较强的函数学习能力和推广能力。小波还可以与其它类型的神经网络相结合:例如用网络对信号做自适应小波分解,网络与小波的结合等。

3.2 小波神经网络的科研应用举例

对于配电网输电线的故障定位,由于配电网本身结构的特性,到目前为止,还没有较为完善的测距方法。其原因不外乎有两点:一是采用集中参数模型,故障距离与线路始端测得的零序电压、电流没有必然的联系;二是采用分布参数的模型,列出的关于故障距离与线路始端测得的零序电压、电流的关系非常复杂,方程几乎不可能精确求解。而最重要的是,这两种方法都是基于故障后的工频分量进行故障测距的。事实上,仅仅采用工频分量,会丢失7

较多的故障后的暂态分量的信息。

对故障信号通过小波网络进行分解,以区分出各个频段的信息,而故障距离则是各个频

段信息的函数,然后利用模糊神经网络的逼近性质,用其逼近故障距离,从而构造小波模糊神经网络来解决故障测距的问题。小波模糊神经网络将小波变换与模糊神经网络结合起来,以充分利用电力系统故障时的各种信息,实现较高的测距精度。由于EMTP 仿真系统中的电源是直接接地的,为了对小电流接地系统有一个真实的说明,如下图所示,本仿真模型采用了几个变压器模型以实现不接地系统的模拟:

将所研究的长度为20km的输电线分成50 等份,获得分别在50 等份处发生A相经不同的过渡电阻(10W、100 W 等)接地的100 个样本,对这些样本按理想输出特性训练,当故

障距离为10km,则不管是多大的过渡电阻,其理想的输出即为10。依次类推,对100 个样

本按本文提出的小波模糊神经网络的算法进行训练,测距的精度不是很高;然后,采用 4 个模糊规则,将输电线路200 等分,获得分别在200 等分处发生A相经不同的过渡电阻接

地的300 个样本,对这300 个样本进行训练后,再对在输电线其他位置经不同过渡电阻故障

时的数据进行测试,得到的测距结果及误差见下表:

从仿真结果看出,本算法的测距精度较高。测距精度受过渡电阻的影响较小。虽然实际

使用时比较繁琐,但可以克服传统配电网输电线故障测距中,由于无法确知输电线的对地分布电容而造成的测距的误差。在小电流接地系统线路单相接地故障时,线路始端不仅含有较为丰富的暂态信息,而且含有大量的工频分量。利用小波模糊神经网络的方法,能够把这两部分的信息充分利用起来,实现较为精确的故障测距,基本上消除过渡电阻对测距的影响。

4. 反馈网络

4.1 反馈网络的概念

从20 世纪80 年代以来,随着研究的深入,人工神经网络因其良好的非线性映像能力8

等诸多优点而在诸多领域得到了广泛应用,尤其是前向多层神经网络,在1986年由

Rumelhart

等人提出BP算法成功解决了它的训练问题后,成为应用最广泛和最成熟的神经网络,其中在化工过程系统建模、优化以及控制等方面应用也很多。但前向多层神经网络是一种静态网络,其运行时单向传播,没有反馈,只能实现从输入空间到输出空间非线性静态映像而不具有动态信息处理能力,严格地说并不是一个动力学模型。许多研究者选择输入变量移动窗口的技术,在通常的前馈网络中加入延时单元。此时可以看作把时间信号扩展成空间表示,再送给静态的前馈网络。

利用静态的多层前馈网络对动态系统进行识别,实际上是将动态时间建模问题变为一个

静态空间建模问题。这必然出现诸多问题:动态样本的移动窗口的选择是经验性的,增加时间序列的点数会提供更多的过程动态信息,但增加了网络结构的复杂程度,使训练时间和难度加大;但若太少,过程趋势信息表达就会显得不够。另外需事先假定系统的NAR2MA模型类,对结构模型进行定阶,特别是随着系统阶次的增加或阶次未知时,迅速膨胀的网络结构将使学习收敛速度更加缓慢。此外较多的输入节点也将使相应的辨识系统对外部噪声特别敏感。相比之下,动态反馈网络提供了一种极具潜力的选择,代表了神经网络建模、识别与控制的发展方向。

反馈网络的特点是处理单元之间除前馈连接外还有反馈连接的情况。同时延网络相比,

反馈网络只需要增加和隐含层单元个数相同的联系单元,这无疑使得网络结构有了较大地减少,特别是当输入单元较多时。另外网络的动态特性仅有内部的连接提供,因此无须直接使用状态作为输入或训练信号,这也是反馈网络相对于静态网络的优越之处。根据网络结构的特点,将它们分为两类:全反馈网络结构和部分反馈网络结构。

4.1.1 全反馈网络

全反馈网络的突出代表就是由Hopfield在1982年提出的Hopfield 网络。它是一种单层

对称全反馈结构。各神经元用M2P模型表示。

这种网络有两种工作方式:

(1) 串行(异步)方式:任何时刻只有一个单元改变状态,其余单元不变(动作顺序可

以随机选择或按某种确定顺序选择)。

(2) 并行(同步) 方式:某一时刻所有神经元同时改变状态(常称这种工作方式的网络为Little 模型) 。Hopfield 根据系统动力学和统计力学的原理,将“能量函数”的概念引入到对

称Hopfield 网络的研究中,给出了网络的稳定性判据。可以证明,采用Hebb 规则进行训练

的Hopfield网络系统总是朝着能量减小的方向变化,最终进入稳定状态,即收敛于某个平衡

点。由于Hopfield 网络的连接是全连接,因此当节点数目比较多时,网络的结构过于复杂,而网络结构中没有隐含层,使得网络的非线性性能较差,尤其是对于复杂的非线性动态过程系统,因此在一定程度上限制了它的应用。

图 4. Hopfield 网络结构示意图

9

4.1.2 部分反馈网络

全反馈神经网络结构复杂,在实际应用时往往需要简化,为了保留网络的动态特性,往

往采用部分反馈的形式。反馈连接有一组所谓联系单元(context)构成,它记忆网络过去的状态,并在下一时刻连同网络输入一起作为隐含层的输入,这种网络的反馈连接规定了网络的内部状态和记忆形式,使其输出不仅依赖于当前的输入,也与过去的输出有关。这一性质使部分反馈网络具有动态记忆的能力。

部分反馈网络的典型例子有:

(1)Elman网络

Elman网络是在前向网络的基础上将隐含层输出反馈到输入端得到的,隐含层的输出可以看作系统的状态(虚拟状态),因此这种反馈网络又称为状态反馈网络。

r m

这里对Elman网络进行分析。设网络外部输入为uk( -1)∈R ,输出为yk()∈R 隐含

n

层的输出为x()kR∈,该网络可以表示为非线性离散状态空间模型:

12

xk()=+fWx( c (k) Wuk( -1))

xkc ()=-xk( 1)

3

yk()= gWxk()()

式中:1、2、3――网络的联系单元、隐含单元和输出单元相关的权重;uk( -1)――网络

的输入值;x()kxkyk,,c () ()――网络隐含层、反馈层和输出层的输出值;W――相应的

连接权值矩阵。

通过将Elman 模型写为上述形式,我们可以看出这种形式的反馈神经网络是标准线性空

间的非线性推广,其中隐含层的输出值x(k)为模型的状态向量。这与动态过程的状态方程

的形式一致,由此揭示了反馈网络用于动态建模的原理。对于其它类型的反馈神经网络也都有相应的状态空间表达形式。

(2)Jordan网络

与Elman网络不同,Jordan 网络是在前向网络的基础上将输出层输出反馈到输入层得到的,这里对网络进行分析。该网络可以表示为非线性离散状态空间模型:

12

xk()=+fWx( c (k) Wuk( -1))

xkc ()=-yk( 1)

3

yk()= gWxk()()

其中各符号表示与Elman网络中的符号表示相同。从上面的式子中我们可以看出,系统

k+1时刻的输出可以表示为k时刻的输出和输入的函数。反映在网络结构上就是将网络的输出延迟一个时间步长后反馈到系统的输入端,从而得到Jordan 网络结构。

与Elman网络类似的是,Jordan网络也不易识别高阶系统,因此,也可以在Jordan网络的反馈层加自反馈进行修正,使网络可以记住过去更多时刻的信息,同时网络的非线性也大大提高。

(3)混合网络结构

D.T.Pham等结合这两种网络得特点,提出了一种混合网络结构,即网络中同时包含从输出层和隐含层来的反馈。这里对网络进行分析,该网络可以表示为非线性离散状态空间模型:

12

xk()=+fWx( c (k) Wuk( -1))

?yk()-? 1

xkc ()=?

??xk()-1

3

yk()= gWxk()()

其中各符号表示与Elman网络中的符号表示相同。这种网络理论上能对任意阶数线性动态系

统和任意阶数的非线性系统建模。

引入部分反馈的形式可以多种多样,下面是一个典型的例子:利用反馈神经网络建立对

象模型,可以有效地减小输入空间,特别是对于多变量的对象而言,反馈神经网络的结构比前向网络更接近实际模型。但是,对于一些具有严重动态时变性、非线性、高阶次性等特点,并且其过程中间状态变量较多的对象,增加多层反馈子层可以保留若干个时刻的网络内部状态,以便更好地表征过程对象的内部特征。各反馈子层可进行短时的记忆,以保存一些必要的网络内部信息以表征过程的一些空间状态变量。与原始的Elman 网络相比,多层反馈RNN

网络保存了更多的过程状态信息,更加接近实际的模型,表现出更强的动态特性,可以对更复杂的对象进行模拟和控制。通过一个典型的连续搅拌反应过程对Elman 网络和多层反馈RNN网络进行了比较,结果表明多层反馈回归神经网络具有较好的收敛精度和适应性。

图 5. 多层反馈RNN 网络结构示意图

4.2 反馈神经网络在实际中的应用

Internet 的迅速发展,使计算机网络已经深入到日常生活的各个领域,另一方面,网络

的互联共享和分布也增加了网络安全的脆弱性和入侵的可能性。入侵检测作为一种有效的检测入侵方式受到了极大的关注。人工神经网络所具备的概括抽象能力、学习和自适应能力以及内在的并行计算特性,使得其在入侵检测中的应用具有独特的优势。在入侵检测中,得到了大量的数据包数据,在利用神经网络对数据包进行过滤分析的基础上,对网络中数据包的行为模式进行建模和入侵检测。网络攻击模式是一个动态的过程,对于动态系统,反馈神经网络是一种常用的建模方法,包括HopField 神经网络、Elman神经网络和Jordan 神经网络。

这几种网络对一阶线性系统建模比较容易,而对高阶系统则有很大的困难,大的学习速率导致振荡或者不稳定,学习速率小时又使训练过程耗时过大,对隐含层节点数目也有一定的限11

制。

为此建立一个网络环境来模拟实验,所用的数据包来自于网络中的Web 会话,并选择

了一些关键特征,如表 1 所示。本文实验中所采用的实验样本包括1000 个Web 协议

的训练样本,其中包括100 个攻击样本数据,以及900 个Web 会话的正常模式样本。用这

些数据集来训练建立的神经网络。在所有的攻击样本中包含了多种基于Web 服务的攻击手段,例如传统的Satan 攻击和SendMail 攻击等。设置 3 层前反馈网络的输入结点和输出结

点分别是90,8(每个字符串特征用10 位二进制来表示),集成输出反馈网络中输入节点数、隐含节点数和虚拟节点数为8、2 和2,每个虚拟节点集成了过去 5 个时刻的状态。通

过改变两个神经网络的隐含层的节点数来满足设定的截止误差。前馈神经网络和输出集成反馈网络的训练采用遗传算法求解,遗传算法的参数为:群体大小为100,最大代数为100,杂交概率为0.85,变异概率为0.15。同时用200 个Web 会话样本,其中包括30 个新的攻

击模式来检验建立的神经网络。实验证明得到了97%的检测率,误报率1.5%的成果。

神经网络模型预测控制器

神经网络模型预测控制器 摘要:本文将神经网络控制器应用于受限非线性系统的优化模型预测控制中,控制规则用一个神经网络函数逼近器来表示,该网络是通过最小化一个与控制相关的代价函数来训练的。本文提出的方法可以用于构造任意结构的控制器,如减速优化控制器和分散控制器。 关键字:模型预测控制、神经网络、非线性控制 1.介绍 由于非线性控制问题的复杂性,通常用逼近方法来获得近似解。在本文中,提出了一种广泛应用的方法即模型预测控制(MPC),这可用于解决在线优化问题,另一种方法是函数逼近器,如人工神经网络,这可用于离线的优化控制规则。 在模型预测控制中,控制信号取决于在每个采样时刻时的想要在线最小化的代价函数,它已经广泛地应用于受限的多变量系统和非线性过程等工业控制中[3,11,22]。MPC方法一个潜在的弱点是优化问题必须能严格地按要求推算,尤其是在非线性系统中。模型预测控制已经广泛地应用于线性MPC问题中[5],但为了减小在线计算时的计算量,该部分的计算为离线。一个非常强大的函数逼近器为神经网络,它能很好地用于表示非线性模型或控制器,如文献[4,13,14]。基于模型跟踪控制的方法已经普遍地应用在神经网络控制,这种方法的一个局限性是它不适合于不稳定地逆系统,基此本文研究了基于优化控制技术的方法。 许多基于神经网络的方法已经提出了应用在优化控制问题方面,该优化控制的目标是最小化一个与控制相关的代价函数。一个方法是用一个神经网络来逼近与优化控制问题相关联的动态程式方程的解[6]。一个更直接地方法是模仿MPC方法,用通过最小化预测代价函数来训练神经网络控制器。为了达到精确的MPC技术,用神经网络来逼近模型预测控制策略,且通过离线计算[1,7.9,19]。用一个交替且更直接的方法即直接最小化代价函数训练网络控制器代替通过训练一个神经网络来逼近一个优化模型预测控制策略。这种方法目前已有许多版本,Parisini[20]和Zoppoli[24]等人研究了随机优化控制问题,其中控制器作为神经网络逼近器的输入输出的一个函数。Seong和Widrow[23]研究了一个初始状态为随机分配的优化控制问题,控制器为反馈状态,用一个神经网络来表示。在以上的研究中,应用了一个随机逼近器算法来训练网络。Al-dajani[2]和Nayeri等人[15]提出了一种相似的方法,即用最速下降法来训练神经网络控制器。 在许多应用中,设计一个控制器都涉及到一个特殊的结构。对于复杂的系统如减速控制器或分散控制系统,都需要许多输入与输出。在模型预测控制中,模型是用于预测系统未来的运动轨迹,优化控制信号是系统模型的系统的函数。因此,模型预测控制不能用于定结构控制问题。不同的是,基于神经网络函数逼近器的控制器可以应用于优化定结构控制问题。 在本文中,主要研究的是应用于非线性优化控制问题的结构受限的MPC类型[20,2,24,23,15]。控制规则用神经网络逼近器表示,最小化一个与控制相关的代价函数来离线训练神经网络。通过将神经网络控制的输入适当特殊化来完成优化低阶控制器的设计,分散和其它定结构神经网络控制器是通过对网络结构加入合适的限制构成的。通过一个数据例子来评价神经网络控制器的性能并与优化模型预测控制器进行比较。 2.问题表述 考虑一个离散非线性控制系统: 其中为控制器的输出,为输入,为状态矢量。控制

神经网络一个简单实例

OpenCV的ml模块实现了人工神经网络(Artificial Neural Networks,ANN)最典型的多层感知器(multi-layer perceptrons, MLP)模型。由于ml模型实现的算法都继承自统一的CvStatModel基类,其训练和预测的接口都是train(),predict(),非常简单。 下面来看神经网络CvANN_MLP 的使用~ 定义神经网络及参数: [cpp]view plain copy 1.//Setup the BPNetwork 2. CvANN_MLP bp; 3.// Set up BPNetwork's parameters 4. CvANN_MLP_TrainParams params; 5. params.train_method=CvANN_MLP_TrainParams::BACKPROP; 6. params.bp_dw_scale=0.1; 7. params.bp_moment_scale=0.1; 8.//params.train_method=CvANN_MLP_TrainParams::RPROP; 9.//params.rp_dw0 = 0.1; 10.//params.rp_dw_plus = 1.2; 11.//params.rp_dw_minus = 0.5; 12.//params.rp_dw_min = FLT_EPSILON; 13.//params.rp_dw_max = 50.; 可以直接定义CvANN_MLP神经网络,并设置其参数。BACKPROP表示使用 back-propagation的训练方法,RPROP即最简单的propagation训练方法。 使用BACKPROP有两个相关参数:bp_dw_scale即bp_moment_scale: 使用PRPOP有四个相关参数:rp_dw0, rp_dw_plus, rp_dw_minus, rp_dw_min, rp_dw_max:

BP神经网络模型应用实例

BP神经网络模型 第1节基本原理简介 近年来全球性的神经网络研究热潮的再度兴起,不仅仅是因为神经科学本身取得了巨大的进展.更主要的原因在于发展新型计算机和人工智能新途径的迫切需要.迄今为止在需要人工智能解决的许多问题中,人脑远比计算机聪明的多,要开创具有智能的新一代计算机,就必须了解人脑,研究人脑神经网络系统信息处理的机制.另一方面,基于神经科学研究成果基础上发展出来的人工神经网络模型,反映了人脑功能的若干基本特性,开拓了神经网络用于计算机的新途径.它对传统的计算机结构和人工智能是一个有力的挑战,引起了各方面专家的极大关注. 目前,已发展了几十种神经网络,例如Hopficld模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart等的多层感知机模型和Kohonen的自组织网络模型等等。在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。多层感知机神经网络的研究始于50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算),实现了Minsky的多层网络

设想,如图34-1所示。 BP 算法不仅有输入层节点、输出层节点,还可有1个或多个隐含层节点。对于输入信号,要先向前传播到隐含层节点,经作用函数后,再把隐节点的输出信号传播到输出节点,最后给出输出结果。节点的作用的激励函数通常选取S 型函数,如 Q x e x f /11)(-+= 式中Q 为调整激励函数形式的Sigmoid 参数。该算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐含层逐层处理,并 传向输出层。每一层神经元的状态只影响下一层神经

Hopfield神经网络综述

题目:Hopfield神经网络综述 一、概述: 1.什么是人工神经网络(Artificial Neural Network,ANN) 人工神经网络是一个并行和分布式的信息处理网络结构,该网络结构一般由许多个神经元组成,每个神经元有一个单一的输出,它可以连接到很多其他的神经元,其输入有多个连接通路,每个连接通路对应一个连接权系数。 人工神经网络系统是以工程技术手段来模拟人脑神经元(包括细胞体,树突,轴突)网络的结构与特征的系统。利用人工神经元可以构成各种不同拓扑结构的神经网络,它是生物神经网络的一种模拟和近似。主要从两个方面进行模拟:一是结构和实现机理;二是从功能上加以模拟。 根据神经网络的主要连接型式而言,目前已有数十种不同的神经网络模型,其中前馈型网络和反馈型网络是两种典型的结构模型。 1)反馈神经网络(Recurrent Network) 反馈神经网络,又称自联想记忆网络,其目的是为了设计一个网络,储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到这个设计的平衡点上。反馈神经网络是一种将输出经过一步时移再接入到输入层的神经网络系统。 反馈网络能够表现出非线性动力学系统的动态特性。它所具有的主要特性为以下两点:(1).网络系统具有若干个稳定状态。当网络从某一初始状态开始运动,网络系统总可以收敛到某一个稳定的平衡状态; (2).系统稳定的平衡状态可以通过设计网络的权值而被存储到网络中。 反馈网络是一种动态网络,它需要工作一段时间才能达到稳定。该网络主要用于联想记忆和优化计算。在这种网络中,每个神经元同时将自身的输出信号作为输入信号反馈给其他神经元,它需要工作一段时间才能达到稳定。 2.Hopfiel d神经网络 Hopfield网络是神经网络发展历史上的一个重要的里程碑。由美国加州理工学院物理学家J.J.Hopfield 教授于1982年提出,是一种单层反馈神经网络。Hopfiel d神经网络是反馈网络中最简单且应用广泛的模型,它具有联想记忆的功能。 Hopfield神经网络模型是一种循环神经网络,从输出到输入有反馈连接。在输入的激励下,会产生不断的状态变化。 反馈网络有稳定的,也有不稳定的,如何判别其稳定性也是需要确定的。对于一个Hopfield 网络来说,关键是在于确定它在稳定条件下的权系数。 下图中,第0层是输入,不是神经元;第二层是神经元。

几种神经网络模型及其应用

几种神经网络模型及其应用 摘要:本文介绍了径向基网络,支撑矢量机,小波神经网络,反馈神经网络这几种神经网络结构的基本概念与特点,并对它们在科研方面的具体应用做了一些介绍。 关键词:神经网络径向基网络支撑矢量机小波神经网络反馈神经网络Several neural network models and their application Abstract: This paper introduced the RBF networks, support vector machines, wavelet neural networks, feedback neural networks with their concepts and features, as well as their applications in scientific research field. Key words: neural networks RBF networks support vector machines wavelet neural networks feedback neural networks 2 引言 随着对神经网络理论的不断深入研究,其应用目前已经渗透到各个领域。并在智能控制,模式识别,计算机视觉,自适应滤波和信号处理,非线性优化,语音识别,传感技术与机器人,生物医学工程等方面取得了令人吃惊的成绩。本文介绍几种典型的神经网络,径向基神经网络,支撑矢量机,小波神经网络和反馈神经网络的概念及它们在科研中的一些具体应用。 1. 径向基网络 1.1 径向基网络的概念 径向基的理论最早由Hardy,Harder和Desmarais 等人提出。径向基函数(Radial Basis Function,RBF)神经网络,它的输出与连接权之间呈线性关系,因此可采用保证全局收敛的线性优化算法。径向基神经网络(RBFNN)是 3 层单元的神经网络,它是一种静态的神经网络,与函数逼近理论相吻合并且具有唯一的最佳逼近点。由于其结构简单且神经元的敏感区较小,因此可以广泛地应用于非线性函数的局部逼近中。主要影响其网络性能的参数有3 个:输出层权值向量,隐层神经元的中心以及隐层神经元的宽度(方差)。一般径向基网络的学习总是从网络的权值入手,然后逐步调整网络的其它参数,由于权值与神经元中心及宽度有着直接关系,一旦权值确定,其它两个参数的调整就相对困难。 其一般结构如下: 如图 1 所示,该网络由三层构成,各层含义如下: 第一层:输入层:输入层神经元只起连接作用。 第二层:隐含层:隐含层神经元的变换函数为高斯核. 第三层:输出层:它对输入模式的作用做出响应. 图 1. 径向基神经网络拓扑结构 其数学模型通常如下: 设网络的输入为x = ( x1 , x2 , ?, xH ) T,输入层神经元至隐含层第j 个神经元的中心矢 为vj = ( v1 j , v2 j , ?, vIj ) T (1 ≤j ≤H),隐含层第j 个神经元对应输入x的状态为:zj = φ= ‖x - vj ‖= exp Σx1 - vij ) 2 / (2σ2j ) ,其中σ(1≤j ≤H)为隐含层第j个神

神经网络应用实例

神经网络 在石灰窑炉的建模与控制中的应用神经网络应用广泛,尤其在系统建模与控制方面,都有很好应用。下面简要介绍神经网络在石灰窑炉的建模与控制中的应用,以便更具体地了解神经网络在实际应用中的具体问题和应用效果。 1 石灰窑炉的生产过程和数学模型 石灰窑炉是造纸厂中一个回收设备,它可以使生产过程中所用的化工原料循环使用,从而降低生产成本并减少环境污染。其工作原理和过程如图1所示,它是一个长长的金属圆柱体,其轴线和水平面稍稍倾斜,并能绕轴线旋转,所以又 CaCO(碳酸钙)泥桨由左端输入迴转窑,称为迴转窑。含有大约30%水分的 3 由于窑的坡度和旋转作用,泥桨在炉内从左向右慢慢下滑。而燃料油和空气由右端喷入燃烧,形成气流由右向左流动,以使泥桨干燥、加热并发生分解反应。迴转窑从左到右可分为干燥段、加热段、煅烧段和泠却段。最终生成的石灰由右端输出,而废气由左端排出。 图1石灰窑炉示意图 这是一个连续的生产过程,原料和燃料不断输入,而产品和废气不断输出。在生产过程中首先要保证产品质量,包括CaO的含量、粒度和多孔性等指标,因此必须使炉内有合适的温度分布,温度太低碳酸钙不能完全分解,会残留在产品中,温度过高又会造成生灰的多孔性能不好,费燃料又易损坏窑壁。但是在生产过程中原料成分、含水量、进料速度、燃油成分和炉窑转速等生产条件经常会发生变化,而且有些量和变化是无法实时量测的。在这种条件下,要做到稳定生产、高质量、低消耗和低污染,对自动控制提出了很高的要求。 以前曾有人分析窑炉内发生的物理-化学变化,并根据传热和传质过程来建立窑炉的数学模型,认为窑炉是一个分布参数的非线性动态系统,可以用二组偏

Hopfield神经网络综述

题目: Hopfield神经网络综述 一、概述: 1.什么是人工神经网络(Artificial Neural Network,ANN) 人工神经网络是一个并行和分布式的信息处理网络结构,该网络结构一般由许多个神经元组成,每个神经元有一个单一的输出,它可以连接到很多其他的神经元,其输入有多个连接通路,每个连接通路对应一个连接权系数。 人工神经网络系统是以工程技术手段来模拟人脑神经元(包括细胞体,树突,轴突)网络的结构与特征的系统。利用人工神经元可以构成各种不同拓扑结构的神经网络,它是生物神经网络的一种模拟和近似。主要从两个方面进行模拟:一是结构和实现机理;二是从功能上加以模拟。 根据神经网络的主要连接型式而言,目前已有数十种不同的神经网络模型,其中前馈型网络和反馈型网络是两种典型的结构模型。 1)反馈神经网络(Recurrent Network) 反馈神经网络,又称自联想记忆网络,其目的是为了设计一个网络,储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到这个设计的平衡点上。反馈神经网络是一种将输出经过一步时移再接入到输入层的神经网络系统。 反馈网络能够表现出非线性动力学系统的动态特性。它所具有的主要特性为以下两点:(1).网络系统具有若干个稳定状态。当网络从某一初始状态开始运动,网络系统总可以收敛到某一个稳定的平衡状态; (2).系统稳定的平衡状态可以通过设计网络的权值而被存储到网络中。 反馈网络是一种动态网络,它需要工作一段时间才能达到稳定。该网络主要用于联想记忆和优化计算。在这种网络中,每个神经元同时将自身的输出信号作为输入信号反馈给其他神经元,它需要工作一段时间才能达到稳定。 2.Hopfield神经网络 Hopfield网络是神经网络发展历史上的一个重要的里程碑。由美国加州理工学院物理学家J.J.Hopfield 教授于1982年提出,是一种单层反馈神经网络。Hopfield神经网络是反馈网络中最简单且应用广泛的模型,它具有联想记忆的功能。 Hopfield神经网络模型是一种循环神经网络,从输出到输入有反馈连接。在输入的激励下,会产生不断的状态变化。 反馈网络有稳定的,也有不稳定的,如何判别其稳定性也是需要确定的。对于一个Hopfield 网络来说,关键是在于确定它在稳定条件下的权系数。 下图中,第0层是输入,不是神经元;第二层是神经元。

神经网络模型应用实例

BP 神经网络模型 近年来全球性的神经网络研究热潮的再度兴起,不仅仅是因为神经科学本身取得了巨大的进展.更主要的原因在于发展新型计算机和人工智能新途径的迫切需要.迄今为止在需要人工智能解决的许多问题中,人脑远比计算机聪明的多,要开创具有智能的新一代计算机,就必须了解人脑,研究人脑神经网络系统信息处理的机制.另一方面,基于神经科学研究成果基础上发展出来的人工神经网络模型,反映了人脑功能的若干基本特性,开拓了神经网络用于计算机的新途径.它对传统的计算机结构和人工智能是一个有力的挑战,引起了各方面专家的极大关注. 目前,已发展了几十种神经网络,例如Hopficld 模型,Feldmann 等的连接型网络模型,Hinton 等的玻尔茨曼机模型,以及Rumelhart 等的多层感知机模型和Kohonen 的自组织网络模型等等。在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。多层感知机神经网络的研究始于50年代,但一直进展不大。直到1985年,Rumelhart 等人提出了误差反向传递学习算法(即BP 算),实现了Minsky 的多层网络设想,如图34-1所示。 BP 算法不仅有输入层节点、输出层节点,还可有1个或多个隐含层节点。对于输入信号,要先向前传播到隐含层节点,经作用函数后,再把隐节点的输出信号传播到输出节点,最后给出输出结果。节点的作用的激励函数通常选取S 型函数,如 Q x e x f /11 )(-+= 式中Q 为调整激励函数形式的Sigmoid 参数。该算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层。每一层神经元的状态只影响下一层神经元的状态。如果输出层得不到期望的输出,则转入反向传播,将误差信号沿原来的连接通道返回,通过修改各层神经元的权值,使得误差信号最小。 社含有n 个节点的任意网络,各节点之特性为Sigmoid 型。为简便起见,指定网络只有一个输出y ,任一节点i 的输出为O i ,并设有N 个样本(x k ,y k )(k =1,2,3,…,N ),对某一输入x k ,网络输出为y k 节点i 的输出为O ik ,节点j 的输入为net jk = ∑i ik ij O W 并将误差函数定义为∑=-=N k k k y y E 12 )(21

人工神经网络应用实例

人工神经网络在蕨类植物生长中的应用 摘要:人工神经网络(ARTIFICIAL NEURAL NETWORK,简称ANN)是目前国际上一门发展迅速的前沿交叉学科。为了模拟大脑的基本特性,在现代神经科学研究的基础上,人们提出来人工神经网络的模型。根据此特点结合蕨类植物的生长过程进行了蕨类植物生长的模拟。结果表明,人工神经网络的模拟结果是完全符合蕨类植物的生长的,可有效的应用于蕨类植物的生长预测。 关键词:人工神经网络;蕨类植物;MATLAB应用 一人工神经网络的基本特征 1、并行分布处理:人工神经网络具有高度的并行结构和并行处理能力。这特别适于实时控制和动态控制。各组成部分同时参与运算,单个神经元的运算速度不高,但总体的处理速度极快。 2、非线性映射:人工神经网络具有固有的非线性特性,这源于其近似任意非线性映射(变换)能力。只有当神经元对所有输入信号的综合处理结果超过某一门限值后才输出一个信号。因此人工神经网络是一种具有高度非线性的超大规模连续时间动力学系统。 3、信息处理和信息存储合的集成:在神经网络中,知识与信息都等势分布贮存于网络内的各神经元,他分散地表示和存储于整个网络内的各神经元及其连线上,表现为神经元之间分布式的物理联系。作为神经元间连接键的突触,既是信号转换站,又是信息存储器。每个神经元及其连线只表示一部分信息,而不是一个完整具体概念。信息处理的结果反映在突触连接强度的变化上,神经网络只要求部分条件,甚至有节点断裂也不影响信息的完整性,具有鲁棒性和容错性。 4、具有联想存储功能:人的大脑是具有联想功能的。比如有人和你提起内蒙古,你就会联想起蓝天、白云和大草原。用人工神经网络的反馈网络就可以实现这种联想。神经网络能接受和处理模拟的、混沌的、模糊的和随机的信息。在处理自然语言理解、图像模式识别、景物理解、不完整信息的处理、智能机器人控制等方面具有优势。 5、具有自组织自学习能力:人工神经网络可以根据外界环境输入信息,改变突触连接强度,重新安排神经元的相互关系,从而达到自适应于环境变化的目的。 二人工神经网络的基本数学模型 神经元是神经网络操作的基本信息处理单位(图1)。神经元模型的三要素为: (1) 突触或联接,一般用,表尔神经元和神经元之间的联接强度,常称之为权值。 (2) 反映生物神经元时空整合功能的输入信号累加器。 图1 一个人工神经元(感知器)和一个生物神经元示意图 (3) 一个激活函数用于限制神经元输出(图2),可以是阶梯函数、线性或者是指数形式的

人工神经网络及其应用实例_毕业论文

人工神经网络及其应用实例人工神经网络是在现代神经科学研究成果基础上提出的一种抽 象数学模型,它以某种简化、抽象和模拟的方式,反映了大脑功能的 若干基本特征,但并非其逼真的描写。 人工神经网络可概括定义为:由大量简单元件广泛互连而成的复 杂网络系统。所谓简单元件,即人工神经元,是指它可用电子元件、 光学元件等模拟,仅起简单的输入输出变换y = σ (x)的作用。下图是 3 中常用的元件类型: 线性元件:y = 0.3x,可用线性代数法分析,但是功能有限,现在已不太常用。 2 1.5 1 0.5 -0.5 -1 -1.5 -2 -6 -4 -2 0 2 4 6 连续型非线性元件:y = tanh(x),便于解析性计算及器件模拟,是当前研究的主要元件之一。

离散型非线性元件: y = ? 2 1.5 1 0.5 0 -0.5 -1 -1.5 -2 -6 -4 -2 2 4 6 ?1, x ≥ 0 ?-1, x < 0 ,便于理论分析及阈值逻辑器件 实现,也是当前研究的主要元件之一。 2 1.5 1 0.5 0 -0.5 -1 -1.5 -2 -6 -4 -2 2 4 6

每一神经元有许多输入、输出键,各神经元之间以连接键(又称 突触)相连,它决定神经元之间的连接强度(突触强度)和性质(兴 奋或抑制),即决定神经元间相互作用的强弱和正负,共有三种类型: 兴奋型连接、抑制型连接、无连接。这样,N个神经元(一般N很大)构成一个相互影响的复杂网络系统,通过调整网络参数,可使人工神 经网络具有所需要的特定功能,即学习、训练或自组织过程。一个简 单的人工神经网络结构图如下所示: 上图中,左侧为输入层(输入层的神经元个数由输入的维度决定),右侧为输出层(输出层的神经元个数由输出的维度决定),输入层与 输出层之间即为隐层。 输入层节点上的神经元接收外部环境的输入模式,并由它传递给 相连隐层上的各个神经元。隐层是神经元网络的内部处理层,这些神 经元在网络内部构成中间层,不直接与外部输入、输出打交道。人工 神经网络所具有的模式变换能力主要体现在隐层的神经元上。输出层 用于产生神经网络的输出模式。 多层神经网络结构中有代表性的有前向网络(BP网络)模型、

基于Hopfield神经网络识别0~9

基于Hopfield 神经网络的数字识别 原理简介: Hopfield 网络是有反馈的全互联型网络,其形式如图2所示,N 为神经元的数目,V 表示神经元的输入向量,U 表示输出向量,W 为神经元之间的权值。离散Hopfield 网络中每个神经元的输出只能取“1”或“-1”两种状态,各神经元的状态可用向量V 表示:V={v 1,v 2 ,…v n }。网络中各神经元彼此互相连接,即每个神经元将自己的输出通过连接权传给其它神经元,同时每个神经元接受其它神经元传来的信息。 图2 有反馈的全互联型网络 Hopfield 网络的稳定性是由能量函数来描述的,即对网络的每个状态发生变化时,能量函数E 随网络状态变化而严格单调递减,这样Hopfield 模型的稳定与能量函数E 在状态空间的局部极小点将一一对应。 设有N 个神经元构成的Hopfield 网络,其中第i 个和第j 个神经元节点状态分别记为vi 和vj ;w 是神经元i 和j 的连接权,θ为神经元i 的阈值。节点的能量可表示为: Ei=-(i i n i j ij v w θ-∑≠)v 则整个Hopfield 网络整体能量函数定义为: E=-i n i i j i n i j ij n i v v v w ∑∑∑=≠=+1121θ 设有N 个神经元构成的Hopfield 神经网络,第i 个神经元在t 时刻所接收的来自其它N-1个神经元输入信号的总和记为ui (t ),t+1时刻第i 个神经元的输出值vi (t+1)是符号函数作用于ui (t )的某个阈值 时,该神经元将触发成兴奋状态。据此可知Hopfield 网络的运行规则为: (1) 在网络中随机地选择一个神经元; (2) 求所选神经元i (1≤i ≤N )的输入总和 u i (t)= i i n i j ij v w θ-∑≠;

基于神经网络的预测控制模型仿真

基于神经网络的预测控制模型仿真 摘要:本文利用一种权值可以在线调整的动态BP神经网络对模型预测误差进行拟合并与预测模型一起构成动态组合预测器,在此基础上形成对模型误差具有动态补偿能力的预测控制算法。该算法显著提高了预测精度,增强了预测控制算法的鲁棒性。 关键词:预测控制神经网络动态矩阵误差补偿 1.引言 动态矩阵控制(DMC)是一种适用于渐近稳定的线性或弱非线性对象的预测控制算法,目前已广泛应用于工业过程控制。它基于对象阶跃响应系数建立预测模型,因此建模简单,同时采用多步滚动优化与反馈校正相结合,能直接处理大时滞对象,并具有良好的跟踪性能和较强的鲁棒性。 但是,DMC算法在实际控制中存在一系列问题,模型失配是其中普遍存在的一个问题,并会不同程度地影响系统性能。DMC在实际控制中产生模型失配的原因主要有2个,一是诸如建模误差、环境干扰等因素,它会在实际控制的全程范围内引起DMC的模型失配;二是实际系统的非线性特性,这一特性使得被控对象的模型发生变化,此时若用一组固定的阶跃响应数据设计控制器进行全程范围的控制,必然会使实际控制在对象的非建模区段内出现模型失配。针对DMC模型失配问题,已有学者进行了大量的研究,并取得了丰富的研究成果,其中有基于DMC控制参数在线辨识的智能控制算法,基于模型在线辨识的自校正控制算法以及用神经元网络进行模型辨识、在辨识的基础上再进行动态矩阵控制等。这些算法尽管进行在线辨识修正对象模型参数,仍对对象降阶建模误差(结构性建模误差)的鲁棒性不好,并对随机噪声干扰较敏感。针对以上问题,出现了基于误差校正的动态矩阵控制算法。这些文献用基于时间序列预测的数学模型误差代替原模型误差,得到对未来误差的预测。有人还将这种误差预测方法引入动态矩阵控制,并应用于实际。这种方法虽然使系统表现出良好的稳定性,但建立精确的误差数学模型还存在一定的困难。 本文利用神经网络通过训练学习能逼近任意连续有界函数的特点,建立了一种采用BP 神经网络进行预测误差补偿的DMC预测控制模型。其中神经网络预测误差描述了在预测模型中未能包含的一切不确定性信息,可以归结为用BP神经网络基于一系列过去的误差信息预测未来的误差,它作为模型预测的重要补充,不仅降低建立数学模型的负担,而且还可以弥补在对象模型中已简化或无法加以考虑的一切其他因素。 本文通过进行仿真,验证了基于神经网络误差补偿的预测控制算法的有效性及优越性,

BP神经网络步骤及应用实例

1、数据归一化 2、数据分类,主要包括打乱数据顺序,抽取正常训练用数据、变量数据、测试数据 3、建立神经网络,包括设置多少层网络(一般3层以内既可以,每层的节点数(具体节点数,尚无科学的模型和公式方法确定,可采用试凑法,但输出层的节点数应和需要输出的量个数相等),设置隐含层的传输函数等。关于网络具体建立使用方法,在后几节的例子中将会说到。 4、指定训练参数进行训练,这步非常重要,在例子中,将详细进行说明 5、完成训练后,就可以调用训练结果,输入测试数据,进行测试 6、数据进行反归一化 7、误差分析、结果预测或分类,作图等 数据归一化问题 归一化的意义: 首先说一下,在工程应用领域中,应用BP网络的好坏最关键的仍然是输入特征选择和训练样本集的准备,若样本集代表性差、矛盾样本多、数据归一化存在问题,那么,使用多复杂的综合算法、多精致的网络结构,建立起来的模型预测效果不会多好。若想取得实际有价值的应用效果,从最基础的数据整理工作做起吧,会少走弯路的。 归一化是为了加快训练网络的收敛性,具体做法是: 1 把数变为(0,1)之间的小数 主要是为了数据处理方便提出来的,把数据映射到0~1范围之内处理,更加便捷快速,应该归到数字信号处理范畴之内。 2 把有量纲表达式变为无量纲表达式 归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量 比如,复数阻抗可以归一化书写:Z = R + jωL = R(1 + jωL/R) ,复数部分变成了纯数量了,没有量纲。另外,微波之中也就是电路分析、信号系统、电磁波传输等,有很多运算都可以如此处理,既保证了运算的便捷,又能凸现出物理量的本质含义。 神经网络归一化方法: 由于采集的各数据单位不一致,因而须对数据进行[-1,1]归一化处理,归一化方法主要有如下几种,供大家参考: 1、线性函数转换,表达式如下:复制内容到剪贴板代 码:y=(x-MinValue)/(MaxValue-MinValue)说明:x、y分别为转换前、后的值,MaxValue、MinValue分别为样本的最大值和最小值。 2、对数函数转换,表达式如下:复制内容到剪贴板代码:y=log10(x)说明:以

BP神经网络模型应用实例

第1节基本原理简介 近年来全球性的神经网络研究热潮的再度兴起,不仅仅是因为神经科学本身取得了巨大的进展.更主要的原因在于发展新型计算机和人工智能新途径的迫切需要.迄今为止在需要人工智能解决的许多问题中,人脑远比计算机聪明的多,要开创具有智能的新一代计算机,就必须了解人脑,研究人脑神经网络系统信息处理的机制.另一方面,基于神经科学研究成果基础上发展出来的人工神经网络模型,反映了人脑功能的若干基本特性,开拓了神经网络用于计算机的新途径.它对传统的计算机结构和人工智能是一个有力的挑战,引起了各方面专家的极大关注. 目前,已发展了几十种神经网络,例如Hopficld 模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart等的多层感知机模型和Kohonen的自组织网络模型等等。在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。多层感知机神经网络的研究始于50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算),实现了Minsky的多层网络设想,如图34-1所示。

BP 算法不仅有输入层节点、输出层节点,还可有1个或多个隐含层节点。对于输入信号,要先向前传播到隐含层节点,经作用函数后,再把隐节点的输出信号传播到输出节点,最后给出输出结果。节点的作用的激励函数通常选取S 型函数,如 式中Q 为调整激励函数形式的Sigmoid 参数。该算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层。每一层神经元的状态只影响下一层神经 元的状态。如果输出层得不到期望的输出,则转入反

人工神经网络概述及其在分类中的应用举例

人工神经网络概述及其在分类中的应用举例 秦兴德(周末班)学号:08200203 人工神经网络(ARTIFICIAL NEURAL NETWORK,简称ANN)是目前国际上一门发展迅速的前沿交叉学科。为了模拟大脑的基本特性,在现代神经科学研究的基础上,人们提出来人工神经网络的模型。人工神经网络是在对人脑组织结构和运行机智的认识理解基础之上模拟其结构和智能行为的一种工程系统。 神经网络在2个方面与人脑相似: (1) 人工神经网络获取的知识是从外界环境中学习得来的。 (2) 互连神经元的连接强度,即突触权值,用于存储获取的信息。他既是高度非线性动力学系统,又是自适应组织系统,可用来描述认知、决策及控制的智能行为。神经网络理论是巨量信息并行处理和大规模并行计算的基础。 一人工神经网络的基本特征 1、并行分布处理:人工神经网络具有高度的并行结构和并行处理能力。这特别适于实时控制和动态控制。各组成部分同时参与运算,单个神经元的运算速度不高,但总体的处理速度极快。 2、非线性映射:人工神经网络具有固有的非线性特性,这源于其近似任意非线性映射(变换)能力。只有当神经元对所有输入信号的综合处理结果超过某一门限值后才输出一个信号。因此人工神经网络是一种具有高度非线性的超大规模连续时间动力学系统。 3、信息处理和信息存储合的集成:在神经网络中,知识与信息都等势分布贮存于网络内的各神经元,他分散地表示和存储于整个网络内的各神经元及其连线上,表现为神经元之间分布式的物理联系。作为神经元间连接键的突触,既是信号转换站,又是信息存储器。每个神经元及其连线只表示一部分信息,而不是一个完整具体概念。信息处理的结果反映在突触连接强度的变化上,神经网络只要求部分条件,甚至有节点断裂也不影响信息的完整性,具有鲁棒性和容错性。 4、具有联想存储功能:人的大脑是具有联想功能的。比如有人和你提起内蒙古,你就会联想起蓝天、白云和大草原。用人工神经网络的反馈网络就可以实现这种联想。神经网络能接受和处理模拟的、混沌的、模糊的和随机的信息。在处理自然语言理解、图像模式识别、景物理解、不完整信息的处理、智能机器人控制等方面具有优势。 5、具有自组织自学习能力:人工神经网络可以根据外界环境输入信息,改变突触连接强度,重新安排神经元的相互关系,从而达到自适应于环境变化的目的。 6、软件硬件的实现:人工神经网络不仅能够通过软件而且可借助软件实现并行处理。近年来,一些超大规模集成电路的硬件实现已经问世,而且可从市场上购到,这使得神经网络具有快速和大规模处理能力的实现网络。许多软件都有提供了人工神经网络的工具箱(或软件包)如Matlab、Scilab、R、SAS等。 二人工神经网络的基本数学模型

相关文档
最新文档