1、安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书1基于 BP 神经网络的燃烧控制系统4.1 神经网络4.1.1 神经网络简介 神经网络(Artificial Neural Networks,简称 NN)是模仿人脑工作方式而设计的一种机器,它可用电子元件实现,也可用软件在计算机上实现。NN 也可以说是一种具有大量连接的并行分布式处理器,由处理单元和有向连接组成,通过对输入施加作用获取输出。神经网络具有通过学习获取知识并解决问题的能力,其知识存储在连接权中。神经网络自 1943 年被提出以后大致经历了四个发展阶段。从 1943 年到 60 年代,在这一阶段提出了多种网络模型和相关算法
2、;60 年代末至 70 年代,由于电子线路交叉极限的困难难以克服,使神经元的数量受到限制,导致神经网络的发展进入低潮,相关研究工作进展缓慢。80 年代到 90 年代初期,由于 Hopfield 神经网络模型的提出,以及能量函数和稳定性等概念的产生使神经网络又获得了新的发展,相关的模型、算法和应用问题被提出。90 年代以后,神经网络在经历了 80 年代末到 90年代初的高潮后,硬件技术、应用范围与理论水平都有了很大的进展,开始进入了稳健发展时期。4.1.2 神经网络模型神经网络是由大量神经元按一定的结构连接而成,来完成不同信息(包括智能信息)处理任务的非线性系统。不同神经元之间通过各自的突触权值
3、来表示不同的连接关系。在学习的过程中不断调整突触权值,使网络实际输出不断逼近期望输出。图4-1 是基本的神经元模型,其中 X1 . Xn 是神经元的输入,W 1 Wn 是输入连接权值,T 是神经元的阈值( 也称偏执量 )。神经元由三个基本要素构成:安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书2x 1x ix n.T f ( )w1 jwi jwn j.y图 4- 1 神 经 元 模 型(1)连接权,用来表示连接强度,权值为正表示激励,为负表示抑制;(2)求和单元,用于求取输入变量的加权和;(3)非线性激励函数,也称活化函数,用来实现函数映射并限制神经元输出幅度。活化函数可以是
4、线性也可以是非线性,不同的活化函数可以构成不同的模型。常用的活化函数类型有线性函数(比例函数)、硬限函数、饱和线性函数(分段函数)、S 形函数等。以上作用关系可以用数学表达式表达如下:(4-1)1nijiSwxT若把阈值 T 表示为输入 X0,即 X0=T,W 0 = -1,则神经元接收的信息总和为(4-2)0nTTijiSxX输出为 sfy (4-3)式中, yfA为转移函数。几种转移函数简述如下:(1) 单极性阈值型转移函数(如图 4-2 (a)所示)(4-4)1,0()xf具有这一作用方式的神经元称为阈值型神经元,这是神经元中最简单的一种,经典的 MP 模型就属于这一类。(2) 双极性阈
5、值型转移函数(如图 4-2 (b)所示)(4-5)1,0sgn()x安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书3这是神经元中最常用的一种,许多处理离散信号的神经网络采用符号函数作为转移函数。(3) 单极性 Sigmoid 型转移函数,简称单极性 S 型函数(如图 4-2 (c)所示)(4-6)1()xfxe(4) 双极性 Sigmoid 型转移函数,简称双极性 S 型函数(如图 4-2 (d)所示)(4-7)21()xxfee单极性和双极性 S 型函数特点是函数本身及其导数都是连续的,因而在处理上十分方便。(5) 分段线性转移函数(如图 4-2 (e)所示)(4-8)0,(
6、)1,cxfc该函数的特点是神经元的输入与输出在一定区间内满足线性关系,实现上比较简单,也称伪线性函数。(6) 概率型转移函数采用概率型转移函数的神经元模型其输入与输出之间的关系是不确定的,需用一个随机函数来描述其输出状态为 1 或为 0 的概率。设神经元输出为 1 的概率为:(4-9)/xTPe式中,T 称为温度参数。由于采用该转移函数的神经元输出状态分布于热力学中的波尔兹曼分布类似,因此这种神经元模型也称为热力学模型。f ( x )1 . 00xf ( x )1 . 00 x- 1 . 0(a) (b)安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书40 . 50xf ( x
7、 )1 . 0(c) - 1 . 0xf ( x )1 . 00(d)安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书5xf ( x )1 . 00xc(e)a) 单极性阈值型转移函数;b)双极性阈值型转移函数;c)单极性 Sigmoid 型转移函数; d)双极性 Sigmoid 型转移函数;e)分段线性转移函数图 4- 2 转移函数图形4.1.3 神经网络结构和工作方式从网络的连接方式上看,神经网络有两种拓扑结构。1、前馈型神经网络神经元接受前层神经元的输出并输入到下一层,神经元之间的连接只存在输入层隐含层、隐含层隐含层、隐含层输出层之间,同一层神经元不存在互连,每层神经元的输
8、入仅来自于前一层神经元的输出,即层间的信号流是单向的。节点分为三类:输入节点、输出节点和隐含节点,分别位于输入层、输出层和隐含层,输入层和输出层与外界相连,中间层称为隐含层。前馈型网络结构如图 4-3 所示。输入层隐含层输出层图 4- 3 一 层 隐 含 层 的 前 馈 型 网 络2、反馈型神经网络安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书6反馈型网络模型是具有反馈功能的递归网络结构,网络中的任何两个神经元均有可能互连,信号流可以是双向且反复往返传输,直到输入输出信息趋于平衡。整个网络中至少存在一个闭环回路。图 4-4 所示为一个完全连接的反馈型网络。图 4- 4 单 层
9、全 连 接 反 馈 型 网 络神经网络的工作过程分为两个阶段:学习期和工作期。网络在学习期通过学习完成网络连接权值的调整,学习完成后进入工作期,依据固定的连接权值计算某个输入作用下对应的输出。根据作用效果,前馈网络是函数映射,用于模式识别和函数逼近。反馈网络按照对能量函数极小点的利用情况分为两类,一类是所有极小点都起作用,多用于各种联想存储器,另一类是只有全局极小值起作用,多用于网络寻优。4.1.4 神经网络学习方法向环境学习获取知识以改变自身性能是神经网络的重要特征。一般情况下,神经网络按照某种方式逐步调整自身参数来改善网络性能。按环境提供信息量的多少区分,学习方式有三种。1、监督学习(有导
10、师学习)这种学习方式采用的是纠错规则,在学习训练过程中需要系统存在一个导师,它可以对一组给定的输入提供期望的输出,这组已知的输入输出样本对称之为训练样本集,即“教师信号” 。其学习过程为基于适当的学习算法,将神经网络的实际输出与期望输出进行比较,当网络输出与期望的教师信号不符时,根据差错的方向和大小按一定的规则来调整网络参数,使网络的实际输出值逼近期望输出值。当网络对于各种给定的输入均能产生所期望的输出时,即认为网络已经在导师的训练下“学会”了训练数据集中包含的知识和规则,可以用来进行工作了。监督学习方式如图 4-5 所示。安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书7环境
11、学习系统导师误差信号实际输出期望输出+图 4- 5 监 督 学 习2、非监督学习(无导师学习)如图 4-6,非监督学习是指在没有外部导师指导下针对不同输入模式而进行的学习,学习系统按照环境提供的数据的某些统计规律来调节网络的参数或结构,以反映出输入的某种固有特性。3、再励学习再励学习是一种仿人心理的学习方式,如图 4-7 所示。其学习思想是这样,如果对系统施加的某个行为能够带来一个满意的效果,相似的行为下采取相同的行为的趋势就加强,所以这种学习也叫加强学习或强化学习,再励学习与监督学习的不同之处在于再励学习的依据是评判信号的“好”与“不好” ,而监督学习的依据是导师信号。环境 学习系统输入图
12、4- 6 非 监 督 学 习环境 学习系统输出评价输入图 4- 7 再 励 学 习目前常用的网络多为前向网络,而前向网络中又以 BP 网络和 RBF 网络最为常见。本文将采用 BP 网络来对冶金石灰窑燃烧系统进行研究。安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书84.2 燃烧系统 BP 神经网络建模与优化石灰窑燃烧系统是工业生产中极为重要的系统。石灰窑的工作效率和其污染物排放量的多少与石灰窑燃烧工况息息相关。因此,为石灰窑燃烧系统建立精确的模型有利于很好的研究其高热效率的运行策略,保证其经济运行。石灰窑的燃烧过程具有强耦合、非线性等特征,对于这些复杂的过程,难以用机理模型来描
13、述。由于神经网络具有非常强的非线性映射能力,对复杂系统的描述具有较好的效果,因此利用神经网络建立石灰窑燃烧控制系统的优化模型是比较合适的。4.2.1 BP 网络结构BP(Back Propagation)神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP 网络能学习和存贮大量的输入输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。多层前向 BP 网络是目前应用最多的一种神经网络形式。多层前向 BP 网络实质上实现了一个从输入到输出的映射功能,而数学理论
14、已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题;而且能通过学习正确答案的实例集自动提取“合理的” 求解规则,即具有自学习能力;不仅如此,BP 神经网络还具有一定的推广、概括能力。因而被广泛地运用于模式识别、函数逼近和图像处理等各个领域. 然而 BP 网络存在着收敛速率慢、易陷入局部极小、隐层结构难以确定等不足, 针对这些不足所提出的诸多改进虽一定程度上得到改善, 但仍在存储空间、算法简洁等方面难以均衡。多层感知器(MLP)是一种重要的前馈网络,其算法用的最多的是 BP 算法。由于 BP 算法影响巨大,人们习惯上把采用 BP 算法训练的 MLP 称为 BP 网
15、络,但事实上 BP 只是 MLP 的一种常用算法。本文中沿用了 BP 网络这种习惯用法。BP 网络是一个完全连接的前馈网络。由输入层、隐含层和输出层组成,其中隐含层可以有多层,每层包含多个神经元,其中输入层神经元个数是 n0,后面各层的神经元个数分别为 n1, , n2 .。输入层的神经元仅起信息传递作用,其转移函数是恒等函数,输出等于输入。隐含层和输出层是完全连接的,其转移函数多采用 S 形函数,最常用的是 Sigmoid 函数(4-10)1()syfse安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书9输出层的转移函数可以采用多种形式,最常用的是线性函数和 Sigmoid 函
16、数,对于一般函数逼近问题常采用线性函数。4.2.2 BP 算法BP 算法全称是误差反向传播,最初由 PauWerbos 在 1974 年的博士论文中提出,1986 被由 D.E.Rumelhart 领导的 PDP 小组重新提出,对当时低迷的神经网络研究起到了极大的推动作用。BP 算法的基本思想是最小二乘法,采用梯度搜索方法,以期使网络的实际输出值与期望输出值的误差均方根最小。BP 算法的学习过程包括正向传播和反向传播。输入信号从输入层经过隐含层到输出层,每层神经元的状态只影响下一层神经元的状态。这个过程称作正向传播过程。如果实际输出与期望输出误差太大,则将误差信号沿反向逐层返回,并根据误差逐层
17、修改各权值,使得误差最小。设一个三层 BP 网络有 m 个输入节点, 个输出节点, 个隐含神经元。lq表示输入层第 个神经元到隐含层第 个神经元之间的连接权值, 表示隐1jiwj i 2jiw含层第 个神经元到输出层第 个神经元之间的连接权值。隐含层的输入和输出i层的输入是前一层神经元的输出的加权和,输入为 , = 1,2,m;输出为ix, =1, 2, ;BP 算法训练过程如下:jyl(1)初始化所有权值;(2)准备训练样本,即输入输出样本对;(3)计算隐含层和输出层各神经元的输出;(4)计算实际输出与期望输出间的偏差;(5)计算权值修正量 和 ;2jiw1ji(6)返回至(2)重复计算,直
18、到单个样本输出误差 E 满足要求。目前在实际应用中有两种权值调整方法。从以上步骤可以看出,在标准 BP算法中,每输入一个样本,都要回传误差并调整权值,这种对每个样本轮训的权值调整方法又称为单样本训练。由于单样本训练遵循的是只顾眼前的“本位主义”原则,只针对每个样本产生的误差进行调整,难免顾此失彼,使整个网络训练次数增加,导致收敛速度过慢。另一种方法是在所有样本输入之后,计算网络的总误差,然后根据总误差计算各层的误差信号并调整权值,这种累积误差的批处理方式称为批训练或周期训练。由于批训练遵循了以减小全局误差为目标的“集体主义”原则,因而可以保证总误差向减小的方向变化。在样本较多时,批训练比单样本
19、训练时的收敛速度快。具体算法流程图如下图 4-8 所示。安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书10初始化开始输入训练样本求隐含层和输出层各节点的输出求实际输出与期望输出的误差 E用 E 计算各层误差信号样本是否输入完毕调整各层权值E 是否达到期望要求结束YNYN图 4- 8 算 法 流 程 图BP 网络具有算法简单、易行、计算量小、并行能力强等优点,是目前采用最多也是最为成熟的神经网络训练算法。BP 网络的本质是误差最小值求解问题,采用非线性规划中的最速下降法,沿着误差函数的负梯度方向修改权值,于是造成了 BP 网络学习效率低下,收敛速度慢,易陷入局部极小值,网络泛化和
20、适应能力较差。通过以上文分析,BP 神经网络由于其结构简单,可塑性强,故在函数逼近、模式识别等领域得到广泛应用。但该方法存在两个主要问题:网络学习训练的收敛性较差和易收敛到局部最小点。因此,本文利用加动量项法对 BP 神经网络进行优化的方法来克服以上的缺点,将其应用于石灰窑燃烧系统建模中。安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书114.2.3 BP 网络建模石灰窑燃烧系统是个复杂的多输入多输出系统,具有非线性、强耦合、大延时的特点。石灰窑燃烧系统建模的目的是为了依据所建模型,利用一定的方法对燃烧系统进行优化,将得到的优化参数作为控制系统的设定参数,指导系统优化运行,达到目
21、标最优。图 4-9 为建立神经网络建模的过程。建模对象模型输入修正网络误差+输出图 4- 9 神 经 网 络 建 模 过 程利用神经网络对石灰窑燃烧系统进行建模,可以充分利用数据优势,发挥神经网络处理非线性问题的优势,避免数值分析计算量过大、耗时过长、建立精确完善的模型需要充分了解机理等缺点。这里使用了前向网络中算法最成熟、使用最频繁的BP网络和加动量项算法优化神经网络,所建模型可用图4-10表示。神经网络相当于一个黑箱,网络根据输入输出样本对建模对象进行学习。动态模糊神经网络具有明确的物理意义,相当于灰箱,方便利用已有的知识和专家经验。神经网络模型燃料量窑体压力石灰窑热效率 图 4- 10
22、套 筒 石 灰 窑 建 模针对石灰窑燃烧系统建立了一个加动量项的2输入1输出的三层BP神经网络模型,设置隐含层的节点个数为5个,此处节点个数的设置是通过试凑法得出,模型结构如图4-11所示。其中x 1、x 2为模型的两个输入量:燃料量和石灰窑窑体安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书12压力;y为模型的输出:石灰窑热效率。连接权值V 、W 的初始值用归一化的随机数设定。x1x2yvw图 4- 11 燃 烧 模 型 的 BP 网 络 建 模4.3 面向 MATLAB 的 BP 神经网络的设计 4.3.1 BP 神经网络的初始化在训练前馈神经网络之前,我们必须设置权值和阈值
23、的初始值。当我们使用函数 newff 创建前馈神经网络后,网络会自动地初始化权值和阈值,缺省值都是 0。如果要设置这些初始值,可以使用函数 init(),命令格式为:net=init(net)函数 init()会根据网络的初始化函数以及它的参数值来设置网络的权值和阈值的初始值,它们分别由参数 net.initFcn 和 net.initParam 表示。对 BP 神经网络来说,参数 net.initFcn 的值是 initwb,它使网络的初始化采用了 Nguyen-Widrow 算法。4.3.2 BP 神经网络的创建指令格式:net=newffnet=newff(PR,S1 S2.SN,TF1
24、 TF2.TFN,BTF,BLF ,PF)参数意义:PR 输入向量的取值范围。Si 第 i 层的神经元个数,总共 N 层。Tfi 第 i 层的传递函数,缺省值为 “tansig”。BTF BP 网络训练函数,缺省值为“trainlm” 。BLF BP 网络权值和阈值学习函数,缺省值为“learngdm” 。PF 性能函数,缺省值为 “mse”。执行结果:创建一个 N 层的 BP 神经网络。安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书134.3.3 BP 神经网络的训练当神经网络的权值和阈值初始化以后,我们就可以对网络进行训练。在训练的过程中,网络的权值和阈值被反复的调整,以减
25、少网络性能函数net.performFcn 的值,直到达到预先的要求。 BP 神经网络的 net.performFcn 的缺省值是 mse网络的输出和目标输出的均方误差。BP 神经网络的训练同样可以使用函数 train()和 adapt()。函数 train()是通过调用参数 net.trainFcn 设定的训练函数来实现网络训练的,而且训练方式由参数net.trainParam 的值来确定。而函数 adapt()是通过调用参数 net.adaptFcn 设定的训练函数来实现网络训练的,训练方式由参数 net.adaptParam 的值确定。BP 神经网络的训练算法中,都是通过计算性能函数的梯
26、度,再沿负梯度方向调整权值和阈值,从而使性能函数达到最小。第 k 个循环中的调整公式可表示为 1kkxg其中 表示当前的权值和阈值, 表示当前的梯度, 表示学习率。kxgkMATLAB 神经网络工具箱为我们提供了很多训练函数,本文中我将采用动量批梯度下降函数 traingdm 来对 BP 神经网络进行训练。动量批梯度下降函数 traingdm 实现的是一种批的前馈神经网络训练算法,它不但具有更快的收敛速度,而且引入了一个动量项,有效的避免了局部最小问题在网络训练中的出现。所谓动量项的加入就是指在网络的每次权值和阈值该变量中加入前一次的改变量,第 k 次循环中的权值和阈值改变量可表示为:11wg
27、mckkbb其中 、 分别表示当前性能函数对权值和阈值的梯度, 是学习率,wgkb kmc 是动量系数。 mc 的值在 0 到 1 之间,当 mc 为 0 时,权值和阈值的改变量就由此时计算出的负梯度来确定;当 mc 为 1 时,权值和阈值的改变量就等于它们前一时刻的改变量。而且如果在某个循环内,网络的性能函数值超过了参数max_perf_inc 的值,mc 的值将被自动设置为 0。4.3.4 训练数据的预处理 由于实测的辅助变量之间量级上有较大差异,这些数据特征的不均衡将导致在网络训练过程中,部分变量的特征不能充分体现出来,甚至可能还会导致网络的不收敛。因此,需要对原始计算数据进行适当的预处
28、理,使其更适合于安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书14神经网络的训练。当然,当训练完成之后,输出数据还要进行反变换以还原数据特征。数据的预处理一般采用两种方法,即归一化和正态化。本文将采用归一化来对数据进行处理。归一化:归一化即将训练用的输入数据和目标数据进行变换,使其数据最终分布在 区间内。归一化公式为1,-+(4-11)minaxi112iix其中, 为原始数据, 和 代表 中最大值和最小值, 为归一化后i ini ix的数据。本文采用归一化对原始输入及目标数据进行预处理,使其数据最终分布在-1,+1区间内。为了测试神经网络的泛化能力, 还需要将原始数据分为训练
29、样本和测试样本, 分别用于网络的学习训练和泛化测试。本文将选择 40 组的数据作为训练样本,选择 10 组数据作为测试样本。4.4 基于 BP 神经网络燃烧控制系统的 MATLAB 仿真实现4.4.1 程序的设计close all clear echo on clc % NEWFF生成一个新的前向神经网络 % TRAIN对 BP 神经网络进行训练 % SIM对 BP 神经网络进行仿真 pause % 敲任意键开始 clc % 定义训练样本, P 为输入矢量P=-1.00000 -0.94026 -0.91031 -0.85067 -0.80551 -0.77034 -0.71100 -0.64
30、578 -0.59067 -0.55187 -0.48765 -0.43408 -0.39304 -0.36185 -0.29803 -0.25386 -0.21944 -0.15388 -0.08852 -0.05967 0.01032 0.04455 0.09857 0.15527 0.19865 0.25904 0.29913 0.34449 0.40776 0.44826 0.50332 0.54759 0.59192 0.65539 0.70204 0.75557 0.78561 0.85446 0.94006 1.00000;1.00000 0.94957 0.91125 0.85
31、577 0.81140 0.74281 0.73979 0.67120 0.63389 0.57438 0.51992 安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书150.44831 0.40696 0.35149 0.32526 0.25063 0.23550 0.14372 0.09733 0.04186 0.01361 -0.03480 -0.09733 -0.16289 -0.19012 -0.26979 -0.33636 -0.38981 -0.45940 -0.50076 -0.55018 -0.59052 -0.65003 -0.71054 -0.75290 -
32、0.78215 -0.86687 -0.90822 -0.94251 -1.00000T=-1.00000 -0.96010 -0.89999 -0.84852 -0.81455 -0.79218 -0.73180 -0.70646 -0.65014 -0.62155 -0.58085 -0.51671 -0.47412 -0.43503 -0.40404 -0.36172 -0.33638 -0.28382 -0.25336 -0.19352 -0.16469 -0.12210 -0.09487 -0.06658 -0.01321 0.01484 0.06146 0.12615 0.1781
33、8 0.22157 0.32102 0.36604 0.43908 0.45769 0.53317 0.60405 0.70835 0.73640 0.79489 1.00000pause; clc % 创建一个新的前向神经网络 net=newff(minmax(P),5,1,tansig,purelin,traingdm) % 当前输入层权值和阈值 inputWeights=net.IW1,1 inputbias=net.b1 % 当前网络层权值和阈值layerWeights=net.LW2,1 layerbias=net.b2 pause clc % 设置训练参数net.trainPara
34、m.show = 50; net.trainParam.lr= 0.05; net.trainParam.mc = 0.9; net.trainParam.epochs = 8000; net.trainParam.goal = 6e-004; pause clc % 调用 TRAINGDM 算法训练 BP 网络 net,tr=train(net,P,T); pause clc % 对 BP 网络进行仿真 A = sim(net,P) % 计算仿真误差E = T - A 安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书16MSE=mse(E) pause clc echo off
35、 4.4.2 仿真结果一、工作空间里的相关参数(如图 4-12 所示)图 4- 12 工作空间参数表展开后可见相关参数如下:当前输入层权值和阈值:inputWeights =-1.1058 -2.9287-3.0726 -0.5995-1.5656 -2.7109-2.1385 2.2863-1.8134 2.5518inputbias =3.13051.56520-1.5652-3.1305当前网络层权值和阈值:layerWeights =-0.0183 -0.0215 -0.3246 0.8001 -0.2615安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书17layerb
36、ias =-0.7776仿真输出A = sim(net,P):A =Columns 1 through 8-0.9767 -0.9447 -0.9153 -0.8698 -0.8297 -0.7630 -0.7620 -0.6983Columns 9 through 16-0.6670 -0.6160 -0.5739 -0.5136 -0.4791 -0.4270 -0.4117 -0.3428Columns 17 through 24-0.3358 -0.2596 -0.2349 -0.1887 -0.1866 -0.1504 -0.1062 -0.0581Columns 25 throug
37、h 32-0.0420 0.0242 0.0821 0.1289 0.1938 0.2358 0.2927 0.3428Columns 33 through 400.4062 0.4879 0.5500 0.6167 0.6741 0.7621 0.8605 0.9308计算仿真误差E=T-A:E =Columns 1 through 8-0.0233 -0.0154 0.0153 0.0213 0.0151 -0.0292 0.0302 -0.0082Columns 9 through 160.0168 -0.0055 -0.0070 -0.0031 0.0049 -0.0080 0.007
38、6 -0.0189Columns 17 through 24-0.0006 -0.0243 -0.0184 -0.0048 0.0219 0.0283 0.0114 -0.0084Columns 25 through 320.0288 -0.0094 -0.0206 -0.0027 -0.0157 -0.0143 0.0283 0.0232Columns 33 through 400.0329 -0.0302 -0.0168 -0.0126 0.0343 -0.0257 -0.0656 0.0692网络输出和目标输出的均方误差 MSE=mse(E):MSE =5.8345e-004二、网络的训
39、练仿真结果针对冶金石灰窑生产实际,一般要求其燃烧过程的热效率指标与目标值之间的误差控制在5%。为此,本文采用动量梯度下降算法,同时选择训练的期望误差为 6e-004,对神经网络进行训练。以下为运用 Matlab 的图形用户界面完成的仿真结果。图 4-13 给出了仿真界面,图 4-14(a)、(b)、(c)给出了神经网络训练过程的收敛曲线。可以看出,在训练过程中,达到预期的 6e-004 。燃烧过程的热效率指标与目标值之间的误差较低,训练效果比较理想。安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书18图 4- 13 仿 真 界 面(a )安 徽 工 业 大 学 毕 业 设 计 (
40、论 文) 说 明 书19(b)(c )图 4- 14 冶 金 石 灰 窑 热 效 率 神 经 网 络 模 型 训 练 曲 线三、神经网络的数据验证将验证数据输入所建神经网络得到输出数据,程序如下:P=-0.94469 -0.65663 -0.46820 -0.24003 -0.10503 0.10046 0.33370 0.54222 0.70776 0.85943;0.98689 0.83661 0.51992 0.25063 0.05598 -0.09733 -0.25366 -0.52496 -0.75290 -0.86687安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书
41、20a=sim(net,P)得到结果:a =Columns 1 through 8-0.9751 -0.8912 -0.7762 -0.6864 -0.6247 -0.3869 0.2253 0.1080Columns 9 through 100.4958 0.7596与验证数据样本中目标输出进行比较可知,该系统达到了预先设定的要求。四、结论根据以上分析, 可以得出以下结论:1无论对于训练样本还是测试样本, 该网络模型均有很小的误差输出, 可见网络的学习性能和泛化性能都比较理想;2仿真和实验结果表明,采用神经网络建立的石灰窑燃烧控制模型, 可将燃烧系统热效率指标控制在5%范围内。如应用于石灰窑
42、生产过程的优化控制,可实现石灰窑燃烧系统的节能降耗和经济运行,达到预期效果。安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书21附录 3 训练样本和验证样本数据1)训练样本目标值(%)(石灰窑热效率)辅助变量 1(t/h)(燃料量)辅助变量 2(kPa)(窑体压力)序号归一化前 归一化后 归一化前 归一化后 归一化前 归一化后1 93.0597 -1.00000 238.6553 -1.00000 -135.43 1.000002 93.0745 -0.96010 238.7754 -0.94026 -135.93 0.949573 93.0968 -0.89999 238.83
43、56 -0.91031 -136.31 0.911254 93.1159 -0.84852 238.9555 -0.85067 -136.86 0.855775 93.1285 -0.81455 239.0463 -0.80551 -137.30 0.811406 93.1368 -0.79218 239.1170 -0.77034 -137.98 0.742817 93.1592 -0.73180 239.2363 -0.71100 -138.01 0.739798 93.1686 -0.70646 239.3674 -0.64578 -138.69 0.671209 93.1895 -0.
44、65014 239.4782 -0.59067 -139.06 0.6338910 93.2001 -0.62155 239.5562 -0.55187 -139.65 0.5743811 93.2152 -0.58085 239.6853 -0.48765 -140.19 0.5199212 93.2390 -0.51671 239.7930 -0.43408 -140.90 0.4483113 93.2548 -0.47412 239.8755 -0.39304 -141.31 0.4069614 93.2693 -0.43503 239.9382 -0.36185 -141.86 0.3
45、514915 93.2808 -0.40404 240.0665 -0.29803 -142.12 0.3252616 93.2965 -0.36172 240.1553 -0.25386 -142.86 0.2506317 93.3059 -0.33638 240.2245 -0.21944 -143.01 0.2355018 93.3254 -0.28382 240.3563 -0.15388 -143.92 0.1437219 93.3367 -0.25336 240.4877 -0.08852 -144.38 0.0973320 93.3589 -0.19352 240.5457 -0
46、.05967 -144.93 0.0418621 93.3696 -0.16469 240.6864 0.01032 -145.21 0.0136122 93.3854 -0.12210 240.7552 0.04455 -145.69 -0.0348023 93.3955 -0.09487 240.8638 0.09857 -146.31 -0.0973324 93.4060 -0.06658 240.9778 0.15527 -146.96 -0.1628925 93.4258 -0.01321 241.0650 0.19865 -147.23 -0.1901226 93.4362 0.0
47、1484 241.1864 0.25904 -148.02 -0.2697927 93.4535 0.06146 241.2670 0.29913 -148.68 -0.33636安 徽 工 业 大 学 毕 业 设 计 (论 文) 说 明 书2228 93.4775 0.12615 241.3582 0.34449 -149.21 -0.3898129 93.4968 0.17818 241.4854 0.40776 -149.90 -0.4594030 93.5129 0.22157 241.5668 0.44826 -150.31 -0.5007631 93.5498 0.32102 24
48、1.6775 0.50332 -150.80 -0.5501832 93.5665 0.36604 241.7665 0.54759 -151.20 -0.5905233 93.5936 0.43908 241.8556 0.59192 -151.79 -0.6500334 93.6005 0.45769 241.9832 0.65539 -152.39 -0.7105435 93.6285 0.53317 242.0770 0.70204 -152.81 -0.7529036 93.6548 0.60405 242.1846 0.75557 -153.10 -0.7821537 93.693
49、5 0.70835 242.2450 0.78561 -153.94 -0.8668738 93.7039 0.73640 242.3834 0.85446 -154.35 -0.9082239 93.7256 0.79489 242.5555 0.94006 -154.69 -0.9425140 93.8017 1.00000 242.6760 1.00000 -155.26 -1.000002)验证样本目标值(%)(石灰窑热效率)辅助变量 1(t/h)(燃料量)辅助变量 2(kPa)(窑体压力)序号归一化前 归一化后 归一化前 归一化后 归一化前 归一化后1 93.0652 -0.98517 238.7665 -0.94469 -135.56 0.986892 93.