收藏 分享(赏)

人工圣经网络简介(课件).ppt

上传人:tkhy51908 文档编号:8139709 上传时间:2019-06-10 格式:PPT 页数:163 大小:1.48MB
下载 相关 举报
人工圣经网络简介(课件).ppt_第1页
第1页 / 共163页
人工圣经网络简介(课件).ppt_第2页
第2页 / 共163页
人工圣经网络简介(课件).ppt_第3页
第3页 / 共163页
人工圣经网络简介(课件).ppt_第4页
第4页 / 共163页
人工圣经网络简介(课件).ppt_第5页
第5页 / 共163页
点击查看更多>>
资源描述

1、人工神经网络 Artificial Neural Networks,1. 引言(Preface) 2. 前向神经网络模型 3. 动态神经网络模型 4. 神经网络控制应用,1.引言,什么是神经网络?发展、定义、特点及应用,Fig. 1.1 生物神经元的基本结构,Inputs,Output layer,A simple example of neural network,Hidden layer,A provisional definition (临时定义),A neural network is an interconnected assembly of simple processing el

2、ements, units or nodes, whose functionality is loosely based on the animal neuron. The processing ability of the network is stored in the interunit connection strengths, or weights, obtained by a process of adaptation to, or learning from, a set of training pattern.,神经网络是一个由简单处理元素,单元或节点,相互联结构成的一个群体,

3、它的特性基于动物神经细胞。网络的处理能力反应在内部单元的连接强度,或权重,这些连接强度或权重是在一系列适应,或学习,过程中通过训练得到的。,神经网络是由许多简单的神经元组成的网络。其特性如下: 并行分布处理高度的并行结构和并行实现能力,因而有较好的耐故障能力和较快的总体处理能力,适于实时控制和动态控制;,神经网络的特性,非线性映射固有的非线性特性,适于非线性控制问题; 通过训练进行学习通过对系统过去的数据记录进行训练,具有归纳全部数据的能力,能够解决数学模型或描述规则难以处理的控制问题;,适应与集成适应在线运行,并能同时进行定量和定性操作,具有强适应和信息融合能力,特别适用于复杂、大规模和多变

4、量系统的控制。 硬件实现不仅能通过软件而且可借助硬件实现并行处理。,神经网络在控制系统中的作用,基于模型的各种控制结构中充当对象的模型; 充当控制器; 与其它智能控制相结合为其提供非参数化的对象模型、推理模型等。,神经网络系统研究的主要内容:神经元模型神经网络结构神经网络学习方法,线性处理单元(神经元) 非线性处理单元(神经元),1.1 神经元模型 1.2 神经网络的模型分类 1.3 神经网络的学习算法,1.1 神经元模型,神经元模型是模拟生物神经元的结构和功能、并从数学角度抽象出来的一个基本单元。,神经元是一个多输入-单输出的非线性器件。,神经元内部状态,从xj到单元ui的连接权系数,输入信

5、号,j=1,n,外部输入信号,阈值,输出信号,神经元结构模型,上图的模型可描述为:,神经元非线性函数模型,常用的神经元非线性函数模型有以下4种:1、域值型,f,1,Neti,0,2、分段线性型,3、Sigmoid函数型4、Tan函数型,1.2 神经网络的模型分类,1、根据人工神经网络对生物神经系统的不同组织层次和抽象层次的模拟,网络模型可分为:神经元层次模型组合式模型网络层次模型神经系统层次模型,2、按神经元之间连接方式的不同,可分为:前向网络反馈网络相互结合型网络混合型网络,(1)前向网络,神经元分层排列,组成输入层,隐含层和输出层每一层的神经元只接受前一层神经元的输出,(2)反馈网络,只在

6、输出层到输入层存在反馈,每一个输入节点都有可能接受来自外部的输入和来自输出的反馈.,(3)相互结合型网络,属于网状结构,任意两个神经元之间都可能有连接.信号在神经元之间反复往返传递,不断改变状态直到到达某种平衡,(4)混合型网络,是相互结合型网络与前向网络的一种结合,通过层内神经元的相互结合,可以实现同一层内神经元之间的横向抑制或兴奋机制.,1.3 神经网络的学习算法,神经网络的学习方法(Learning algorithm) 学习:学习的过程实质上是针对一组给定输入 使网络产生相应的期望输出的过程。,神经网络的学习算法分为:,有导师学习算法无导师学习算法,学习规则根据连接权系数的改变方式不同

7、可分为: (1)相关学习 Hebb规则 (2)纠错学习 规则 (3)无导师学习 竞争式学习,相关学习Hebb规则如果神经元 和 同时处于兴奋状态,那么这两个神经元间的连接强度应该加强.即 应加强.,神经元活性度,从神经元 到神经元 的连接强度,即权值变化 可用下式表达:,G是神经元 的活性度 和导师信号 的函数.,H是神经元 的输出 和连接权值 的函数.,当导师信号没给出时,函数H又只与输出 成正比,G与 成正比,那么权值变化可简化为:,学习因子,当输出较大或活性度较大时,神经元间的连接权值增大.,纠错学习delta规则函数G与导师信号和神经元 实际的活性度 的差值成比例;函数H和神经元的输出

8、 成比例.,对上式,若将导师信号 作为期望输出 ,而把 理解为实际输出 ,根据这个规则的学习算法,通过反复迭代运算,直到求出使 达到最小时的 值.,纠错学习的基本思想:如果节点的输出正确,则一切保持不变;如果节点的输出本应为0,但实际输出为1,则权系数相应减少;如果节点的输出本应为1,但实际输出为0,则权系数相应增加。,竞争式学习 网络由二层组成输入层: 由接收输入模式的处理单元组成; 竞争层:竞争单元争相响应输入模式,胜者表示输入模式的所属类别.,竞争单元的处理分为两步: 1.计算每个单元输入的加权和;2.对加权和做比较,最高者被定为胜者.具有最高加权和的单元其输出状态为”1”,其他各单元的

9、输出状态为”0”.,竞争单元的输入,获胜单元确定后,便更新权值,只有获胜单元的权值才增加一个量,使得再次遇到该输入模式时,该单元有更大的输入总和. 权值更新规则:,2 前向神经网络模型,前向神经网络结构图,一组输入模式,一组输出模式,系统变换,给定的输入样本,相应的输出样本,系统变换,训练,在一定的规则指导下,有导师的学习,4.2.1 单层前向神经网络(感知器) 4.2.2 多层神经网络结构 4.2.3 多层网络的学习算法(BP网络算法),4.2.1单层前向神经网络(感知器)数学描述:,感知器的应用实现逻辑与、或,与运算,W1=1, w2=1, b=1.5,或运算,W1=1, w2=1, b=

10、0.5,简单网络,算术方法可以得到权值和域值复杂网络,权值和域值要通过网络训练得到,网络的训练步骤,(1)随机给定一组连接权值 (2)任取一组训练样本 ,计算,(3)按下式调整连接权值(4)在样本集中选取另外一组样本,并让k=k+1,重复(2)-(3)的过程,直到,练习一: 假设一个二输入的感知器神经网络,其输入和期望值样本为:请设计一个感知器网络,并训练使其输出满足期望值.,net =newp(-2 2;-2 2,1); net .trainParam.epochs=1; x = 2;2 1;-2 -2;2 -1;1; t = 0 1 0 1; net = train(net,x,t); a

11、 = sim(net,x); a=0 1 0 1 plotpv(x,a),感知器的应用_模式分类对于两类线性可分模式,单层感知器对外部输入可以进行识别分类.,类1,类2,x1,x2,w1x1+w2x2+b=0,练习二: 设计一个感知器,将二维的四组输入矢量分成两类.输入样本:x=-0.5 -0.5 0.3 0;-0.5 0.5 -0.5 1输出样本:t=1 1 0 0simup(x1;x2,w,b)对非样本数据进行分类.,4.2.2多层前向传播网络结构,输入层,隐层,输出层,多层传播网络模型输入层 隐层输入变量 向 个隐含层单元传递输入信号,即每一个隐含单元的激励满足如下方程:,隐层的激励函数

12、,隐层 输出层,输出层神经元的激励函数,隐层的输出,假设每一层的神经元激励函数都相同,对于L+1层前向传播网络,其网络输出的数学表达式统一记作:,各层神经元的激励函数,i-1层到i层的连接权矩阵,4.2.4 多层传播网络的学习算法对于给定的输入矢量 ,其网络的响应:表示从输入空间到输出空间的映射. 与网络结构相关的非线性算子.,对输入输出矢量对 , 神经网络首先进行训练,即:对连接权阵进行调整,以满足当输入为 时其输出应为 .,训练样本集,Step1. 对于一组给定的权系数 ,对输入 ,响应为Step2. 找出响应值 与期望值 的误差,距离函数,Step 3.调整权系数T, 使得误差Ep达到极

13、小. (网络训练),对于N个样本集,具有n个输出单元的网络,其性能指标为:是一个正定的.可微的凸函数.通常可以用平方误差和来表示,即:,训练周期进行,每一个周期都针对所有样本集训练.,对于多层前向传播神经网络,设第k层第i个神经元输入总和为 ,输出为 ,则各变量之间的关系为:,(1),前一层的输出,对于性能指标函数:,训练的目的,E最小,(2),多层前向网络的学习算法之一BP算法误差反向传播算法,BP网络模型,BP神经网络结构图,设各层间激励函数为对于k个单元输出,其性能指标函数为:,k单元第p个样本的期望值,样本的第p个,k单元第p个样本的实际值,(1),输入层到隐层隐层j单元的输入 :隐层

14、j单元的输出:,(2),(3),这里把域值看作一个输入,其连接权系数为1,隐层到输出层输出层k单元的输入:输出层k单元的输出:,(4),(5),该网络的性能函数(省略下标p):,BP算法的目的:使期望值 与实际值 之差的平方和最小。即求性能函数的极小值,约束条件为(4)式。,利用非线性规划中的“快速下降法”,使权值沿误差函数的梯度方向改变,因此,权值的修正量为,学习因子, 取值范围(0,1),求解过程,(6),梯度下降法理想学习曲线,由(4)式和(5)式,可知,(7),另外,于是,对于输出层任意单元k, 都有:,对于隐层与输入层的权值变化,同样有:其中,,学习因子, 取值范围(0,1),对 不

15、能直接求出,通过间接变量进行计算:,于是,输入层与隐层间的权值变化为:,来自输出层与隐层的权值变化,为计算方便,定义广义误差:则对应的权值修正为:,期望输出,输入模式,隐层,输入层,输出层,输出模式,比较,修正权值,逐层处理,误差后向传播,BP学习算法程序框图,例:如图所示的多层前向传播神经网络结构。假设对于期望的输入 ,期望输出 。网络权系数的初始值见图。试用BP算法训练此网络。这里,取神经元激励函数 ,学习步长为 。,解:1.隐层的输入输出,2.输出层的输入和输出,3.判断 4.输出层与隐层的权值修正,5.隐层与输入层的权值修正(略)6.返回第1步,直到期望输出与实际输出的误差满足要求。,

16、BP网络应用例_函数逼近,要求: 设计一个二层BP网络,用于逼近正弦函数. 隐层神经元函数为tansig函数; 输出层神经元函数为purelin函数; 网络训练方法trainlm (Levenberg-Marquardt方法),4.3 动态神经网络模型,动态神经网络 (反馈动力学神经网络):,动态神经网络结构图,动态神经网络的特点: 神经元之间靠反馈连接. 系统有若干个稳定状态.如果从某一初始状态开始运动,系统总可以进入某一稳定状态. 系统的稳定状态可以通过改变相连单元的权值而达到.,典型动态神经网络Hopfield 网络主要用途: 联想记忆最优化计算理论基础: 神经动力学能量函数,4.3.1

17、 联想记忆 4.3.2 神经动力学基础 4.3.2 离散Hopfield网络 4.3.3 连续Hopfield网络,4.3.1 联想记忆,联想-指系统在给定一组刺激信号的作用下,该系统能联系出与之相对应的信号. 记忆-信息的存储. 联想记忆-首先将信息存储起来,再按某种方式或规则将相关信息取出. 是基于内容的存取.,联想记忆的实现-由权重和连接结构对信息(稳定状态)进行记忆;针对新的输入模式,通过动力学的演化过程达到稳定状态(联想)。联想记忆的应用-图像复原、模式识别等。,联想记忆的分类: 自联想:其中, 网络的输入模式,学习样本,即网络的输出,偏差项(噪声、缺损、畸变)使输入模式映射到存储在

18、网络中的不同模式的一种。,联想记忆的分类: 异联想: 和其中, 网络的输入模式,学习样本,偏差项(噪声、缺损、畸变)网络的输出。 例如:输入某人破损的照片,输出姓名,4.3.2 神经动力学基础,1989年 Hirsch把神经网络看作是一种非线性的动力学系统,称为神经动力学。,确定性神经动力学系统用非线性微分方程的集合描述,解为确定解。 统计性神经动力学系统用随机性的非线性微分方程描述,解用概率表示。,重要公式及定义,系统动力性微分方程:如果下式成立:则称矢量 为系统的稳态或平衡态。,定理1:如果在平衡态 的小邻域内存在有界正函数 ,该函数对时间的导数在区域中是有界非正函数,则 是稳定的。即下式

19、成立:,定理2:如果在平衡态 的小邻域内存在有界正函数 ,该函数对时间的导数在区域中是有界负函数,则 是渐进稳定的。即下式成立:,定义:有界正函数 能量函数。对所有的 ,如果 满足下列条件,则称 为状态空间 上的有界正函数。,即:找到符合定义条件的能量函数 ,且只要其满足则该动态网络是稳定的。Hopfield 动态网络能量函数:,能量函数极小值图示:,将极值点作为记忆状态,则可将动态网络用于联想记忆;将全局极小值看成最优解,则网络可用于最优化计算。,4.3.2 离散Hopfield网络,DHNN (Discrete Hopfield Neural Network) 结构,网络特点: 神经元输出

20、不反馈给自身,它的信息通过其它神经元实现反馈; 网络为对称连接,即:,Hopfield网络稳定的充分条件,任意神经元i的输入用 表示,输出用 表示,则该神经元的输入和输出分别为:,离散hopfield网络实现联想记忆必须具备的两个条件: 网络是稳定的,能够收敛于稳定状态; 当给定某一输入时,能够通过自身的动力学状态演化过程,达到与其距离最近的某一稳定状态。,Hopfield应用_联想记忆,输出层有n个神经元的网络,共有2n状态。例如:3个神经元的状态图。,第一步:训练网络的权系数(Hebb规则或delta规则),使稳态信息在网络立方体的某一个顶角的能量最小。 第二步:向网络给定输入向量,网络根

21、据记忆产生完整输出。,例:设计一个二神经元的Hopfield神经网络,它具有两个稳定平衡点 1;-1 和 -1;1,例:设计一个三神经元的Hopfield神经网络,它具有两个稳定平衡点 1;-1;-1 和 1;1;-1,2.连续的Hopfield网络,连续型Hopfield神经网络电子线路,系统外部输入,细胞膜的传递电阻,细胞膜的输入电容,模拟生物神经元输出的时间常数,模拟神经元的非线性特性,连续型Hopfield网络动力学系统方程为:其能量函数定义为:,(5),(6),(7),假设连接权矩阵为对称矩阵有 , 为单调递增的连续函数,则当所有的 时,有 .,即: 随着时间的推移, 性能函数逐渐减

22、小,最后达到网络的平衡点(E的极小值),Hopfield 网络的应用-TSP问题 假定有5个城市A、B、C、D、E,它们之间的距离分别为dAB、dAC、dBC、。问题:寻找一条闭合路径,此路径历经每个城市且仅经过一次,然后返回起始城市,要求此路径长度最短。,Step1:置换矩阵路径: 距离:,Step2: 问题的约束条件和最优化要求 一个城市只能被访问一次,即每行只有一个“1”; 一次只能访问一个城市,即每列只有一个“1”; 共有5个城市,即矩阵的全部元素中“1”的总和为5; 要求访问路径最短,即网络性能函数最小值对应最短路径。,Step3 把问题的目标函数转化为能量函数 条件a: (1)第x

23、行的所有元素 按顺序两两相乘之和应为0, 即:,(2)n行的所有元素按顺序两两相乘之和应为0,即:(3)将上式乘以系数 构成网络能量函数的第一项:,(1),同理:对于条件b有:对于条件c,所有为“1”的元素之和应等于n, 有:,(2),(3),对于优化条件d,设任意两城市x、y之间的距离为dxy,访问这两个城市有两种途径:分别表示为:,那么,顺序访问x、y两城市所有可能途径(长度)可表示为:,于是,n个城市两两之间所有可能的访问路径的长度可表示为:类似于约束条件,得到:,(4),由上面公式(1)(4),构成能量函数:,当能量函数E达到极小时,由网络状态 构成的矩阵表达了满足约束条件的最佳路径。

24、,Step4 建立网络,确定网络的连接权值和阈值网络由25个神经元构成,每一个神经元的状态为0 or 1,设网络(x,i)神经元与(y,j)神经元之间的连接权值为 ,神经元(x,i)的阈值为 ,则令:其中:,(5),由连续Hopfield网络的动力学方程:将(5)式代入,得到求解TSP网络的迭代方程:,(6),神经元的激励函数为:,具体求解TSP的步骤: 初始化,给定一个 ,各神经元的初始状态。其中, 为【-1,1】区间上的随机数。,2. 求各神经元的输出3.将 代入(6)式,求出,4.求下一时刻的状态量5.判断6.返回第2步,直到满足判断条件。,(7),END,作业: 设计一个BP网络,实现

25、对字母O 和 M 的辩识. 报告包括:1. 问题分析2. 设计过程3. 程序实现4. 仿真结果5. 结论,神经网络稳定状态的分布是由连接权值决定的,所以设计网络稳定状态的核心就是获得一组合适的权值.,权值设计方法: 根据求解问题的要求直接计算出所需要的连接权值-静态产生方法 通过一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的稳定状态-动态产生方法.,例: 如图一个3节点DHNN,要求设计的稳定状态为 和 . 权值和阈值可在-1,1区间取值,试确定网络权值和阈值.假设连接权值 .,解: 1.对于稳定状态 对神经元1当系统处于稳态时,应满足:,(1),解: 对神经元2当系统处于稳态时

26、,应满足:,(1),(2),对神经元3当系统处于稳态时,应满足:,(3),2.对于稳定状态 对神经元1,有不等式:对神经元2,有不等式,(4),(5),对神经元3,有不等式利用以上6个不等式可以求出6个未知量的变化范围. 如果假设取 则:,(6),由式(1)得, ,取由式(4)得, ,取由式(2)得, ,取由式(5)得, ,取由式(3)和(6)得, ,取,于是,得到一组权值和阈值:可以验证,利用这组数据对于任何一个初始状态,最终都将达到所期望的稳定状态或,设DHNN网络的连接权阵为域值向量为:,神经元i与神经元j的连接强度,t时刻神经元 i 的状态(可能是1或0)用 表示,那么神经元 i 的状态随时间变化的规律为:其中,其性能函数定义为:为各神经元的输出.,(1),如果性能函数E为非增函数(Non-increasing function), i.e. , 则随着时间的推移, E将不断降低,最后达到某一稳定的平衡状态.,考查第m个神经元的输出变化前后,性能函数E 值的变化. (1) 从0 1时的性能函数为:,(2),时的性能函数为:于是, 当 从0 1时,(3),(4),此时,神经元的输出是从0 1,因此满足神经元兴奋条件:于是可得:,(2) 从1 0此时 是从1 0,所以,即: 无论神经元的状态是从0 1还是从1 0, 总有 ,最后趋于稳定的平衡状态.,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报