1、反馈型神经网络,1.前馈型与反馈型神经网络的比较,(1) 前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。 (2) 前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。(3) 前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。(4)两
2、者都有局部极小问题。,2.反馈型神经网络模型,一、网络结构单层全反馈型神经网络结构 输入输出关系为:,2.反馈型神经网络模型,二、网络状态(1)轨迹经过一段时间t (t0)后不会再延伸,而永远停留在X(t0+t)状态,这时称网络收敛到一个稳定点或平衡点。在一个反馈网络中,可能存在有多个稳定点,根据不同的情况,这些稳定点可分为: 渐近稳定点Xe 不稳定的平衡点Xf 网络的伪稳定点 (2)轨迹为环状,称为极限环。(3)如果X(t)的轨迹在某个确定的范围内变化,但既不重复又不能停下来,状态变化为无穷多个,而轨迹也不发散到无穷远,这种现象成为混沌(Chaos).(4)如果X(t)的轨迹随时间一直延伸到
3、无穷远,此时状态发散,而系统的输出也发散。,2.反馈型神经网络模型,三、网络的设计要求(1)网络的稳定性 (2)网络的稳定点 (3)稳定点的吸引域,霍普菲尔德(Hopfield)神经网络,美国加州理工学院物理学家J.J.Hopfield教授于1982年提出一种单层反馈神经网络,后来人们将这种反馈网络称作Hopfield 网。Hopfield网络是单层对称全反馈网络,根据激活函数选取的不同,可分为离散型(DHNN)和连续性(CHNN)两种。 DHNN:作用函数为hadlim,主要用于联想记忆。 CHNN:作用函数为S型函数,主要用于优化计算。,离散型的 Hopfield神经网络,1、网络结构 2
4、、网络的工作方式 3、网络的稳定性分析 4、DHNN网络设计,离散型Hopfield神经网络模型,一、网络结构 DHNN的结构是一个单层结构的全反馈网络,有n个节点,W是一个nn的对称零对角权值矩阵,为n维阈值向量。 DHNN网中的每个神经元都有相同的功能,其输出称为状态,用 xj 表示。所有神经元状态的集合就构成反馈网络的状态:X=x1,x2,xnT反馈网络的输入就是网络的状态初始值,表示为: X(0)=x1(0),x2(0),xn(0)T,离散型Hopfield神经网络模型,j=1,2,n,DHNN网的转移函数常采用符号函数,式中净输入为,j=1,2,n,对于DHNN网,一般有wii=0
5、,wij=wji。,反馈网络稳定时每个神经元的状态都不再改变,此时的稳定状态就是网络的输出,表示为,离散型Hopfield神经网络模型,二、网络的工作方式 (1) 串行(异步)工作方式 任一时刻t,只有某一个节点i (随机地或确定性地选择) 变化,而其余n-1个节点的状态保持不变,即:(2) 并行(同步)工作方式 任一时刻t,所有的节点或部分节点改变状态,即:,离散型Hopfield神经网络模型,三、网络的稳定性分析 (1)网络的状态稳定:若网络从一个初态X(t0)出发,经过一个有限时刻t,网络的状态不再发生变化,即:则称网络是稳定的,这时所有的节点输出不再变化,网络稳定在某一状态。如果网络是
6、稳定的,它可以从任一初态收敛到一个稳态。,离散型Hopfield神经网络模型,有限环:若网络是不稳定的,由于DHNN网每个节点的状态只有1和-1两种情况,网络不可能出现无限发散的情况,而只可能出现限幅的自持振荡,这种网络称为有限环网络。 混沌:如果网络状态的轨迹在某个确定的范围内变迁,但既不重复也不停止,状态变化为无穷多个,轨迹也不发散到无穷远,这种现象称为混沌。,离散型Hopfield神经网络模型,网络达到稳定时的状态X,称为网络的吸引子。 如果把问题的解编码为网络的吸引子,从初态向吸引子演变的过程便是求解计算的过程。 若把需记忆的样本信息存储于网络不同的吸引子,当输入含有部分记忆信息的样本
7、时,网络的演变过程便是从部分信息寻找全部信息,即联想回忆的过程。 定义:若网络的状态X 满足X=f(net)=f(WX-T) 则称X为网络的吸引子。,离散型Hopfield神经网络模型,(2)稳定性定理 定理1:当网络工作在异步方式下,满足wij=wji,wii=0,i、j=1,2,n,则能量函数单调下降,且网络必定稳定。 定理5.1证明: 定义网络的能量函数为:令网络的能量改变量为E,状态改变量为X,有,离散型Hopfield神经网络模型,将 代入上式 ,并考虑到W为对称矩阵,有,离散型Hopfield神经网络模型,对于DHNN网络的任一个节点i,能量函数的变化可能有以下几种情况:因此,网络
8、无论在什么条件下都能保证E0,这样就保证了网络的稳定性和收敛性。,离散型Hopfield神经网络模型,由于网络中各节点的状态只能取1 或 1 ,能量函数E(t) 作为网络状态的函数是有下界的,因此网络能量函数最终将收敛于一个常数,此时E(t)=0 。综上所述,当网络工作方式和权矩阵均满足定理1的条件时,网络最终将收敛到一个吸引子。 定理2:当网络工作在异步方式下,满足wij=wji,i、j=1,2,n,则能量函数单调下降,且网络必定稳定。,离散型Hopfield神经网络模型,定理3:当网络工作在并行方式下,满足wij=wji,则网络或者收敛于一个稳定点,或者收敛于极限环为2的一个周期解。 证明
9、:在并行工作方式时,其能量函数可以用下式表示:,离散型Hopfield神经网络模型,离散型Hopfield神经网络模型,由于在NET(t)中的每个分量NETi(t)与在X(t+1)中每个分量Xi(t+1)同号,因而成立。所以E0。现在考虑在稳定点的情况,即E=0的情况: 若 X(t)=X(t+1)=X(t-1),则E=0,且网络达到稳定。 若X(t)X(t+1)=X(t-1), 则E=0,且网络到达周期为2的极限环。 证毕。,离散型Hopfield神经网络模型,推论:(1) 如果W为一个正定矩阵,Ti=0、对所有的i成立,则:网络必定达到稳定收敛。(2) 如果W为一个负定矩阵,Ti=0、对所有
10、的i成立,则:网络周期振荡,极限环为2。,离散型Hopfield神经网络模型,以上分析表明,在网络从初态向稳态演变的过程中,网络的能量始终向减小的方向演变,当能量最终稳定于一个常数时,该常数对应于网络能量的极小状态,称该极小状态为网络的能量井,能量井对应于网络的吸引子。 性质1 :若X 是网络的一个吸引子,且阈值T=0,在sgn(0)处,xj(t+1)=xj(t),则 X 也一定是该网络的吸引子。 证明:X 是吸引子,即X= f (WX),从而有f W(X)=f WX=f WX= XX 也是该网络的吸引子。,离散型Hopfield神经网络模型,性质2:若Xa是网络的一个吸引子,则与Xa的海明距
11、离dH(Xa,Xb)=1的Xb一定不是吸引子。,证明:不妨设x1ax1b,xja= xjb,j=2,3,n。 w11=0,由吸引子定义,有,由假设条件知,x1ax1b,故,-Xb 不是该网络的吸引子。,离散型Hopfield神经网络模型,能使网络稳定在同一吸引子的所有初态的集合,称为该吸引子的吸引域。 定义2 若Xa是吸引子,对于异步方式,若存在一个调整次序,使网络可以从状态X 演变到Xa ,则称 X 弱吸引到Xa;若对于任意调整次序,网络都可以从状态X 演变到Xa,则称X强吸引到Xa。 定义3 若对某些X,有X弱吸引到吸引子Xa,则称这些X的集合为Xa的弱吸引域;若对某些X,有X强吸引到吸引
12、子Xa,则称这些X的集合为Xa的强吸引域。,离散型Hopfield神经网络模型,例.1 设有3节点DHNN网,用无向图表示如下,权值与阈值均已标在图中,试计算网络演变过程的状态。,离散型Hopfield神经网络模型,解:设各节点状态取值为1 或0 ,3 节点DHNN 网络应有23=8种状态。不妨将X=(x1,x2,x3 ) ,T=(0,0,0) T 作为网络初态,按123的次序更新状态。 第1步:更新x1 , x1=sgn(-0.5)0+0.20(-0.1)=sgn(0.1)=1 其它节点状态不变,网络状态由(0,0,0)T变成(1,0,0)T。如果先更新 x2 或 x3,网络状态将仍为(0,
13、0,0)T,因此初态保持不变的概率为2/3,而变为(1,0,0)T的概率为1/3。 第2步:此时网络状态为(1,0,0)T,更新x2后,得 x2=sgn(-0.5)1+0.600=sgn(-0.5)=0 其它节点状态不变,网络状态仍为(1,0,0)T。如果本步先更新 x1 或 x3,网络相应状态将为(1,0,0)T和(1,0,1)T,因此本状态保持不变的概率为2/3,而变为(1,0,1)T 的概率为1/3。 第3步:此时网络状态为(1,0,0)T,更新x3得x3=sgn0.21+0.600=sgn(0.2)=1 同理可算出其它状态之间的演变历程和状态转移概率。,离散型Hopfield神经网络模
14、型,从这个例子,可以看出两个显著的特征:(1)状态(011)是一个满足前面定义的稳定状态。(2)从任意初始状态开始,网络经过有限次状态更新后,都将到达该稳定状态。,DHNN网络状态演变示意图,HNN的联想记忆,所谓联想可以理解为从一种事物联系到与其相关的事物的过程. 日常生活中,从一种事物出发,人们会非常自然地联想到与该事物密切相关或有因果关系的种种事务. 两种联想形式 自联想(Auto-association) : 由某种代表事物(或该事物的主要特征,或部分主要特征)联想到其所标示的实际事物。 从英文字头“Newt”联想到“Newton”。 听到歌曲的一部分可以联想起整个曲子。,HNN的联想
15、记忆,异联想(他联想)(Hetero -association) : 由一种事物(或该事物的主要特征,或部分主要特征)联想到与其密切相关的另一事物。 从质能关系式E=mc2联想到其发明者爱因斯坦。 看到某人的名字会联想起他的相貌和特点。 人脑从一种事物得到对应事物的两种途径 按时间顺序对相关事物进行思考 可通过时间表来回忆某一阶段所做的工作. 通过事物本质特征的对比来确定事物的属性 由提示信息或局部信息对事物进行回忆或确认.,HNN的联想记忆,HNN的一个功能是可用于联想记忆,也即是联想存储器.这是人类的智能特点之一. 人类的所谓“触景生情”就是见到一些类同过去接触的景物,容易产生对过去情景的
16、回昧和思忆. 对于HNN,用它作联想记忆时,首先通过一个学习训练过程确定网络中的权系数,使所记忆的信息在网络的n维超立方体的某一个顶角的能量最小. 当网络的权系数确定之后,只要向网络给出输入向量,这个向量可能是局部数据. 即不完全或部分不正确的数据,但是网络仍然产生所记忆的信息的完整输出.,HNN的联想记忆,1984年Hopfield提出一种用n维HNN作联想存储器的结构. HNN联想存储器的主要思想为: 根据欲存储的信息的表示形式和维数,设计相应的HNN结构 将欲存储的信息设计为HNN的动力学过程的已知的渐近稳定平衡点 通过学习和设计算法寻求合适的权值矩阵将稳定状态存储到网络中,离散型Hop
17、field神经网络模型,4. DHNN网络设计 用 DHNN实现联想记忆需要考虑两个重要的问题: 怎样按记忆确定网络的W和; 网络给定之后如何分析它的记忆容量。 为了使所设计的权值满足要求,权值矩阵应符合以下要求: 为保证异步方式工作时网络收敛,W 应为对称阵; 为保证同步方式工作时网络收敛,W 应为非负定对称阵; 保证给定样本是网络的吸引子,并且要有一定的吸引域。 下面将分别讨论。权值设计的方法记忆容量分析权值修正的其它方法,离散型Hopfield神经网络模型,(1)权值设计的方法 权值设计的方法有外积法、伪逆法、正交设计法等。 外积型网络权值的学习方法 网络待记忆的学习样本有N个,XK,
18、K=1,2,N,XKRn,其每个分量为XiK,i=1,2,n,利用已知需要存储的样本来设计n个节点间的连接权值,如节点i和j间的连接权值为:,离散型Hopfield神经网络模型,若取wjj=0,上式应写为,式中I为单位矩阵。上式写成分量元素形式,有,下面检验所给样本能否称为吸引子。,因为P个样本Xp,p=1,2,P,x-1,1n 是两两正交的,有,离散型Hopfield神经网络模型,因为n P,所以有,可见给定样本 Xp,p=1,2,P 是吸引子。,离散型Hopfield神经网络模型,如果N个样本XK,K=1,2,N,不是两两正交,其连接权值依据Hebb规则求 得,在N个样本中任选一个样本XK
19、作为初始输入: 通过上式可求得新的输出XK=sgn(WXK),取XK的第j个分量:,离散型Hopfield神经网络模型,式中,设nj为零均值的随机变量,Xik,Xjk1,-1,而nj的方差2=(N-1)n , 。对于非正交的学习样本,如果满足 ,则网络仍可收敛到其记忆样本上,设样本维数为n,样本个数为N,则根据Hebb规则设计的DHNN,实现样本均为吸引子的充分条件(样本应满足的条件)为:,(1)若N个样本两两正交,则充分条件为,(2)若m个样本不是两两正交,则为,四、DHNN的联想记忆功能与权值设计,例 对于一个4神经元的网络,取阈值为0。给定两个模式存贮于网络之中m1: V(1)v1,v2
20、,v3,v41,1,1,1m2: V(2)v1,v2,v3,v4-1,-1,-1,-1 计算可得权矩阵:,给出用于联想的原始模式: mA : V(A)1,1,-1,1 运行网络得到稳定状态V(1)1,1,1,1,这个稳定状态正好是网络已记忆的模式m1 由此可以认为A是由模式mA联想起来的。 如联想模式为: mB : V(B)-1,-1,-1,1 则得到另一稳定状态:V(2)-1,-1,-1,-1,即模式m2,(2)伪逆法,(3)正交化的权值设计,1)保证系统在异步工作时的稳定性; 2)保证所有要求记忆的稳定平衡点都能收敛到自己; 3)使伪稳定点(网络最终稳定到一个渐近稳定点上,但这个稳定点不是
21、网络设计所要求的解)的数目尽可能的少; 4)使稳定点的吸引域尽可能的大。,四、DHNN的联想记忆功能与权值设计,设给定m个样本向量 x(k)=(k=1,2,m) ,首先组成如下的n (m-1) 阶矩阵,对A进行奇异值分解,U是nn正交阵,V是(m-1) (m-1) 正交阵。,(3)正交化的权值设计,则 u1,u2,ur 是对应于非零奇异值1, 2, r 的左奇异向量,且组成了A的值域空间的正交基;ur+1,un 是 A的值域的正交补空间的正交基。,按如下方法组成连接权矩阵W和阈值向量b。,U可表示成,(3)正交化的权值设计,所设计出的平衡稳定点能够保证收敛到自己并且有较大的稳定域。,DHNN的
22、权值设计及网络工作过程示例,例1 采用Hebb规则,设计离散Hopfield网络,判断样本是否均为吸引子,并考察这两个吸引子的吸引能力。两个样本为,解 1)求连接权矩阵,DHNN的权值设计及网络工作过程示例,可见,两个样本 均为网络的吸引子。,不满足前面给出的充分条件,是否为吸引子需具体加以检验:,2)判断样本是否为吸引子,两个样本不正交,根据第二种情况判断,3)考察两个吸引子的吸引能力(联想记忆的功能),显然它比较接近x(1),用异步方式按1,2,3,4的调整次序来演变网络:,(1),可见,只需异步方式调整一步既收敛到 x(1) 。,即,3)考察两个吸引子的吸引能力(联想记忆的功能),显然它
23、比较接近x(2),用异步方式按1,2,3,4的调整次序来演变网络:,(2),可见,只需异步方式调整一步既收敛到 x(2) 。,即,(3),可见,此时x(5)收敛到 x(2) 。,即,它与 x(1) 和x(2) 的海明距离(两个向量不相同元素的个数)均为2。若按1,2,3,4的调整次序调整网络可得,即,若按3,4,1,2的调整次序调整网络可得,即,即,可见,此时x(5)收敛到 x(1) 。,下面对该例应用同步方式进行计算,仍取x(0)为x(3), x(4), x(5) 三种情况。,(1),可见, x(3)收敛到 x(1) 。,(2),可见, x(4)收敛到 x(2) 。,(3),可见,它将在两个
24、状态间跳跃,产生极限环为2的自持振荡。若根据前面的稳定性分析,由于此时连接权矩阵W不是非负定阵,所以出现了振荡。,离散型Hopfield神经网络模型,2. 记忆容量分析 记忆容量是指在网络结构参数一定条件下,保证联想记忆功能正确实现,网络所能存储的最大样本数。当网络规模一定时,所能记忆的模式是有限的。 联想记忆的原理(1) 自联想记忆(Auto-AM) 设在学习过程中存入N个样本XK,K=1,2,N, 若输入X=XK+V,其中XK是N个样本之一,V是偏差项(可能是噪声、图形的缺损或畸变等),要求输出为Y=XK,即使之复原。(2) 他联想记忆(Hetero-AM) 规定两组样本之间有一定的对应关
25、系XKYK, K=1,2,N,例如,XK代表某人的照片,YK代表某人的姓名。使用时,若输入X=XK+V,要求输出为Y= YK。 当网络只记忆一个稳定的模式时,该模式肯定被网络准确无误的记忆住。但当所要记忆的模式增加时,情况则发生了变化,主要表现在下列两点上: (1)权值移动 (2)交叉干扰,离散型Hopfield神经网络模型,(1)权值移动 在网络的学习过程中,网络对权值的记忆实际上是逐个实现的。即对权值W,有程序:当网络准确的X1时,为了记忆X2,需要在记忆样本X1的权值上加上对样本X2的记忆项X2 X2T-I,将权值在原来值的基础上产生了移动。这样网络有可能部分得遗忘了以前以记忆住的模式。
26、,(,),end,I,X,X,W,W,q,k,for,W,T,K,K,-,+,=,=,=,1,0,离散型Hopfield神经网络模型,从动力学的角度来看,k值较小时,网络Hebb学习规则,可以使输入学习样本成为其吸引子。随着k值的增加,不但难以使后来的样本成为网络的吸引子,而且有可能使已记忆住的吸引子的吸引域变小,使原来处于吸引子位置上的样本从吸引子的位置移动。对一记忆的样本发生遗忘,这种现象称为“疲劳”。 (2)交叉干扰网络在学习多个样本后,在回忆阶段即验证该记忆样本时,所产生的干扰,称为交叉干扰。 对外积型设计而言,如果输入样本是彼此正交的,n个神经元的网络其记忆容量的上界为n。但是在大多
27、数情况下,学习样本不可能是正交的,因而网络的记忆容量要比n小得多,一般为(0.130.15)n,n为神经元数。,记忆容量问题,例4.存储如下记忆模式:若给出用于联想的原始模式为:m1:Y(1)=y1,y2,y3,y4=-1,1,1,1,m2:Y(2)=y1,y2,y3,y4=-1,-1,1,1,m3:Y(3)=y1,y2,y3,y4=-1,1,1,-1. 则其权矩阵为:,记忆容量问题,给出联想模式:m3:Y(3)=y1,y2,y3,y4=-1,1,1,-1. 但网络运行稳定在模式m1:Y(1)=-1,1,1,1 而不是其自身模式m3。,连续性的Hopfield网络,CHNN是在DHNN的基础上
28、提出的,它的原理 和DHNN相似。由于CHNN是以模拟量作为网络的 输入输出量,各神经元采用并行方式工作,所以 它在信息处理的并行性、联想性、实时性、分布 存储、协同性等方面比DHNN更接近于生物神经 网络。我们将从以下几点来讨论CHNN。 1、网络模型 2、CHNN方程的解及稳定性分析 3、关于Hopfield能量函数的几点说明 4、关于CHNN的几点结论,连续性的Hopfield网络,利用运算放大器实现的Hopfield动态神经元,连续性的Hopfield网络,连续型Hopfield网络结构,连续性的Hopfield网络,1.CHNN的网络模型对于Hopfield动态神经元模型,放大器的I
29、/O关系可用如下的方程来描述:,连续性的Hopfield网络,对上述方程变形得:,连续性的Hopfield网络,2.CHNN方程的解及稳定性分析 对于CHNN来说,关心的同样是稳定性问题。在所有影响电路系统稳定的所有参数中,一个比较特殊的参数值是放大器的放大倍数。从前面的分析中可以看出,当放大器的放大倍数足够大时,网络由连续性转化成离散型,状态与输出之间的关系表现了激活函数的形状,而正是激活函数代表了一个网络的特点,所以,下面着重分析不同激活函数关系对系统的稳定性的影响。 1、激活函数为线性函数时 2、激活函数为非线性函数时,连续性的Hopfield网络,当激活函数为线性函数时,即,连续性的H
30、opfield网络,对于非线性系统进行稳定性分析,方法之一就是在系统的平衡点附近对系统进行线性化处理。也可以基于网络的能量函数。下面介绍Hopfield能量函数法。,连续性的Hopfield网络,连续性的Hopfield网络,此定理表明,随着时间的演化,网络的状态总是朝能量减少的方向运动。网络的平衡点就是E的极小点。,连续性的Hopfield网络,3.关于Hopfield能量函数的几点说明 1)能量函数为反馈网络的重要概念。根据能量函数可以方便的判断系统的稳定性; 2)能量函数与李雅普诺夫函数的区别在于:李氏被限定在大于零的范围内,且要求在零点值为零; 3)Hopfield选择的能量函数,只是
31、保证系统稳定和渐进稳定的充分条件,而不是必要条件,其能量函数也不是唯一的。当对反馈网络应用能量函数后,从任一初始状态开始,因为在每次迭代后都能满足E0,所以网络的能量将会越来越小,最后趋于稳定点E=0。 Hopfield能量函数的物理意义是:在那些渐进稳定点的吸引域内,离吸引点越远的状态,所具有的能量越大,由于能量函数的单调下降特性,保证状态的运动方向能从远离吸引点处,不断地趋于吸引点,直到达到稳定点。,连续性的Hopfield网络,4.关于CHNN的几点结论:1)具有良好的收敛性;2)具有有限个平衡点;3)如果平衡点是稳定的,那么它也一定是渐进稳定的;4)渐进稳定平衡点为其能量函数的局部极小
32、点;5)能将任意一组希望存储的正交化矢量综合为网络的渐进平衡点;6)网络的存储信息表现为神经元之间互连的分布式动态存储;7)网络以大规模、非线性、连续时间并行方式处理信息,其计算时间就是网络趋于平衡点的时间。,连续性的Hopfield网络,Hopfield网络在组合优化中的应用 组合优化问题,就是在给定约束条件下,求出使目标函数极小(或极大)的变量组合问题。 将Hopfield网络应用于求解组合优化问题,就是把目标函数转化为网络的能量函数,把问题的变量对应于网络的状态。这样当网络的能量函数收敛于极小值时,问题的最优解也随之求出。,连续性的Hopfield网络,旅行商问题,简称TSP(Trave
33、ling Salesman Problem)。问题的提法是:设有N个城市, ,记为: ,用dij表示ci和cj之间的距离, dij0,(i,j=1,2,n) 。有一旅行商从某一城市出发,访问各城市一次且仅一次后再回到原出发城市。要求找出一条最短的巡回路线。 N=5 TSP Probelm ,N=5,并用字母A、B、C、D、E、分别代表这5个城市。当任选一条路径如B-D-E-A-C,则其总路径长度可表示为,连续性的Hopfield网络,第一步就是将问题映照到一个神经网络。假定每个神经元的放大器有很高的放大倍数,神经元的输出限制在二值0和1上,则映照问题可以用一个换位矩阵(Permutation
34、Matrix)来进行,换位矩阵可如下图所示。,连续性的Hopfield网络,约束条件和最优条件 矩阵的每个元素对应于神经网络中的每个神经元,则这个问题可用N2=52=25个神经元组成的Hop-field网络来求解。 问题的约束条件和最优条件如下:(1) 一个城市只能被访问一次=换位矩阵每行只有一个“1”。(2)一次只能访问一个城市=换拉矩阵每列只有一个“1”。(3)总共有N个城市=换位矩阵元素之和为N。(4)求巡回路径最短=网络能量函数的最小值对应于TSP的最短路径。,连续性的Hopfield网络,用vij表示换位矩阵第i行、第j列的元素,显然只能取1或0。同时,vij也是网络神经元的状态。
35、结论: 构成最短路径的换位矩阵一定是形成网络能量函数极小点的网络状态。,连续性的Hopfield网络,建立能量函数 1)优化目标 在换位矩阵中,顺序访问两城市所有可能途径(长度)可表示为N个城市两两之间所有可能的访问路径的长度可表示为当这项最小时,则它就表示访问N个城市的最短距离。,连续性的Hopfield网络,2)对应于第(1)个约束条件 第x行的所有元素 按顺序两两相乘之和 应为0。 N个行的所有元素按顺序两两相乘之和 也应为0。 则可得网络能量函数的第一项,项前乘系数A/2,,连续性的Hopfield网络,3)对应于第(2)个约束条件,可得能量函数的第二项,式中B/2为系数。 4)对应于
36、第(3)个约束条件,换位矩阵中所有为“1”元素之和应等于N由此可得网络能量函数的第三项式中,取平方值是为了使这项符合能量的表达形式,同时也体现了对不符合约束条件时的一种惩罚;C/2为系数。,连续性的Hopfield网络,5)网络能量函数的最后表达式 将优化目标乘以D/2,由此得到网络能量函数的第四项 ,则最后的网络能量函数 为:,连续性的Hopfield网络,确定网络神经元之间的连接权及神经元输出的阀值。设网络神经元 与 神经元之间的连接权为 ,神经元 输出的阀值为 ,则比较能量函数,即可确定神经网络的权值和阈值。,连续性的Hopfield网络,确定的神经网络权值为:TSP网络的迭代方程为:,
37、连续性的Hopfield网络,迭代步骤: (1)初始化:给定一个 值(例如 )。这保证收敛于正确解,按下式取网络各神经元的初始状态:式中 ,其中N为网络神经元个数; 为(-1,+1)区间的随机值。 (2)求出各神经元的输出,迭代续1,Hopfield网络在系统辨识中的应用在系统辨识中,直接采用Hopfield神经网络对时域内动态系统实现参数估计是一种简单而直接的动态系统辨识方法。该方法的特点是根据Hopfield神经网络的动力学机制,使其神经元的输出值对应待识参数,则系统趋于稳定的过程就是待辨识参数辨识的过程。利用Hopfield网络进行辨识时,取所定义的辨识能量函数等于Hopfield网络标
38、准能量函数,通过Hopfield神经网络动态方程,得到Hopfield网络的连接权矩阵和神经元的外部输入,然后将其代入Hopfield网络动态方程运行,经过一段时间后,可得到稳定的参数辨识结果。,(1)系统描述,设待辨识为二阶线性系统的参数,系统的状态方程为,其中 、 为待辨识的参数矩阵,取 , 且状态矢量 , 是单个控制输入。 则二阶线性系统的参数的辨识过程就是向量 的辨识过程。,(1),(2)参数辨识基本原理,用于辨识的可调系统为,其中 , ,取 。,则式(1)和式(2)相减有:,其中 为状态偏差。,用由于 线性无关,则当 时, , ,从而实现 。,(2),(3)Hopfield网络辨识能
39、量函数的设计,为了实现 ,选择基于状态偏差变化率的参数辨识能量函数为:,由于,即,其中各项可表达为如下表达式:,由于, 则,则有,(4)用于辨识的Hopfield网络设计,Hopfield网络能量函数趋于极小的过程,就是估计矩阵 和 收敛于实际矩阵 和 的过程。通过构建一个具体的Hopfield网络,可进行参数辨识。 Hopfield神经网络第个神经元的动态微分方程为:,其中 ,,假定Hopfield神经元由理想放大器构成,即 ,同时取 ,则Hopfield神经网络动态方程变为:,(3),Hopfield网络的标准能量函数为:,由于 ,取Hopfield网络的输出对应待辨识参数, 即 , 则,
40、可以看出如下关系成立:,利用Hopfield网络进行辨识时,取所定义的辨识能量函数与Hopfield网络标准能量函数相等,即 ,则由上式可得:,由根据函数对向量求导的定义,有,由于 ,则有,(4),由于,(5),对比式(3)和式(4),可将网络得权值表示为:,(6),将式(6)代入式(3),可得到稳定的 ,通过双曲函数 ,可得到网络最终辨识结果的输出。,(5)仿真实例,针对二阶系统进行参数辨识。系统的状态方程为:,Hopfield网络的输出对应待辨识参数,Hopfield网络权值和初值取零。,在仿真程序中,取 , 和 为常数矩阵, , , ,取 , 。经过一段时间的仿真运行后,辨识参数的结果为:,在仿真程序中,取 , 和 为时变系数矩阵, , 。 取 , ,参数辨识过程的仿真结果如图所示。,图 矩阵中各参数的辨识结果,