1、% BP 神经网络用于模式分类% 使用平台 - Matlab6.5% 作者:陆振波,海军工程大学% 欢迎同行来信交流与合作,更多文章与程序下载请访问我的个人主页% 电子邮件:% 个人主页:http:/clcclearclose all%-% 产生训练样本与测试样本,每一列为一个样本P1 = rand(3,5),rand(3,5)+1,rand(3,5)+2;T1 = repmat(1;0;0,1,5),repmat(0;1;0,1,5),repmat(0;0;1,1,5);P2 = rand(3,5),rand(3,5)+1,rand(3,5)+2;T2 = repmat(1;0;0,1,5)
2、,repmat(0;1;0,1,5),repmat(0;0;1,1,5);%-% 归一化PN1,minp,maxp = premnmx(P1);PN2 = tramnmx(P2,minp,maxp);%-% 设置网络参数NodeNum = 10; % 隐层节点数 TypeNum = 3; % 输出维数TF1 = tansig;TF2 = purelin; % 判别函数(缺省值)%TF1 = tansig;TF2 = logsig;%TF1 = logsig;TF2 = purelin;%TF1 = tansig;TF2 = tansig;%TF1 = logsig;TF2 = logsig;%
3、TF1 = purelin;TF2 = purelin;net = newff(minmax(PN1),NodeNum TypeNum,TF1 TF2);%-% 指定训练参数% net.trainFcn = traingd; % 梯度下降算法% net.trainFcn = traingdm; % 动量梯度下降算法% % net.trainFcn = traingda; % 变学习率梯度下降算法% net.trainFcn = traingdx; % 变学习率动量梯度下降算法 % (大型网络的首选算法 - 模式识别)% net.trainFcn = trainrp; % RPROP(弹性 BP
4、)算法,内存需求最小 % % 共轭梯度算法 % net.trainFcn = traincgf; % Fletcher-Reeves 修正算法% net.trainFcn = traincgp; % Polak-Ribiere 修正算法,内存需求比 Fletcher-Reeves修正算法略大% net.trainFcn = traincgb; % Powell-Beal 复位算法,内存需求比 Polak-Ribiere 修正算法略大% (大型网络的首选算法 - 函数拟合,模式识别)% net.trainFcn = trainscg; % Scaled Conjugate Gradient 算法
5、,内存需求与Fletcher-Reeves 修正算法相同,计算量比上面三种算法都小很多 % % net.trainFcn = trainbfg; % Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快% net.trainFcn = trainoss; % One Step Secant Algorithm,计算量和内存需求均比BFGS 算法小,比共轭梯度算法略大% % (中小型网络的首选算法 - 函数拟合,模式识别)net.trainFcn = trainlm; % Levenberg-Marquardt 算法,
6、内存需求最大,收敛速度最快% net.trainFcn = trainbr; % 贝叶斯正则化算法% 有代表性的五种算法为:traingdx,trainrp,trainscg,trainoss, trainlm%-%net.trainParam.show = 1; % 训练显示间隔net.trainParam.lr = 0.3; % 学习步长 - traingd,traingdmnet.trainParam.mc = 0.95; % 动量项系数 - traingdm,traingdxnet.trainParam.mem_reduc = 10; % 分块计算 Hessian 矩阵(仅对 Leve
7、nberg-Marquardt算法有效)net.trainParam.epochs = 1000; % 最大训练次数net.trainParam.goal = 1e-8; % 最小均方误差net.trainParam.min_grad = 1e-20; % 最小梯度net.trainParam.time = inf; % 最大训练时间%-% 训练与测试net = train(net,PN1,T1); % 训练%-% 测试Y1 = sim(net,PN1); % 训练样本实际输出Y2 = sim(net,PN2); % 测试样本实际输出Y1 = full(compet(Y1); % 竞争输出Y2
8、 = full(compet(Y2); %-% 结果统计Result = sum(abs(T1-Y1) % 正确分类显示为 1Percent1 = sum(Result)/length(Result) % 训练样本正确分类率Result = sum(abs(T2-Y2) % 正确分类显示为 1Percent2 = sum(Result)/length(Result) % 测试样本正确分类率*% BP 神经网络用于函数拟合 % 使用平台 - Matlab6.5% 作者:陆振波,海军工程大学% 欢迎同行来信交流与合作,更多文章与程序下载请访问我的个人主页% 电子邮件:% 个人主页:http:/cl
9、cclearclose all%-% 产生训练样本与测试样本P1 = 1:2:200; % 训练样本,每一列为一个样本T1 = sin(P1*0.1); % 训练目标P2 = 2:2:200; % 测试样本,每一列为一个样本T2 = sin(P2*0.1); % 测试目标%-% 归一化PN1,minp,maxp,TN1,mint,maxt = premnmx(P1,T1);PN2 = tramnmx(P2,minp,maxp);TN2 = tramnmx(T2,mint,maxt);%-% 设置网络参数NodeNum = 20; % 隐层节点数 TypeNum = 1; % 输出维数TF1 =
10、 tansig;TF2 = purelin; % 判别函数(缺省值)%TF1 = tansig;TF2 = logsig;%TF1 = logsig;TF2 = purelin;%TF1 = tansig;TF2 = tansig;%TF1 = logsig;TF2 = logsig;%TF1 = purelin;TF2 = purelin;net = newff(minmax(PN1),NodeNum TypeNum,TF1 TF2);%-% 指定训练参数% net.trainFcn = traingd; % 梯度下降算法% net.trainFcn = traingdm; % 动量梯度下降
11、算法% % net.trainFcn = traingda; % 变学习率梯度下降算法% net.trainFcn = traingdx; % 变学习率动量梯度下降算法 % (大型网络的首选算法)% net.trainFcn = trainrp; % RPROP(弹性 BP)算法,内存需求最小 % % 共轭梯度算法 % net.trainFcn = traincgf; % Fletcher-Reeves 修正算法% net.trainFcn = traincgp; % Polak-Ribiere 修正算法,内存需求比 Fletcher-Reeves修正算法略大% net.trainFcn =
12、traincgb; % Powell-Beal 复位算法,内存需求比 Polak-Ribiere 修正算法略大% (大型网络的首选算法)%net.trainFcn = trainscg; % Scaled Conjugate Gradient 算法,内存需求与Fletcher-Reeves 修正算法相同,计算量比上面三种算法都小很多 % % net.trainFcn = trainbfg; % Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快% net.trainFcn = trainoss; % One Ste
13、p Secant Algorithm,计算量和内存需求均比BFGS 算法小,比共轭梯度算法略大% % (中型网络的首选算法)net.trainFcn = trainlm; % Levenberg-Marquardt 算法,内存需求最大,收敛速度最快% net.trainFcn = trainbr; % 贝叶斯正则化算法% 有代表性的五种算法为:traingdx,trainrp,trainscg,trainoss, trainlm%-%net.trainParam.show = 20; % 训练显示间隔net.trainParam.lr = 0.3; % 学习步长 - traingd,train
14、gdmnet.trainParam.mc = 0.95; % 动量项系数 - traingdm,traingdxnet.trainParam.mem_reduc = 1; % 分块计算 Hessian 矩阵(仅对 Levenberg-Marquardt 算法有效)net.trainParam.epochs = 1000; % 最大训练次数net.trainParam.goal = 1e-8; % 最小均方误差net.trainParam.min_grad = 1e-20; % 最小梯度net.trainParam.time = inf; % 最大训练时间%-% 训练net = train(net,PN1,TN1); % 训练%-% 测试YN1 = sim(net,PN1); % 训练样本实际输出YN2 = sim(net,PN2); % 测试样本实际输出MSE1 = mean(TN1-YN1).2) % 训练均方误差MSE2 = mean(TN2-YN2).2) % 测试均方误差%-% 反归一化Y2 = postmnmx(YN2,mint,maxt);%-% 结果作图plot(1:length(T2),T2,r+:,1:length(Y2),Y2,bo:)title(+为真实值,o 为预测值)