收藏 分享(赏)

BP神经网络用于函数拟合与模式识别的Matlab示例程序.doc

上传人:精品资料 文档编号:10159722 上传时间:2019-10-15 格式:DOC 页数:5 大小:40KB
下载 相关 举报
BP神经网络用于函数拟合与模式识别的Matlab示例程序.doc_第1页
第1页 / 共5页
BP神经网络用于函数拟合与模式识别的Matlab示例程序.doc_第2页
第2页 / 共5页
BP神经网络用于函数拟合与模式识别的Matlab示例程序.doc_第3页
第3页 / 共5页
BP神经网络用于函数拟合与模式识别的Matlab示例程序.doc_第4页
第4页 / 共5页
BP神经网络用于函数拟合与模式识别的Matlab示例程序.doc_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

1、% BP 神经网络用于模式分类% 使用平台 - Matlab6.5% 作者:陆振波,海军工程大学% 欢迎同行来信交流与合作,更多文章与程序下载请访问我的个人主页% 电子邮件:% 个人主页:http:/clcclearclose all%-% 产生训练样本与测试样本,每一列为一个样本P1 = rand(3,5),rand(3,5)+1,rand(3,5)+2;T1 = repmat(1;0;0,1,5),repmat(0;1;0,1,5),repmat(0;0;1,1,5);P2 = rand(3,5),rand(3,5)+1,rand(3,5)+2;T2 = repmat(1;0;0,1,5)

2、,repmat(0;1;0,1,5),repmat(0;0;1,1,5);%-% 归一化PN1,minp,maxp = premnmx(P1);PN2 = tramnmx(P2,minp,maxp);%-% 设置网络参数NodeNum = 10; % 隐层节点数 TypeNum = 3; % 输出维数TF1 = tansig;TF2 = purelin; % 判别函数(缺省值)%TF1 = tansig;TF2 = logsig;%TF1 = logsig;TF2 = purelin;%TF1 = tansig;TF2 = tansig;%TF1 = logsig;TF2 = logsig;%

3、TF1 = purelin;TF2 = purelin;net = newff(minmax(PN1),NodeNum TypeNum,TF1 TF2);%-% 指定训练参数% net.trainFcn = traingd; % 梯度下降算法% net.trainFcn = traingdm; % 动量梯度下降算法% % net.trainFcn = traingda; % 变学习率梯度下降算法% net.trainFcn = traingdx; % 变学习率动量梯度下降算法 % (大型网络的首选算法 - 模式识别)% net.trainFcn = trainrp; % RPROP(弹性 BP

4、)算法,内存需求最小 % % 共轭梯度算法 % net.trainFcn = traincgf; % Fletcher-Reeves 修正算法% net.trainFcn = traincgp; % Polak-Ribiere 修正算法,内存需求比 Fletcher-Reeves修正算法略大% net.trainFcn = traincgb; % Powell-Beal 复位算法,内存需求比 Polak-Ribiere 修正算法略大% (大型网络的首选算法 - 函数拟合,模式识别)% net.trainFcn = trainscg; % Scaled Conjugate Gradient 算法

5、,内存需求与Fletcher-Reeves 修正算法相同,计算量比上面三种算法都小很多 % % net.trainFcn = trainbfg; % Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快% net.trainFcn = trainoss; % One Step Secant Algorithm,计算量和内存需求均比BFGS 算法小,比共轭梯度算法略大% % (中小型网络的首选算法 - 函数拟合,模式识别)net.trainFcn = trainlm; % Levenberg-Marquardt 算法,

6、内存需求最大,收敛速度最快% net.trainFcn = trainbr; % 贝叶斯正则化算法% 有代表性的五种算法为:traingdx,trainrp,trainscg,trainoss, trainlm%-%net.trainParam.show = 1; % 训练显示间隔net.trainParam.lr = 0.3; % 学习步长 - traingd,traingdmnet.trainParam.mc = 0.95; % 动量项系数 - traingdm,traingdxnet.trainParam.mem_reduc = 10; % 分块计算 Hessian 矩阵(仅对 Leve

7、nberg-Marquardt算法有效)net.trainParam.epochs = 1000; % 最大训练次数net.trainParam.goal = 1e-8; % 最小均方误差net.trainParam.min_grad = 1e-20; % 最小梯度net.trainParam.time = inf; % 最大训练时间%-% 训练与测试net = train(net,PN1,T1); % 训练%-% 测试Y1 = sim(net,PN1); % 训练样本实际输出Y2 = sim(net,PN2); % 测试样本实际输出Y1 = full(compet(Y1); % 竞争输出Y2

8、 = full(compet(Y2); %-% 结果统计Result = sum(abs(T1-Y1) % 正确分类显示为 1Percent1 = sum(Result)/length(Result) % 训练样本正确分类率Result = sum(abs(T2-Y2) % 正确分类显示为 1Percent2 = sum(Result)/length(Result) % 测试样本正确分类率*% BP 神经网络用于函数拟合 % 使用平台 - Matlab6.5% 作者:陆振波,海军工程大学% 欢迎同行来信交流与合作,更多文章与程序下载请访问我的个人主页% 电子邮件:% 个人主页:http:/cl

9、cclearclose all%-% 产生训练样本与测试样本P1 = 1:2:200; % 训练样本,每一列为一个样本T1 = sin(P1*0.1); % 训练目标P2 = 2:2:200; % 测试样本,每一列为一个样本T2 = sin(P2*0.1); % 测试目标%-% 归一化PN1,minp,maxp,TN1,mint,maxt = premnmx(P1,T1);PN2 = tramnmx(P2,minp,maxp);TN2 = tramnmx(T2,mint,maxt);%-% 设置网络参数NodeNum = 20; % 隐层节点数 TypeNum = 1; % 输出维数TF1 =

10、 tansig;TF2 = purelin; % 判别函数(缺省值)%TF1 = tansig;TF2 = logsig;%TF1 = logsig;TF2 = purelin;%TF1 = tansig;TF2 = tansig;%TF1 = logsig;TF2 = logsig;%TF1 = purelin;TF2 = purelin;net = newff(minmax(PN1),NodeNum TypeNum,TF1 TF2);%-% 指定训练参数% net.trainFcn = traingd; % 梯度下降算法% net.trainFcn = traingdm; % 动量梯度下降

11、算法% % net.trainFcn = traingda; % 变学习率梯度下降算法% net.trainFcn = traingdx; % 变学习率动量梯度下降算法 % (大型网络的首选算法)% net.trainFcn = trainrp; % RPROP(弹性 BP)算法,内存需求最小 % % 共轭梯度算法 % net.trainFcn = traincgf; % Fletcher-Reeves 修正算法% net.trainFcn = traincgp; % Polak-Ribiere 修正算法,内存需求比 Fletcher-Reeves修正算法略大% net.trainFcn =

12、traincgb; % Powell-Beal 复位算法,内存需求比 Polak-Ribiere 修正算法略大% (大型网络的首选算法)%net.trainFcn = trainscg; % Scaled Conjugate Gradient 算法,内存需求与Fletcher-Reeves 修正算法相同,计算量比上面三种算法都小很多 % % net.trainFcn = trainbfg; % Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快% net.trainFcn = trainoss; % One Ste

13、p Secant Algorithm,计算量和内存需求均比BFGS 算法小,比共轭梯度算法略大% % (中型网络的首选算法)net.trainFcn = trainlm; % Levenberg-Marquardt 算法,内存需求最大,收敛速度最快% net.trainFcn = trainbr; % 贝叶斯正则化算法% 有代表性的五种算法为:traingdx,trainrp,trainscg,trainoss, trainlm%-%net.trainParam.show = 20; % 训练显示间隔net.trainParam.lr = 0.3; % 学习步长 - traingd,train

14、gdmnet.trainParam.mc = 0.95; % 动量项系数 - traingdm,traingdxnet.trainParam.mem_reduc = 1; % 分块计算 Hessian 矩阵(仅对 Levenberg-Marquardt 算法有效)net.trainParam.epochs = 1000; % 最大训练次数net.trainParam.goal = 1e-8; % 最小均方误差net.trainParam.min_grad = 1e-20; % 最小梯度net.trainParam.time = inf; % 最大训练时间%-% 训练net = train(net,PN1,TN1); % 训练%-% 测试YN1 = sim(net,PN1); % 训练样本实际输出YN2 = sim(net,PN2); % 测试样本实际输出MSE1 = mean(TN1-YN1).2) % 训练均方误差MSE2 = mean(TN2-YN2).2) % 测试均方误差%-% 反归一化Y2 = postmnmx(YN2,mint,maxt);%-% 结果作图plot(1:length(T2),T2,r+:,1:length(Y2),Y2,bo:)title(+为真实值,o 为预测值)

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报