BP神经网络地设计实例MATLAB编程.docx

上传人:scccc 文档编号:13616432 上传时间:2022-01-20 格式:DOCX 页数:16 大小:18.17KB
返回 下载 相关 举报
BP神经网络地设计实例MATLAB编程.docx_第1页
第1页 / 共16页
BP神经网络地设计实例MATLAB编程.docx_第2页
第2页 / 共16页
BP神经网络地设计实例MATLAB编程.docx_第3页
第3页 / 共16页
BP神经网络地设计实例MATLAB编程.docx_第4页
第4页 / 共16页
BP神经网络地设计实例MATLAB编程.docx_第5页
第5页 / 共16页
点击查看更多>>
资源描述

《BP神经网络地设计实例MATLAB编程.docx》由会员分享,可在线阅读,更多相关《BP神经网络地设计实例MATLAB编程.docx(16页珍藏版)》请在三一文库上搜索。

1、神经网络的设计实例(MATLAB编程)例1采用动量梯度下降算法训练BP网络。训练样本定义如下:输入矢量为p =-1 -2 3 1-1 1 5 -3目标矢量为t = -1 -1 1 1解:本例的 MATLAB 程序如下:close allclearecho onclc% NEWFF生成一个新的前向神经网络% TRAIN 对 BP神经网络进行训练% SIM对 BP神经网络进行仿真pause%敲任意键开始clc%定义训练样本P=-1, -2, 3, 1; -1, 1,5,-3; % P为输入矢量T=-1, -1, 1, 1; % T 为目标矢量pause;clc%创建一个新的前向神经网络net=ne

2、wff(minmax(P),3,1,tansig,purelin,traingdm)%当前输入层权值和阈值inputWeights=net.IW1,1inputbias=net.b1%当前网络层权值和阈值layerWeights=net.LW2,1layerbias=net.b2pauseclc%设置训练参数net.trainParam.show = 50;net.trainParam.lr = 0.05;net.trainParam.mc = 0.9;net.trainParam.epochs = 1000;net.trainParam.goal = 1e-3;pauseclc% 调用 TR

3、AINGDM 算法训练 BP网络net,tr=train(net,P ,T);pause clc%对BP网络进行仿真A = sim(net,P)%计算仿真误差E = T - AMSE=mse(E)pause clcecho off例2采用贝叶斯正则化算法提高BP网络的推广能力。在本例中,我们采用两种训练方法,即L-M 优化算法(trainlm )和贝叶斯正则化算法(trainbr ),用以训练 BP网络,使其 能够拟合某一附加有白噪声的正弦样本数据。其中,样本数据可以采用如下MATLAB 语句生成:输入矢量:P = -1:0.05:1;目标矢量:randn(seed,78341223);T =

4、 sin(2*pi*P)+0.1*randn(size(P) ;解:本例的 MATLAB 程序如下:close allclearecho onclc% NEWFF生成一个新的前向神经网络% TRAIN 对 BP神经网络进行训练% SIM对 BP神经网络进行仿真pause%敲任意键开始clc%定义训练样本矢量% P为输入矢量P = -1:0.05:1;% T为目标矢量randn(seed,78341223); T = sin(2*pi*P)+0.1*randn(size(P);%绘制样本数据点plot(P ,T,+);echo offhold on;plot(P ,sin(2*pi*P),:);

5、%绘制不含噪声的正弦曲线echo onclcpauseclc%创建一个新的前向神经网络net=newff(minmax(P),20,1,tansig,purelin);pauseclcecho offTRAINBR);clcdisp(1. L-M优化算法 TRAINLM); disp(2.贝叶斯正则化算法choice=input(请选择训练算法(1,2):);figure(gcf);if(choice=1)echo onclc%采用L-M优化算法TRAINLMnet.trainFcn=trainlm;pauseclc%设置训练参数net.trainParam.epochs = 500;net.

6、trainParam.goal = 1e-6;net=init(net);%重新初始化pauseclcelseif(choice=2)echo onclc%采用贝叶斯正则化算法TRAINBRnet.trainFcn=trainbr;pauseclc%设置训练参数net.trainParam.epochs = 500;randn(seed,192736547);net = init(net);%重新初始化pauseclcend%调用相应算法训练BP网络net,tr=train(net,P ,T);pauseclc%对BP网络进行仿真A = sim(net,P);%计算仿真误差E = T - A;

7、MSE=mse(E)pauseclc%绘制匹配结果曲线close all;plot(P ,A,P,T,+,P ,sin(2*pi*P),:);pause;clcecho off通过采用两种不同的训练算法,我们可以得到如图1和图2所示的两种拟合结果。图中的实线表示拟合曲线,虚线代表不含白噪声的正弦曲线, 十点为含有白噪声的正弦样本数据点。显然,经trainlm函数训练后的神经网络对样本数据点实现了过度匹配,而经 trainbr函数训练的神经网络对噪声不敏感,具有较好的推广能力。值得指出的是,在利用 trainbr函数训练 BP网络时,若训练结果收敛,通常会给出提示 信息Maximum MU re

8、ached 。此外,用户还可以根据SSE和SSW 的大小变化情况来判断训练是否收敛:当SSE和SSW的值在经过若干步迭代后处于恒值时,则通常说明网络 训练收敛,此时可以停止训练。观察 trainbr函数训练 BP网络的误差变化曲线,可见,当 训练迭代至 320步时,网络训练收敛,此时 SSE和SSW均为恒值,当前有效网络的参 数(有效权值和阈值)个数为 11.7973 。例3采用提前停止方法提高 BP网络的推广能力。对于和例2相同的问题,在本例中我们 将采用训练函数 traingdx 和提前停止相结合的方法来训练BP网络,以提高 BP网络的推广能力。解:在利用提前停止方法时,首先应分别定义训练

9、样本、验证样本或测试样本,其中,验证样本是必不可少的。在本例中,我们只定义并使用验证样本,即有验证样本输入矢量:val.P = -0.975:.05:0.975验证样本目标矢量:val.T = sin(2*pi*val.P)+0.1*randn(size(val.P)值得注意的是,尽管提前停止方法可以和任何一种BP网络训练函数一起使用,但是不适合同训练速度过快的算法联合使用,比如trainlm 函数,所以本例中我们采用训练速度相对较慢的变学习速率算法traingdx 函数作为训练函数。本例的MATLAB程序如下:close allclearecho on clc% NEWFF生成一个新的前向神

10、经网络% TRAIN 对 BP神经网络进行训练% SIM对 BP神经网络进行仿真pause%敲任意键开始clc%定义训练样本矢量% P为输入矢量P = -1:0.05:1;% T为目标矢量randn(seed,78341223);T = sin(2*pi*P)+0.1*randn(size(P);%绘制训练样本数据点plot(P ,T,+);echo offhold on;plot(P ,sin(2*pi*P),:); %绘制不含噪声的正弦曲线echo onclcpauseclc%定义验证样本验证样本的目标矢量val.P = -0.975:0.05:0.975; %验证样本的输入矢量val.T

11、 = sin(2*pi*val.P)+0.1*randn(size(val.P); %pauseclc%创建一个新的前向神经网络net=newff(minmax(P),5,1,tansig,purelin,traingdx);pauseclc%设置训练参数net.trainParam.epochs = 500;net = init(net);pauseclc%训练BP网络net,tr=train(net,P ,T,val);pauseclc%对BP网络进行仿真A = sim(net,P);%计算仿真误差E = T - A;MSE=mse(E)pauseclc%绘制仿真拟合结果曲线close a

12、ll;plot(P ,A,P,T,+,P ,sin(2*pi*P),:);pause;clcecho off下面给出了网络的某次训练结果,可见,当训练至第136步时,训练提前停止,此时的网络误差为0.0102565。给出了训练后的仿真数据拟合曲线,效果是相当满意的。net,tr=train(net,P ,T,val);TRAINGDX, Epoch 0/500, MSE 0.504647/0, Gradient 2.1201/1e-006TRAINGDX, Epoch 25/500, MSE 0.163593/0, Gradient 0.384793/1e-006TRAINGDX, Epoch

13、 50/500, MSE 0.130259/0, Gradient 0.158209/1e-006TRAINGDX, Epoch 75/500, MSE 0.086869/0, Gradient 0.0883479/1e-006TRAINGDX, Epoch 100/500, MSE 0.0492511/0, Gradient 0.0387894/1e-006TRAINGDX, Epoch 125/500, MSE 0.0110016/0, Gradient 0.017242/1e-006TRAINGDX, Epoch 136/500, MSE 0.0102565/0, Gradient 0.

14、01203/1e-006TRAINGDX, Validation stop.例3用BP网络估计胆固醇含量这是一个将神经网络用于医疗应用的例子。我们设计一个器械,用于从血样的光谱组成的测量中得到血清的胆固醇含量级别,我们有261个病人的血样值,包才21种波长的谱线的数据,对于这些病人,我们得到了基于光谱分类的胆固醇含量级别hdl,ldl,vldl 。(1)样本数据的定义与预处理。choles_all.mat文件中存储了网络训练所需要的全部样本数据。利用load函数可以在工作空间中自动载入网络训练所需的输入数据p和目标数据t,即load choles_allsizeofp = size (p)si

15、zeofp = 21 264sizeoft = size (t)sizeoft = 3 264可见,样本集的大小为264。为了提高神经网络的训练效率,通常要对样本数据作适当的预处理。首先,利用prestd函数对样本数据作归一化处理,使得归一化后的输入和目标数据均服从正态分布,即 pn,meanp,stdp,tn,meant,stdt = prestd(p,t);然后,利用 prepca函数对归一化后的样本数据进行主元分析,从而消除样本数据中的冗余成份,起到数据降维的目的。ptrans,transMat = prepca(pn,0.001);R,Q = size(ptrans)R = 4 Q =

16、 264可见,主元分析之后的样本数据维数被大大降低,输入数据的维数由21变为4。(2)对训练样本、验证样本和测试样本进行划分。为了提高网络的推广能力和识别能力,训练中采用提前停止的方法,因此,在训练之前,需要将上面处理后的样本数据适当划分为训练样本集、验证样本集和测试样本集。(3)网络生成与训练。选用两层BP网络,其中网络输入维数为4,输出维数为3,输出值即为血清胆固醇的三个指标值大小。网络中间层神经元数目预选为5,传递函数类型选为tansig 函数,输出层传递函数选为线性函数purelin ,训练函数设为trainlm。网络的生成语句如下:net = newff(minmax(ptr),5

17、3,tansig purelin,trainlm);利用train函数对所生成的神经网络进行训练,训练结果如下:net,tr=train(net,ptr,ttr,val,test);见,网络训练迭代至第20步时提前停止,这是由于验证误差已经开始变大。利用下面语句可以绘制出训练误差、验证误差和测试误差的变化曲线,如图 4.50所示。由图可见,验证误差和测试误差的变化趋势基本一致,说明样本集的划分基本合理。由训练误差曲线可见,训练误差结果也是比较满意的。(4)网络仿真。为了进一步检验训练后网络的性能,下面对训练结果作进一步仿真分析。利用postreg函数可以对网络仿真的输出结果和目标输出作线性回归

18、分析,并得到两者的相关系数,从而可以作为网络训练结果优劣的判别依据。仿真与线性回归分析如下:an = sim(net,ptrans);a = poststd(an,meant,stdt);for i=1:3figure(i)m(i),b(i),r(i) = postreg(a(i,:),t(i,:);end%导入原始测量数据load choles_all;%对原始数据进行规范化处理,prestd是对输入数据和输出数据进行规范化处理,%prepca可以删除一些数据,适当地保留了变化不小于 0.01的数据pn,meanp,stdp,tn,meant,stdt=prestd(p,t);ptrans,

19、transMat=prepca(pn,0.001);R,Q=size(ptrans)%将原始数据分成几个部分作为不同用途四分已用于确证,四分一用于测试,二分一用于训练网络iitst=2:4:Q;iival=4:4:Q;iitr=1:4:Q 3:4:Q;%vv是确证向量,.P是输入,.T是输出,vt是测试向量vv.P=ptrans(:,iival);vv.T=tn(:,iival);vt.P=ptrans(:,iitst);vt.T=tn(:,iitst);ptr=ptrans(:,iitr);ttr=tn(:,iitr);%建立网络,隐层中设计5个神经元,由于需要得到的是3个目标,所以网络需要

20、有3个输出net=newff(minmax(ptr),5 3,tansig purelin,trainlm);%训练网络net.trainParam.show=5;net,tr=train(net,ptr,ttr,vv,vt);%绘出训练过程中各误差的变化曲线plot(tr.epoch,tr.perf,r,tr.epoch,tr.vperf,:g,tr.epoch,tr.tperf,-.b);legend(训练,确证,测试,-1);ylabel(平方误差);xlabel(时间);pause;%将所有数据通过网络(包括训练,确证,测试) ,然后得到网络输出和相应目标进行线性回归,%对网络输出进行

21、反规范化变换,并绘出个各级别的线性回归结果曲线an=sim(net,ptrans);a=poststd(an,meant,stdt);%得到3组输出,所以进行3次线性回归for i=1:3figure(i)m(i),b(i),r(i) = postreg(a(i,:),t(i,:);end网络输出数据和目标数据作线性回归后,前面两个输出对目标的跟踪比较好,相应的R值接近0.9。而第三个输出却并不理想,我们很可能需要在这点上做更多工作。可能需要使用其它的网络结构(使用更多的隐层神经元),或者是在训练技术上使用贝页斯规范华而不实使用早停的方法。把隐层数目改为20个时,网络训练的3种误差非常接近,得到的结果 R也相应提高。但不 代表神经元越多就越精确。多层神经网络能够对任意的线性或者非线性函数进行逼近,其精度也是任意的。但是BP网络不一定能找到解。训练时,学习速率太快可能引起不稳定,太慢则要花费太多时间,不同的训练算法也对网络的性能有很大影响。BP网络对隐层的神经元数目也是很敏感的,太少则很难适应,太多则可能设计出超适应网络。注:例子均来自于互联网,本人的工作只是将多个例子整合在一起。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 社会民生


经营许可证编号:宁ICP备18001539号-1