最新第六章神经网络控制-PPT文档.ppt

上传人:吴起龙 文档编号:1941719 上传时间:2019-01-26 格式:PPT 页数:157 大小:1.48MB
返回 下载 相关 举报
最新第六章神经网络控制-PPT文档.ppt_第1页
第1页 / 共157页
最新第六章神经网络控制-PPT文档.ppt_第2页
第2页 / 共157页
最新第六章神经网络控制-PPT文档.ppt_第3页
第3页 / 共157页
最新第六章神经网络控制-PPT文档.ppt_第4页
第4页 / 共157页
最新第六章神经网络控制-PPT文档.ppt_第5页
第5页 / 共157页
点击查看更多>>
资源描述

《最新第六章神经网络控制-PPT文档.ppt》由会员分享,可在线阅读,更多相关《最新第六章神经网络控制-PPT文档.ppt(157页珍藏版)》请在三一文库上搜索。

1、神经网络(neural networks,NN),生物神经网络( natural neural network, NNN): 由中枢神经系统(脑和脊髓)及周围神经系统(感觉神经、运动神经等)所构成的错综复杂的神经网络,其中最重要的是脑神经系统。 人工神经网络(artificial neural networks, ANN): 模拟人脑神经系统的结构和功能,运用大量简单处理单元经广泛连接而组成的人工网络系统。,神经网络方法: 隐式的知识表示方法,人工神经网络:由许多处理单元,又称神经元,按照一定的拓扑结构相互连接而成的一种具有并行计算能力的网络系统。 特点: 神经网络系统以大规模模拟并行处理为主

2、,而不以串行离散数学符号处理为基础; 神经网络系统具有较强的鲁棒性和容错性,能够进行联想、概括、类比和推广,任何局部的损伤不会影响整体结果; 神经网络系统具有较强的自学习能力,系统可以通过不断的学习,不断地补充和完善自己的知识,这是传统的人工智能专家系统所没有的能力。,人工神经网络的定义,神经网络的基本特征与功能,结构特征: 并行式处理 分布式存储 容错性,能力特征: 自学习 自组织 自适应性,神经网络的基本特征与功能,联想记忆功能,非线性映射功能,神经网络的基本特征与功能,分类与识别功能,神经网络的基本特征与功能,优化计算功能,神经网络的基本特征与功能,知识处理功能,神经网络的基本特征与功能

3、,发展历史,探索时期(开始于20世纪40年代):,1943年,麦克劳(W. S. McCullocn)和匹茨(W. A. Pitts)首次提出一个神经网络模型MP模型。 1949年,赫布(D. O. Hebb)提出改变神经元连接强度的 Hebb学习规则。,发展历史,1958年,罗森布拉特(F. Rosenblatt)提出感知器模型(perceptron)。 1959年,威德罗(B. Widrow)等提出自适应线性元件(adaline)网络,通过训练后可用于抵消通信中的回波和噪声。 1960年, 他和 M. Hoff 提出LMS (Least Mean Square 最小方差)算法的学习规则。,

4、第一次热潮时期:20世纪50年代末 20世纪60年代初,发展历史,1969年,明斯基(M. Minsky)等在Perceptron中对感知器功能得出悲观结论。 1972年,T. Kohonen 和 J. Anderson 分别提出能完成记忆的新型神经网络。 1976年,S. Grossberg 在自组织神经网络方面的研究十分活跃。,低潮时期:20世纪60年代末 20世纪70年代,发展历史,第二次热潮时期: 20世纪80年代至今,1982年1986年,霍普菲尔德(J. J. Hopfield)陆续提出离散的和连续的全互连神经网络模型,并成功求解旅行商问题(TSP)。 1986年,鲁姆尔哈特(Ru

5、melhart)和麦克劳(McCellan)等在Parallel Distributed Processing中提出反向传播学习算法(BP算法) 。 1987年6月,首届国际神经网络学术会议在美国圣地亚哥召开,成立了国际神经网络学会(INNS)。,神经网络控制的研究领域,基于神经网络的系统辨识 神经网络控制器 神经网络与其他算法(模糊逻辑、专家系统、遗传算法等)相结合 优化计算,人类大脑大约包含有1.41011个神经元,每个神经元与大约103105个其它神经元相连接,构成一个极为庞大而复杂的网络,即生物神经网络。,生物神经元及其信息处理,神经生理学和神经解剖学的研究结果表明,神经元(Neuro

6、n)是脑组织的基本单元,是人脑信息处理系统的最小单元。,生物神经元及其信息处理,生物神经元在结构上由 细胞体(Cell body) 树突(Dendrite) 轴突(Axon) 突触(Synapse) 四部分组成。用来完成神经元间信息的接收、传递和处理。,生物神经元及其信息处理,信息转换发生在突触上,(输入),(输出),神经冲动,生物神经元及其信息处理,生物神经元的信息处理机理,信息的产生,神经元间信息的产生、传递和处理是一种电化学活动。,神经元状态: 静息 兴奋 抑制,膜电位: 极 化 去极化 超极化,生物神经元的信息处理机理,生物神经元的信息处理机理,信息的整合,空间整合:同一时刻产生的刺激

7、所引起的膜电位变化,大致等于各单独刺激引起的膜电位变化的代数和。,时间整合:各输入脉冲抵达神经元的时间先后不一样。总的突触后膜电位为一段时间内的累积。,生物神经网络,由多个生物神经元以确定方式和拓扑结构 相互连接即形成生物神经网络。,生物神经网络的功能不是单个神经元信息 处理功能的简单叠加。,神经元之间的突触连接方式和连接强度不 同并且具有可塑性,这使神经网络在宏观 呈现出千变万化的复杂的信息处理能力。,人工神经元是生物神经元的数学抽象,人工神经元,神经元通过信息传递进行工作,它们产生或接收由输出所组成的信息。,McCulloch-Pitts 模型(1943年),人工神经元,McCulloch

8、-Pitts 神经元的非线性概念:,y 是神经元的输出,x 是输入矢量,w 是突触的权重矢量。如:,sigmoid 神经元 Gaussian 神经元,人工神经网络,人工神经网络包含有许多个人工神经元,这些人工神经元连接在一起构成一种特殊的网络结构。神经网络的目标是将输入转化为有意义的输出。,MP模型,MP神经元模型,其他形式的作用函数,(a)=1,(b)=2,2阶跃函数,神经网络的数理模型,基本运算可归结为四种: 积与和 权值学习 阈值处理 非线性函数处理 神经网络的工作方式 两个阶段组成: 学习期:神经元间的联接权值,可由学习规则进行调整,以使目标(准则)函数达最小。 工作期:联接权值不变,

9、由网络的输入,得到相应的输出。,知识表达,神经网络是一个储存经验知识并能够有效运用的系统; 神经网络的主要任务是对世界(或环境)中所内含的某种模式进行学习; 知识包含两种信息:一种是已知状态,代表我们已经知道的事实,被称之为先验知识;另一种是观测(或测量),即通过某种感知手段所探知的环境信息,这些观测知识通常是包含着噪声或干扰的。,神经网络的设计过程,首先,要根据先验知识来选择一个适当的神经网络结构,然后用部分实例通过某种算法来训练网络。这个过程被称为学习过程。 其次,没有用过的实例被用来对已经训练好的网络的进行测试,试验其性能。这个过程称之为测试(或泛化)过程。,学习过程,前页提到的学习过程

10、很重要,它说明学习要包含以下顺序事件: 1. 神经网络被环境所激励; 2. 环境激励的结果是使神经网络发生变化; 3. 由于变化对于其内在的结构的作用,使得神经网络以一种新的方式对环境进行响应。,神经网络的不同分类,按性能:连续型与离散型 确定型与随机型 静态与动态网络 按联接方式:前馈(前向)型与反馈型 按逼近特性:全局逼近型与局部逼近型 按学习方式:有导师的学习(监督学习) 无导师的学习(无监督学习) 再励学习(强化学习) 它们都是模拟人适应环境的学习过程的一种机器学习模型, 因此,具有学习能力的系统,称: 学习系统(学习机) 5. 按工作方式:同步与异步,前馈型( 前向型),反馈型,(

11、Hopfield神经网络),同步(并行)方式:任一时刻神经网络中所有神经元同时调整状态。 异步(串行)方式:任一时刻只有一个神经元调整状态,而其它神经元的状态保持不变。,有导师的学习(监督学习),在学习过程中,网络根据实际输出与期望输出的比较,进行联接权系的调整,将期望输出称为导师信号。 导师信号是评价学习的标准(见图)。,有导师的学习(监督学习),有导师学习的特点: 1、有外部教师; 2、有错误纠正机制。 常用的方法有: 1、最小二乘法(LMS); 2、反向传播算法(BP)。 运行方式: 1、离线; 2、在线。,无导师的学习 (无监督、或称自组织),无导师信号提供给网络,网络能根据其特有的结

12、构和学习规则,进行联接权系的调整,此时,网络的学习评价标准隐含 于其内部(见图)。,无导师的学习 (无监督、或称自组织),无导师学习的特点: 1、没有外部教师或监督机制; 2、使用竞争学习方式; 3、数据内部所具有的特性(苹果和梨子)。,再励学习(强化学习),把学习看为试探评价过程,学习机选择一动作作用于环境,环境的状态改变,并产生再励信号反馈至学习机,学习机依据再励信号与环境当前的状态,再选择下一动作作用于环境,选择的原则是使受到奖励的可能性增大(见图)。,re,学习修改权重,对于神经网络来说,学习的过程就是修改其连接突触的权重wkj的过程。 令wkj为n时刻的突触权重,则n时刻权重的调整值

13、wkj是突触权重wkj(n)与一个修正值之和: 通常,wkj(0)可以随机设置。,误差调整学习,神经元k在n时刻的输出误差为: 误差之和为: 瞬时值:,实际 响应,期望 响应,统计期望,调整 学习率, 0 这个学习过程就类似于一个闭环反馈过程。 学习过程的稳定性取决于学习率的选择: 小的学习率可以使得系统收敛于一个稳定的解; 大的学习率可以加速学习的过程。,误差调整学习,Hebbian学习,这是所有学习规则中最有名的一个,是神经心理学家Heb (1949)提出的: 这个强调的是输入输出信号之间的联系。 它对神经元的修改强调输入激励下大的输出信号。,竞争学习,对神经元k来说,输入样本x的网络输出

14、必须是最大,才能成为赢家。 获胜神经元得到全部的输出值,也被称为“winner-takes-all”规则。,Boltzmann学习,应用随机学习算法(Boltzmann分布),Hinton and Sejnowski, 1986提出“模拟退火算法”。 神经元组成一个回归结构,以二进位方法进行运作。 这个机制由一个能量函数来描述 这里,si 是神经元i的状态。 i j 表示该机制不允许神经元自反馈。,该机制运作如下: 在学习过程中的某步,随机选择一个神经元,比如神经元 j; 计算在温度T的前提下,神经元 j 从状态 sj 转到 -sj 的概率 这里,Ei 是能量变换;T是伪温度,不是物理学意义上

15、的温度。,Boltzmann学习,感知器,单层感知器,单层感知器,感知器的功能,w1jx1+w2jx2-Tj=0,学习算法步骤,学习算法步骤,根据某样本训练时,均方差随训练次数的收敛情况,例子:,例子:与非门逻辑 与非门属于线性可分问题。 以下方程可以将超平面分为两个决定域:,x1 x1 y 0 0 1 0 1 1 1 0 1 1 1 0,x2,单层感知器特点,用于两类模式分类时,相当于在高维样本空间中,用一个超平面将两类样本分开。 已证明:若输入的两类模式是线性可分集合(指存在一个超平面能将其分开),则算法一定收敛。 局限性:若输入模式为线性不可分集合,网络的学习算法不收敛,不能进行正确分类

16、。,【例】线性可分集合,(2) 三维空间上的两类模式,见表。,(3) 可引伸到n3维空间上的线性可分集合,一定可找到一超平面,将输入模式分为两类。由n输入/单输出的单层感知器实现。,【例】 线性不可分集合。,二维平面上的两类模式异或(XOR)问题,见表。 二维平面中不存在一条直线,将输入模式分为两类,此输入模式称线性不可分集合,见图。 可见:单层感知器不能解决异或问题。,多层感知器,三层感知器解决异或(XOR)问题,三层感知器可识别任一凸多边形或无界的凸区域。 更多层感知器网络,可识别更为复杂的图形。,多层前馈网络与BP学习算法,多层前馈网络的反向传播 (BP)学习算法,简称BP算法,是有导师

17、的学习,它是梯度下降法在多层前馈网中的应用。 网络结构 见图,u、y是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层),前层至后层节点通过权联接。由于用BP学习算法,所以常称BP神经网络。,BP学习算法,已知网络的输入/输出样本,即导师信号。 BP学习算法由正向传播和反向传播组成: 正向传播是输入信号从输入层经隐层,传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。 反向传播是将误差(样本输出与网络输出之差)按原联接通路反向计算,由梯度下降法调整各层节点的权值和阈值,使误差减小。,正向传播,反向传播,BP神

18、经网络,正向传播计算,正向计算输出(Sigmoid函数),S型函数,这里,输出的函数形式为: 容易求得,,多层感知器的权值学习,给定一个网络,设定隐层单元数和连接的结构; 用梯度下降法最小化网络输出值与目标值的平方误差。,误差准则,将网络误差E定义为所有网络单元输出误差的总和: 这里,d 是训练样本,k 为输出单元。,反向传播计算,每个训练样本对都是 形式,这里x 是网络输入矢量,t 是网络的期望输出矢量。 网络其它参数如下: h 是学习率; nin 是输入层单元数; nhidden 是隐层单元数; nout 是输出层单元数。 网络结构如图:,反向传播的推导,按照梯度下降法,对每个训练样本d

19、,权值 wji 由 Dwji 进行修改 这里 Ed 是训练样本 d的总误差 outputs 是网络输出单元集合,反向传播的推导,对于单个神经元来说:,反向传播的推导,通过求偏导可得: 权值调整可分以下两种情况:,由输出单元或隐层单元所确定,第一种:输出单元权值调整,第一种:输出单元权值调整,第一种:输出单元权值调整,这样,权值的调整量为:,第二种:隐单元权值调整,第二种:隐单元权值调整,式中, 不能直接计算,要通过其它间接量计算,即,第二种:隐单元权值调整,显然, 对于隐含层单元来说,权值调整量为,学习算法步骤:,正向传播,正向传播,(3)计算网络的目标函数J 设Ep为在第p组样本输入时,网络

20、的目标函数 网络的总目标函数: 作为对网络学习状况的评价。 (4)若 则算法结束; 否则,转(5)。,反向传播,(5)反向传播计算 由输出层按梯度下降法反向计算,逐层调整权值 若i为输出节点,即i=k 若i不是输出节点,即,BP学习算法的程序框图,1. 特点,BP网络:多层前向网络(输入层、隐层、输出层)。 连接权值:通过Delta学习算法进行修正。 神经元传输函数:S形函数。 学习算法:正向传播、反向传播。 层与层的连接是单向的,信息的传播是双向的。,2. BP网络的主要优缺点,很好的逼近特性。 具有较强的泛化能力。 具有较好的容错性。,优点,收敛速度慢。 局部极值。 难以确定隐层和隐层结点

21、的数目。,缺点,有关的几个问题,(5) 改进的BP算法 梯度下降法的不足,是BP算法收敛速度慢的原因,有改进的BP算法克服其不足,如:,(7)泛化能力 泛化能力(综合能力、概括能力):用较少的样本进行训练,使网络能在给定的区域内达到要求的精度。没有泛化能力的网络无使用价值。 BP网络,泛化能力与样本、结构、初始权值等有关。为得到较好的泛化能力,除了要有训练样本集外,还需测试集。 从图可见,随着训练次数的增加,训练集的J(t)减少,测试集的J1(t)可能不减小或增大,说明泛化能力减弱。因此,测试集J1的极小点所对应的训练权值,是网络具有较好的泛化能力的权值。,BP网络训练实例,BP神经网络在模式

22、识别中的应用,模式识别研究用计算机模拟生物、人的感知,对模式信息,如图像、文字、语音等,进行识别和分类。 传统人工智能的研究部分地显示了人脑的归纳、推理等智能。但是,对于人类底层的智能,如视觉、听觉、触觉等方面,现代计算机系统的信息处理能力还不如一个幼儿园的孩子。 神经网络模型模拟了人脑神经系统的特点:处理单元的广泛连接;并行分布式信息储存、处理;自适应学习能力等。 神经网络模式识别方法具有较强的容错能力、自适应学习能力、并行信息处理能力。,例 输入输出样本: 测试数据:,例 设计一个三层BP网络对数字0至9进行分类。,每个数字用97的网格表示,灰色像素代表0,黑色像素代表1。将每个网格表示为

23、0,1的长位串。位映射由左上角开始向下直到网格的整个一列,然后重复其他列。 选择BP网络结构为63-6-9。97个输入结点,对应上述网格的映射。9个输出结点对应10种分类。 使用的学习步长为0.3。训练600个周期,如果输出结点的值大于0.9,则取为ON,如果输出结点的值小于0.1,则取为OFF。,测试结果表明:除了8以外,所有被测的数字都能够被正确地识别。 对于数字8,神经网络的第6个结点的输出值为0.53,第8个结点的输出值为0.41,表明第8个样本是模糊的,可能是数字6,也可能是数字8,但也不完全确信是两者之一。,当训练成功后,对如图所示测试数据进行测试。测试数据都有一个或者多个位丢失。

24、,神经网络控制,一、神经网络控制的优越性 神经网络具有以下特性冗余性、容错性、本质的非线性、自组织、自学习、自适应; 神经网络应用的领域最优化、模式识别、信号处理、图形图像处理。 控制理论发展过程:经典控制理论、状态空间、动态规划、最优控制、智能控制。 许多难确定的非线性系统和控制精度的要求很高,需要新的控制系统具有自适应的能力、良好的鲁棒性和实时性、计算简单、柔性结构和自组织并行离散分布处理等智能信息处理的能力。产生了神经网络控制系统。,神经网络控制的优越性,神经网络控制的优越性主要表现为: 1、神经网络可以处理那些难以用模型或者规则描述的过程或系统,例如人骑自行车; 2、神经网络采用并行分

25、布式信息处理方式,具有很强的容错性。 3、神经网络是本质的非线性系统。 4、神经网络具有很强的信息综合能力。可以同时处理不同类型的信息,具有很好的互补性与冗余性。利用神经网络,人们可以有效进行信息的融合来达到运动学、动力模型和环境模型间的有机结合。 5、神经网络的硬件实现非常方便。大规模集成电路技术的发展为神经网络硬件的实现提供了技术手段。,神经网络控制器的类型,1、神经网络监督控制器,神经网络控制器的类型,神经网络控制器实际上是一个前馈控制器,它建立的是被控对象的逆模型。神经网络控制器通过对传统控制器的输出进行学习,在线调整网络的权值,使反馈控制输入趋近于零,从而使神经网络控制器逐渐在控制作

26、用中占据主导地位,最终取消反馈控制器的作用。一旦系统出现干扰,反馈控制器重新起作用。这种前馈加反馈的监督控制方法,不仅可以确保控制系统的稳定性和鲁棒性,而且可有效地提高系统的精度和自适应能力。,神经网络控制器的类型,2、神经网络直接逆控制器,神经网络直接逆控制就是将被控对象的神经网络逆模型直接与被控对象串联起来,以便使期望输出与对象实际输出之间的传递函数为1。则将此网络作为前馈控制器后,被控对象的输出为期望输出。 显然,神经网络直接逆控制的可用性在相当程度上取决于逆模型的准确精度。由于缺乏反馈,简单连接的直接逆控制缺乏鲁棒性。为此,一般应使其具有在线学习能力,即作为逆模型的神经网络连接权能够在

27、线调整。,神经网络控制器的类型,下图为神经网络直接逆控制的两种结构方案。在图(a)中,NN1和NN2为具有完全相同的网络结构,并采用相同的学习算法,分别实现对象的逆。在图(b)中,神经网络NN通过评价函数进行学习,实现对象的逆控制。,神经网络控制器的类型,(a),神经网络控制器的类型,(b),神经网络控制器的类型,3、自适应网络控制器,与传统自适应控制相同,神经网络自适应控制也分为神经网络自校正控制和神经网络模型参考自适应控制两种。自校正控制根据对系统正向或逆模型的结果调节控制器内部参数,使系统满足给定的指标,而在模型参考自适应控制中,闭环控制系统的期望性能由一个稳定的参考模型来描述。,神经网

28、络控制器的类型,1)神经网络自校正控制 神经网络自校正控制分为直接自校正控制和间接自校正控制。间接自校正控制使用常规控制器,神经网络估计器需要较高的建模精度。直接自校正控制同时使用神经网络控制器和神经网络估计器。 1、神经网络直接自校正控制 在本质上同神经网络直接逆控制,其结构如图所示。,神经网络控制器的类型,其结构如图所示。假设被控对象为如下单变量仿射非线性系统: 若利用神经网络对非线性函数 和 进行逼近,得到 和 ,则控制器为: 其中 为 时刻的期望输出值。,神经网络控制器的类型,神经网络间接自校正控制,神经网络控制器的类型,2) 神经网络模型参考自适应控制 分为直接模型参考自适应控制和间

29、接模型参考自适应控制两种。 1、直接模型参考自适应控制 如下图所示。神经网络控制器的作用是使被控对象与参考模型输出之差为最小。但该方法需要知道对象的 信息 。,神经网络控制器的类型,神经网络直接模型参考自适应控制,神经网络控制器的类型,2、间接模型参考自适应控制 如下图所示。神经网络辨识器NNI向神经网络控制器NNC提供对象的信息,用于控制器NNC的学习。,神经网络控制器的类型,神经网络间接模型参考自适应控制,神经网络控制器的类型,4、神经内模控制器,经典的内模控制将被控系统的正向模型和逆模型直接加入反馈回路,系统的正向模型作为被控对象的近似模型与实际对象并联,两者输出之差被用作反馈信号,该反

30、馈信号又经过前向通道的滤波器及控制器进行处理。控制器直接与系统的逆有关,通过引入滤波器来提高系统的鲁棒性。,神经网络控制器的类型,神经网络内模控制,神经网络控制器的类型,5. 神经网络预测控制 预测控制又称为基于模型的控制,是70年代后期发展起来的新型计算机控制方法,该方法的特征是预测模型、滚动优化和反馈校正。 神经网络预测控制的结构如下图所示,神经网络预测器建立了非线性被控对象的预测模型,并可在线进行学习修正。 利用此预测模型,通过设计优化性能指标,利用非线性优化器可求出优化的控制作用 。,神经网络控制器的类型,神经网络预测控制,神经网络控制器的类型,6.神经网络自适应评判分类器 神经网络自

31、适应评判控制通常由两个网络组成,如图所示。自适应评判网络通过不断的奖励、惩罚等再励学习,使自己逐渐成为一个合格的“教师”,学习完成后,根据系统目前的状态和外部激励反馈信号产生一个内部再励信号,以对目前的控制效果作出评价。控制选择网络相当于一个在内部再励信号指导下进行学习的多层前馈神经网络控制器,该网络在进行学习后,根据编码后的系统状态,在允许控制集中选择下一步的控制作用。,神经网络控制器的类型,神经网络自适应评判控制,神经网络控制器的类型,7.神经网络混合控制 该控制方法是集成人工智能各分支的优点,由神经网络技术与模糊控制、专家系统等相结合而形成的一种具有很强学习能力的智能控制系统。 由神经网

32、络和模糊控制相结合构成模糊神经网络,由神经网络和专家系统相结合构成神经网络专家系统。神经网络混合控制可使控制系统同时具有学习、推理和决策能力。,神经网络控制实例,1、单神经元PID控制,构成单元神经元自适应PID控制器结构图如图所示。图中转换器的输入为设定值y(t)及输出y(k),转换器的输出为神经元学习控制所需要的状态量X1,X2,X3。神经元PID控制器的输出为:,神经网络控制实例,上式中,K为神经元比例系数。由PID的增量式,令:,i(i=1,2,3)就反应了PID三个参数的大小。正是由于权值能够进行自适应调整,故可大大提高系统的鲁棒性能。而这种单神经元自适应控制器的学习功能就是通过改变

33、权系数大小来实现的.一般地,在单神经元控制器中引入输出误差平方的二次型性能指标,按指标修改控制器地加权系数,可以使得性能指标趋于最小,从而实现自适应PID地最优控制。利用具有自学习和自适应能力的单神经元来构成单神经元自适应PID控制器,不但结构简单、学习算法物理意义明确、计算量小,且能适应环境变化,具有较强的鲁棒性。,神经网络控制实例,2、BP神经网络PID控制器,构成基于BP神经网络的PID控制系统结构如下图所示。BP神经网络的学习过程可分为前向网络计算和反向误差传播连接加权系数修正两个部分,这两个部分是相连续反复进行的。直至误差满足要求。不论学习过程是否已经结束,只要在网络的输入节点加入输

34、入信号,则这些信号将一层一层向前传播;通过每一层时要根据当时的连接加权系数和节点的活化函数与阈值进行相应计算,所得的输出再继续向下一层传送。这个前向网络计算过程,既是网络学习过程的一部分,也是将来网络的工作模式。在学习过程结束之前,如果前向网络计算的输出和期望输出之间存在误差,则转入反向传播,将误差沿着原来的连接通路回送,作为修改加权系数的依据,目标使使误差减小。,神经网络控制实例,将Kp、Ki、Kd视为依赖于系统运行状态的可调系数时,则: u(k)=fu(k-1),Kp,Ki,Kd,e(k),e(k-1),e(k-2) 式中,f()是与Kp,Ki,Kd,u(k-1),e(k)相关的非线性函数

35、。可利用BP神经网络NN通过训练和学习来找到这样一个最佳控制规律。,神经网络控制实例,此时神经网络控制器实际是一个前馈控制器,它建立的是被控对象的逆向模型。由图容易看出,神经网络控制器通过向传统控制器的输出进行学习,在线调整自己,目标是使反馈误差趋近于零,从而使自己逐渐在控制作用中占据主导地位,以便最终取消反馈控制器的作用。但是以PID构成的反馈控制器一直存在,一旦系统出现干扰等,反馈控制器马上可以重新起作用。因此,采用这种前馈加反馈的智能控制方法,不仅可确保控制系统的稳定性和鲁棒性,而且可有效地提高系统的精度和自适应能力。,神经网络控制器的设计,一、神经网络直接逆模型控制法,直接逆模型控制法

36、是直观的一种神经网络控制器的实现方法,其基本思想是假设被控系统可逆,通过离线建模过程得到逆模型网络,然后用这一逆网络模型去直接控制被控对象。,对于上面的单输入单输出的系统:,y为系统的输出变量;u为系统的输入变量;n为系统的阶数;m为输入信号滞后阶;f为任意的线性或非线性函数。,假设上式系统可逆,则存在函数g,满足:,对于该关系式,若能够用一个多层前向传播神经网络来实现,则网络的输入输出关系为:,为神经网络的输出,表示训练完成后神经网络产生的控制作用; 为神经网络的输入输出关系式,用来逼近被控系统的逆模型函数g;X为神经网络的输入矢量,,这样的网络共有n+m+1个输入节点、1个输出节点。,上面

37、的动力学模型用某个神经网络来逼近,则直接逆模型控制法的目的在于产生一个期望的控制量使得在此控制作用下系统的输出维期望的输出。用系统期望的输出值 代替神经网络输入矢量X中的 ,产生期望的控制量u。即,定义其训练精度的误差函数为:,利用BP学习算法求出逆模型,动力学逆模型训练完成后,可以用直接的逆模型控制法去控制被控对象。当神经网络得到充分的训练后,由于 与 基本相等,在控制结构中可以用 代替 ,如图所示:,直接网络逆模型控制法不进行在线的学习。这种控制器的控制精度取决于逆动力学模型的精度,并且系统的参数发生变化的时候无法进行自适应的调节。该系统有很大的局限性,为了改善控制系统的性能,外加一个常规

38、的反馈控制。,直接网络控制设计法,由于直接逆模型控制法缺乏学习机制,而且控制器设计中没有考虑到系统本身的输入输出状态,所以,一旦系统运行的环境、参数发生改变时,这类控制器无法适应。人们就采用了直接网络控制法,它在神经网络的输入端引入了系统的状态信号,并将学习机制实时在线用于网络控制器的调整和改善。通过输入、输出信号的馈入,大大提高了系统的自适应能力。,缺点:这种方法学要系统的Jacobian矩阵dy/du。 一般采用的方法有:摄动法、符号函数法、前向神经网络仿真模型法、多网络自学习控制法。,直接网络控制设计法,神经网络系统辨识 系统辨识在工业方面的应用,归结为以下几方面。 (1)控制系统的分析

39、和设计。由辨识所得对象模型,用于分析 控制系统作为改进的依据;也可用于控制系统的设计。 (2)在实时控制系统中,系统辨识器作为对象的模型,由其调 整控制器参数,获得较好的控制效果。 (3)有的控制结构,用系统的逆模型作控制器,故需建立逆模 型,并对其进行辨识。 (4)预测、预报。在模型结构确定情况下,建立时变模型,预 测其参数,以实现系统参数的预测、预报。 (5)监视系统运行状态,进行故障诊断。由系统运行的状态信 息,推测系统特性的变化,判断运行是否正常,若有故障,则 判断故障位置、状况等。,系统辨识基本原理,系统辨识的原理就是通过调整辨识模型的结构来使e最小。,在神经网络系统辨识中,神经网络

40、用作辨识模型,将对象的输入输出状态u,y看作神经网络的训练样本数据,以J=1/2e2作为网络训练的目标,则通过用一定的训练算法来训练网络,使J足够小,就可以达到辨识对象模型的目的。,系统辨识基本原理,系统辨识基本原理,也就是说,实际上不可能找到一个与实际系统完全等价的模型,所以辨识实际是按照某种标准,使之能最好地拟合所关心的实际系统的动态或静态特性。,神经网络用于系统辨识的实质,神经网络用于系统辨识的实质就是选择一适当的神经网络模型来逼近实际系统。我们通常选择多层前向传播网络为辨识模型。通常考虑三大因素: 1、模型的选择模型只能是在某种意义下对实际系统的一种近似描述,它的确定要兼顾精确性和复杂

41、性。精确性越高,模型越复杂;降低精确性,模型就简单。通常采用多次仿真实验的方法。 2、输入信号的选择从时域上来看,要求系统的动态过程在辨识时间内必须被输入信号持续激励,即输入信号必须充分激励系统中的所有模态;从频域来看,要求输入信号的频谱必须足以覆盖系统的频谱。通常在神经网络辨识中可选择白噪声或伪随机信号作为系统的输入信号。,神经网络用于系统辨识的实质,3、误差准则的选择误差准则是用来衡量模型接近系统的程度的标准,它通常表示为一个误差的泛函,记作: f是误差矢量()函数。,以上三大因素确定以后,神经网络的辨识就是一个最优化的问题。,神经网络系统辨识的特点,、不要求建立实际系统的辨识格式。神经网

42、络实际上就是一个辨识模型。 、可以对本质非线性系统进行辨识,而且辨识是通过网络外部的输入输出来拟合系统的输入输出,网络内部隐含着系统的特性。 、收敛的速度不依赖于待辨识系统的维数,只与神经网络本身及其所采用的算法有关,传统的辨识方法随模型参数维数的增大而变得复杂。 、神经网络具有大量的连接,这些连接之间的权值在辨识中对应于模型参数,通过调节这些权值来使网络输出逼近系统输出。 、神经网络作为实际系统的辨识模型,实际上也是系统的一个物理实现,可以用于在线控制。,离散时间动态系统的辨识问题:,误差准则,辨识精度,神经网络辨识模型的结构,非线性动力学系统的神经网络建模根据模型的表示方式不同分两类:前向

43、建模、逆模型法。,前向建模指的是利用神经网络来逼近非线性系统的前向动力学模型。,1、神经网络模型在结构上与实际系统并行的。 2、将系统的实际输出与网络输出的误差最为网络训练的信号。,神经网络辨识模型的结构,逆模型的建立最直接的方法是将系统输出作为网络的输入,将网络输出与期望输出即系统的输入进行比较得到的误差作为神经网络训练的信号。,神经网络辨识模型的结构,逆模型存在的问题和缺陷: 1、学习过程不一定是目标最优的。存在局部逼近的问题。 2、一旦非线性系统的对应不是一一对应的,那么不准确的逆模型可能会被建立。,克服以上的缺陷,建立新的模型,如下图所示:,辨识主要步骤,辨识主要步骤,神经网络系统辨识

44、应用实例,粮食干燥热力过程神经网络模型辨识,粮食干燥塔系统简化图,神经网络辨识模型,神经网络系统辨识应用实例,干燥塔出口粮食水分神经网络辨识结果与实测结果比较,神经网络系统辨识应用实例,角度传感器启动漂移特性的神经网络模型辨识,神经网络系统辨识应用实例,角度传感器启动漂移特性的神经网络模型辨识,神经网络系统辨识应用实例,角度传感器启动漂移特性的神经网络模型辨识,神经网络系统辨识应用实例,角度传感器启动漂移特性的神经网络模型辨识,神经网络系统辨识应用实例,神经网络系统辨识应用实例,神经网络系统辨识应用实例,网络各层的输入输出描述如下:,神经网络系统辨识应用实例,神经网络系统辨识应用实例,神经网络系统辨识应用实例,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1