神经信息学.ppt

上传人:本田雅阁 文档编号:2668400 上传时间:2019-05-03 格式:PPT 页数:91 大小:1.55MB
返回 下载 相关 举报
神经信息学.ppt_第1页
第1页 / 共91页
神经信息学.ppt_第2页
第2页 / 共91页
神经信息学.ppt_第3页
第3页 / 共91页
神经信息学.ppt_第4页
第4页 / 共91页
神经信息学.ppt_第5页
第5页 / 共91页
点击查看更多>>
资源描述

《神经信息学.ppt》由会员分享,可在线阅读,更多相关《神经信息学.ppt(91页珍藏版)》请在三一文库上搜索。

1、INSTITUTE OF COMPUTING TECHNOLOGY 神经信息学 平行分布式理论框架 史忠植 中科院计算所 *1 INSTITUTE OF COMPUTING TECHNOLOGY 目 录 1. 神经计算 2. 并行分布式理论框架 3. 交互与竞争神经网络 4. 误差反向传播神经网络 5.Hopfield神经网络 Date2 INSTITUTE OF COMPUTING TECHNOLOGY 神经网络 l一个神经网络是由简单处理元构成的规模宏大的 并行分布处理器。天然具有存储经验知识和使之可 用的特性。 l神经网络从两个方面上模拟大脑: 神经网络获取的知识是从外界环境中学习得

2、来的。 内部神经元的连接强度,即突触权值,用于 储存获取的知识。 Date3 INSTITUTE OF COMPUTING TECHNOLOGY 发展历史 l萌芽期(20世纪40年代) 人工神经网络的研究最早可以追溯到人类开 始研究自己的智能的时期,到1949年止。 1943年,心理学家McCulloch和数学家Pitts 建立起了著名的阈值加权和模型,简称为M-P模 型。发表于数学生物物理学会刊Bulletin of Methematical Biophysics 949年,心理学家D. O. Hebb提出神经元之 间突触联系是可变的假说Hebb学习律。 Date4 INSTITUTE OF

3、 COMPUTING TECHNOLOGY 发展历史 l第一高潮期(19501968) 以Marvin Minsky,Frank Rosenblatt, Bernard Widrow等为代表人物,代表作是单级 感知器(Perceptron)。 可用电子线路模拟。 人们乐观地认为几乎已经找到了智能的关 键。许多部门都开始大批地投入此项研究,希望 尽快占领制高点。 Date5 INSTITUTE OF COMPUTING TECHNOLOGY 发展历史 l反思期(19691982) M. L. Minsky和S. Papert,Perceptron ,MIT Press,1969年 异或”运算不可

4、表示 二十世纪70年代和80年代早期的研究结果 Date6 INSTITUTE OF COMPUTING TECHNOLOGY 发展历史 l第二高潮期(19831990) 1982年,J. Hopfield提出Hopfield网络 l用Lyapunov函数作为网络性能判定的能量函 数,建立ANN稳定性的判别依据 l阐明了ANN与动力学的关系 l用非线性动力学的方法来研究ANN的特性 l指出信息被存放在网络中神经元的联接上 Date7 INSTITUTE OF COMPUTING TECHNOLOGY 发展历史 l第二高潮期(19831990) 1984年, J. Hopfield设计研制了后来

5、被人 们称为Hopfield网-Tank 电路。较好地解决了著 名的TSP问题,找到了最佳解的近似解,引起了 较大的轰动。 1985年,UCSD的Hinton、Sejnowsky、 Rumelhart等人所在的并行分布处理(PDP)小 组的研究者在Hopfield网络中引入了随机机制, 提出所谓的Boltzmann机。 Date8 INSTITUTE OF COMPUTING TECHNOLOGY 发展历史 1986年,并行分布处理小组的Rumelhart 等研究者重新独立地提出多层网络的学习算法 BP算法,较好地解决了多层网络的学习问题 。(Paker1982和Werbos1974年) 自适

6、应共振理论(ART) 自组织特征映射理论 Date9 INSTITUTE OF COMPUTING TECHNOLOGY 发展历史 Hinton 等人最近提出了 Helmboltz 机 徐雷提出的 Ying-Yang 机理论模型 甘利俊一( S.Amari) 开创和发展的基于统计 流形的方法应用于人工神经网络的研究, l国内首届神经网络大会是1990年12月在北京举行的 。 Date10 INSTITUTE OF COMPUTING TECHNOLOGY 并行分布式理论框架 1986年,美国加州大学圣地亚哥分校(UCSD)Rumellhart, McClelland,Hinton: Paral

7、lel and Distributed Processing, MIT Press, Cambridge Date11 INSTITUTE OF COMPUTING TECHNOLOGY 并行分布式理论框架 PDP模型 1) 一组处理单元(PE或AN) 2) 处理单元的激活状态(ai) 3) 每个处理单元的输出函数(fi) 4) 处理单元之间的连接模式 5) 传递规则(wijoi) 6) 把处理单元的输入及当前状态结合起来产生激 活值的激活规则(Fi) 7) 通过经验修改连接强度的学习规则 8) 系统运行的环境(样本集合) Date12 INSTITUTE OF COMPUTING TECHN

8、OLOGY 神经网络的维数 lVarious types of neurons lVarious network architectures lVarious learning algorithms lVarious applications Date13 INSTITUTE OF COMPUTING TECHNOLOGY 自组织神经网络的典型结构 交互与竞争IAC神经网络 竞争层 输入层 Date14 INSTITUTE OF COMPUTING TECHNOLOGY 竞争学习 相似性测量欧式距离法 Date15 INSTITUTE OF COMPUTING TECHNOLOGY 相似性测量

9、余弦法 竞争学习 Date16 INSTITUTE OF COMPUTING TECHNOLOGY 竞争学习规则Winner-Take-All 网络的输出神经元之间相互竞争以求被 激活,结果在每一时刻只有一个输出神经元 被激活。这个被激活的神经元称为竞争获胜 神经元,而其它神经元的状态被抑制,故称 为Winner Take All。 竞争学习原理 Date17 INSTITUTE OF COMPUTING TECHNOLOGY 寻找获胜神经元 当网络得到一个输入模式向量时, 竞争层的所有神经元对应的内星权向量均与其进行相 似性比较,并将最相似的内星权向量判为竞争获胜神 经元。 欲使两单位向量最

10、相似,须使其点积最大。即: 竞争学习原理 Date18 INSTITUTE OF COMPUTING TECHNOLOGY 从上式可以看出,欲使两单位向量的欧式距离 最小,须使两向量的点积最大。即: 竞争学习原理 Date19 INSTITUTE OF COMPUTING TECHNOLOGY 3.网络输出与权值调整 jj* 步骤3完成后回到步骤1继续训练,直到学习率 衰减到0。 竞争学习原理 Date20 INSTITUTE OF COMPUTING TECHNOLOGY 单层感知器模型 前馈神经网络 j=1,2,m Date21 INSTITUTE OF COMPUTING TECHNOL

11、OGY 净输入: 输出: oj x1 -1 xn 单层感知器 Date22 INSTITUTE OF COMPUTING TECHNOLOGY 感知器的功能 (1)设输入向量X=(x1 ,x2)T 输出: 则由方程 w1jx1+w2jx2-Tj=0 确定了二维平面上的一条分界线。 oj x1 -1 x2 单计算节点感知器 单层感知器 Date23 INSTITUTE OF COMPUTING TECHNOLOGY 感知器的功能 单层感知器 Date24 INSTITUTE OF COMPUTING TECHNOLOGY 感知器的功能 (2)设输入向量X=(x1,x2,x3)T 输出: 则由方程

12、 w1jx1+w2jx2+w3j x3Tj=0 (3.4) 确定了三维空间上的一个分界平面。 x2 oj x1 x3 -1 单层感知器 Date25 INSTITUTE OF COMPUTING TECHNOLOGY 感知器的功能 单层感知器 Date26 INSTITUTE OF COMPUTING TECHNOLOGY 多层感知器 x1o1 输出层隐藏层输入层 x2 o2 omxn W(1)W(2)W(3)W(L ) 网络的拓扑结构 Date27 INSTITUTE OF COMPUTING TECHNOLOGY 双层感知器 “异或”问题分类 用两计算层感知器解决“异或”问题。 “异或”的

13、真值表 x1x2y1y2o 001 011 100 111 多层感知器 Date28 INSTITUTE OF COMPUTING TECHNOLOGY 双层感知器 “异或”问题分类 用两计算层感知器解决“异或”问题 “异或”的真值表 x1x2y1y2o 001 010 101 111 多层感知器 Date29 INSTITUTE OF COMPUTING TECHNOLOGY 双层感知器 “异或”问题分类 用两计算层感知器解决“异或”问题。 “异或”的真值表 x1x2y1y2o 0011 0110 1001 1111 多层感知器 Date30 INSTITUTE OF COMPUTING T

14、ECHNOLOGY 双层感知器 “异或”问题分类 例四 用两计算层感知器解 决“异或”问题。 “异或”的真值表 x1x2y1y2o 00110 01101 10011 11110 多层感知器 Date31 INSTITUTE OF COMPUTING TECHNOLOGY 具有不同隐层数的感知器的分类能力对比 多层感知器 Date32 INSTITUTE OF COMPUTING TECHNOLOGY 基于BP算法的多层前馈网络模型 误差反向传播(BP)网路 Date33 INSTITUTE OF COMPUTING TECHNOLOGY 基于BP算法的多层前馈网络模型 输入向量: X=(x1

15、,x2,xi,xn)T 隐层输出向量: Y=(y1,y2,yj,ym)T 输出层输出向量: O=(o1,o2,ok,ol)T 期望输出向量:d=(d1, d2,dk,dl)T 输入层到隐层之间的权值矩阵:V=(V1,V2,Vj,Vm) 隐层到输出层之间的权值矩阵:W=(W1,W2,Wk,Wl) 误差反向传播(BP)网路 Date34 INSTITUTE OF COMPUTING TECHNOLOGY 3.4.1 基于BP算法的多层前馈网络模型 对于输出层:k=1,2,l k=1,2,l 对于隐层:j=1,2,m j=1,2,m 误差反向传播(BP)网路 Date35 INSTITUTE OF

16、COMPUTING TECHNOLOGY 3.4.1 基于BP算法的多层前馈网络模型 双极性Sigmoid函数: 单极性Sigmoid函数: 误差反向传播(BP)网路 Date36 INSTITUTE OF COMPUTING TECHNOLOGY 一、网络误差 定义与权值调整思路 输出误差E定义: 将以上误差定义式展开至隐层: BP学习算法 Date37 INSTITUTE OF COMPUTING TECHNOLOGY 一、网络误差与权值调整 进一步展开至输入层: BP学习算法 Date38 INSTITUTE OF COMPUTING TECHNOLOGY BP学习算法 j=0,1,2,

17、m; k=1,2,l i=0,1,2,n; j=1,2,m 式中负号表示梯度下降,常数(0,1)表示比例系数。 在全部推导过程中,对输出层有j=0,1,2,m; k=1,2,l 对隐层有 i=0,1,2,n; j=1,2,m BP学习算法 Date39 INSTITUTE OF COMPUTING TECHNOLOGY 对于输出层,式(3.4.9a)可写为 对隐层,式(3.4.9b)可写为 对输出层和隐层各定义一个误差信号,令 (3.4.11a) yj xi BP算法推导 Date40 INSTITUTE OF COMPUTING TECHNOLOGY (1)初始化; (4)计算各层误差信号;

18、 (5)调整各层权值; (6)检查是否对所有样本完成一次 轮训; (7)检查网络总误差是否达到精 度要求。 (2)输入训练样本对X Xp、d dp 计算各层输出; (3)计算网络输出误差; BP算法的程序实现 Date41 INSTITUTE OF COMPUTING TECHNOLOGY 然后根据总误差计算各层的误差 信号并调整权值。 另一种方法是在所有样本输 入之后,计算网络的总误差: BP算法的程序实现 Date42 INSTITUTE OF COMPUTING TECHNOLOGY (1)非线性映射能力 多层前馈网能学习和存贮大量输入-输出模 式映射关系,而无需事先了解描述这种映射关

19、系的数学方程。只要能提供足够多的样本模式 对供BP网络进行学习训练,它便能完成由n维输 入空间到m维输出空间的非线性映射。 多层前馈网(感知器)的主要能力 Date43 INSTITUTE OF COMPUTING TECHNOLOGY (2)泛化能力 当向网络输入训练时未曾见过的非样本数据 时,网络也能完成由输入空间向输出空间的正确 映射。这种能力称为多层前馈网的泛化能力。 (3)容错能力 输入样本中带有较大的误差甚至个别错误对网 络的输入输出规律影响很小。 多层前馈网(感知器)的主要能力 Date44 INSTITUTE OF COMPUTING TECHNOLOGY 误差函数的可调整参数

20、 的个数 nw 等于各层权值数加 上阈值数,即: 误差 E 是 nw+1 维空间中 一个形状极为复杂的曲面,该 曲面上的每个点的“高度”对应 于一个误差值,每个点的坐标 向量对应着 nw 个权值,因此称 这样的空间为误差的权空间。 BP算法的局限性 Date45 INSTITUTE OF COMPUTING TECHNOLOGY 误差曲面的分布有两个特点: 特点之一:存在平坦区域 BP算法的局限性 Date46 INSTITUTE OF COMPUTING TECHNOLOGY 特点之二:存在多个极小点 多数极小点都是局部极小,即使 是全局极小往往也不是唯一的,但其 特点都是误差梯度为零。 误

21、差曲面的平坦区域会使训练次 数大大增加,从而影响了收敛速度; 而误差曲面的多极小点会使训练陷入 局部极小,从而使训练无法收敛于给 定误差。 BP算法的局限性 Date47 INSTITUTE OF COMPUTING TECHNOLOGY 标准的BP算法在应用中暴露出不少内在的缺陷: 易形成局部极小而得不到全局最优; 训练次数多使得学习效率低,收敛速度慢; 隐节点的选取缺乏理论指导; 训练时学习新样本有遗忘旧样本的趋势。 针对上述问题,国内外已提出不少有效的改进算法 ,下面仅介绍其中3种较常用的方法。 标准BP算法的改进 Date48 INSTITUTE OF COMPUTING TECHNO

22、LOGY 1 增加动量项 为动量系数,一般有(0,1) 2 自适应调节学习率 设一初始学习率,若经过一批次权值调整后使 总误差,则本次调整无效,且=(1 )。 标准BP算法的改进 Date49 INSTITUTE OF COMPUTING TECHNOLOGY 3 引入陡度因子 实现这一思路的 具体作法是,在原转 移函数中引入一个陡 度因子 标准BP算法的改进 Date50 INSTITUTE OF COMPUTING TECHNOLOGY 概述 Hopfield网络是神经网络发展历史上的一个重要的里 程碑。由美国加州理工学院物理学家J.J.Hopfield教授于 1982年提出,是一种单层反

23、馈神经网络。 Hopfield网络是一种由非线性元件构成的反馈系统,其稳 定状态的分析比前向神经网络要复杂得多。1984年, Hopfield设计并研制了网络模型的电路,并成功地解决了 旅行商(TSP)计算难题(优化问题)。 Hopfield网络分为离散型和连续型两种网络模型,分 别记作DHNN (Discrete Hopfield Neural Network) 和 CHNN (Continues Hopfield Neural Network) 。 Hello,Im John Hopfield Date51 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfi

24、eld 神经网络 Date52 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfield 神经网络 l网络模型表示法二 Date53 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfield 神经网络 l相关参数说明 l任意神经元 i与 j间的突触权值为 ,神经元之间连接是对称的 ,神经元自身无连接. l每个神经元都同其他的神经元相连,其输出信号经过其他神经 元又有可能反馈给自己 l设Hopfield网络中有n个神经元,其中任意神经元的输入用 表 示,输出 用表示,它们都是时间的函数,其中 也称为神经元在时 刻t 的状态。 Dat

25、e54 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfield 神经网络 l激励函数 Date55 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfield 神经网络 l离散Hopfield网络的运行规则 l(1)串行(异步)工作方式 l在任时刻,只有某神经元 ( 随机的或确定的选择)依上式变化,而其 他神经元的状态不变。 l(2)并行(同步)工作方式 l在任一时刻,部分神经元或全部 神经元的状态同时改变。 Date56 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfield 神经网络 l串行(

26、异步)工作方式运行步骤 l第一步 对网络进行初始化; l第二步 从网络中随机选取一个神经元; l第三步 按式(2-5)求出该神经元i的输出; l第四步 按式(2-6)求出该神经元经激活函数处理 后的输出,此时网络中的其他神经元的输出保持不变; l第五步 判断网络是否达到稳定状态,若达到稳 定状态或满足给定条件则结束;否则转到第二步继续运 行。 Date57 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfield 神经网络 l稳定状态 l若网络从某一时刻以 后,状态不再发生变化, 则称网络处于稳定状态 l网络为对称连接,即 ;神经元自身无连接 l 能量函数在网络

27、运行 中不断降低,最后达到稳 定 Date58 INSTITUTE OF COMPUTING TECHNOLOGY 离散Hopfield 神经网络 l网络中神经元能量函数变化量 Hopfield网络状态向着能量函数减小的 方向演化。由于能量函数有界,所以系 统必然会趋于稳定状态 。 Date59 INSTITUTE OF COMPUTING TECHNOLOGY 连续Hopfield 神经网络 网络模型 Date60 INSTITUTE OF COMPUTING TECHNOLOGY 连续Hopfield 神经网络 l稳定性分析 l将下式代入得: 因为 连续Hopfield网络模型是稳定的 D

28、ate61 INSTITUTE OF COMPUTING TECHNOLOGY 连续Hopfield 神经网络 l连续Hopfield网络模型的主要特性 l1)连续Hopfield网络的神经元作为I/O转换,其传输特性 具有Sigmoid特性; l2)具有时空整合作用; l3)在神经元之间存在着大量的兴奋性和抑制性连接,这 种联接主要是通过反馈来实现。 l4)具有既代表产生动作电位的神经元,又有代表按渐进 方式工作的神经元,即保留了动态和非线性两个最重要的计 算特性。 lHopfield神经网络设计的目标就是使得网络存储一些特定的平 衡点,当给定网络一个初始条件时,网络最后会在这样的点上停 下

29、来 Date62 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield 神经网络的MATLAB实现 函 数 名功 能 satlin( )饱饱和线线性传递传递 函数 satlins( )对对称饱饱和线线性传递传递 函数 newhop( )生成一个Hopfield回归归网络络 nnt2hop( )更新NNT 2.0 Hopfield回归归网 络络 lMATLAB中Hopfield网络的重要函数和功能 Date63 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield 神经网络的MATLAB实现 l MATLAB中与Hopfield网络

30、有关的重要函数和功能 l newhop( ) l功能 生成一个Hopfield回归网络。 l格式 net = newhop(T) l说明 net为生成的神经网络,具有在T中的向量上稳定的 点;T是具有Q个目标向量的R*Q矩阵(元素必须为-1或1)。 Hopfield神经网络经常被应用于模式的联想记忆中。Hopfield神 经网络仅有一层,其激活函数用satlins( )函数,层中的神经元 有来自它自身的连接权和阈值。 Date64 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield 神经网络的MATLAB实现 lMATLAB中与Hopfield网络有关的重要函

31、数和功能 lsatlins( ) l功能 对称饱和线性传递函数 l格式 A = satlins(N) lA输出向量矩阵;N是由网络的输入向量组成的 S*Q矩阵,返回的矩阵A与N的维数大小一致,A的元素 取值位于区间0,1内。当N中的元素介于-1和1之间时 ,其输出等于输入;当输入值小于-1时返回-1;当输入 值大于1时返回1。 Date65 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield 神经网络的MATLAB实现 l设印刷体数字由10 10点阵构成,就是将数 字分成很多小方块,每个方块就对应数字的 一部分,构成数字本部分的方块用1表示, 空白处用-1表示

32、。试设计一个Hopfield网络, 能够正确识别印刷体的数字。 由点阵构成 的数字1 由点阵构成 的数字2 Date66 INSTITUTE OF COMPUTING TECHNOLOGY 程序 Date67 INSTITUTE OF COMPUTING TECHNOLOGY 稳定性分析 l网络的稳定性是与收敛性不同的问题 lCohen和Grossberg1983年:Hopfield网络的稳 定性定理 如果Hopfield网络的联接权矩阵是对角线为0 的对称矩阵,则它是稳定的 l用著名的Lyapunov函数作为Hopfield网络的能 量函数 Date68 INSTITUTE OF COMPU

33、TING TECHNOLOGY Lyapunov函数能量函数 l作为网络的稳定性度量 lwijoioj:网络的一致性测度。 lxjoj:神经元的输入和输出的一致性测 度。 ljoj:神经元自身的稳定性的测度。 Date69 INSTITUTE OF COMPUTING TECHNOLOGY 当ANk的状态从ok变成ok 1、ANk是输入神经元 Date70 INSTITUTE OF COMPUTING TECHNOLOGY 当ANk的状态从ok变成ok wkk=0 Date71 INSTITUTE OF COMPUTING TECHNOLOGY =-(netk-k)ok lANk状态的变化:o

34、k=(ok-ok) lok=0, =0 ok0,ok=1& ok=0,ok由0变到1, netkk,netk-k0 所以,-(netk-k)ok0 yi= 0if neti1 1 2 1/2 Date78 INSTITUTE OF COMPUTING TECHNOLOGY 基本BAM的稳定 lKosko(1987): l基本的双联存储器无条件稳定联接权矩阵 是互为转置矩阵。 l当输入向量的维数与输出向量的维数相同时, W为方阵,此时如果联接矩阵W是对称的,则基 本的双联存储器退化成一个Hopfield网 Date79 INSTITUTE OF COMPUTING TECHNOLOGY 异联想记

35、忆 l样本集:S=(X1,Y1),(X2,Y2),(Xs,Ys) l权矩阵 网络需要对输入向量进行循环处理的情况 当输入向量中含有“噪音” 样本集所含的信息超出网络的容量 Date80 INSTITUTE OF COMPUTING TECHNOLOGY 容量 lKosko(1987),一般情况下,相联存储器的容量不会 超过网络最小层神经元的个数min lHaines和Hecht-Nielson(1988),“非均匀”网络的容 量最多可以达到2min lR. J. McEliece、E. C. Posner、E. R. Rodemich l用户随机地选择L个状态 l每个向量中有4+log2min

36、个分量为1,其它为-1 l98%的向量成为稳定状态 Date81 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield网解决TSP问题 l1985年,J. J. Hopfield和D. W. Tank用神经网 求解TSP。试验表明,当城市的个数不超过30时 ,多可以给出最优解的近似解。而当城市的个数 超过30时,最终的结果就不太理想了 ln个城市间存在n!/(2n)条可能路径 l设问题中含有n个城市,用n*n个神经元构成网 络 Date82 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield网解决TSP问题 ldxy城市X与城市

37、Y之间的距离; lyxi城市X的第i个神经元的状态: 1城市X在第i个被访问 yxi= 0城市X不在第i个被访问 lwxi,yj城市X的第i个神经元到城市Y的第j个 神经元的连接权。 Date83 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield网用于解决TSP问题 例如:四个城市X、Y、Z、W 城市名 访问顺序标示 1234 X0100 Y0001 Z1000 W0010 Date84 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield网用于解决TSP问题 l连接矩阵 wxi,yj= -Axy(1-ij) Bij(1-xy

38、) C dxy(ji+1+ji-1) 1如果i=j ij= 0如果ij Date85 INSTITUTE OF COMPUTING TECHNOLOGY 网络的能量函数 Date86 INSTITUTE OF COMPUTING TECHNOLOGY 网络的能量函数 l仅当所有的城市最多只被访问一次时取得极小 值0。 A、B、C、D为惩罚因子 第1项 Date87 INSTITUTE OF COMPUTING TECHNOLOGY 网络的能量函数 l仅当每次最多只访问一个城市时取得极小值0 。 第2项 Date88 INSTITUTE OF COMPUTING TECHNOLOGY 网络的能量函数 l当且仅当所有的n个城市一共被访问n次时才取 得最小值0。 第3项 Date89 INSTITUTE OF COMPUTING TECHNOLOGY 网络的能量函数 l表示按照当前的访问路线的安排,所需要走的 路径的总长度 第4项 Date90 INSTITUTE OF COMPUTING TECHNOLOGY Hopfield网解决TSP问题 Hopfield网解决TSP问题时显示了它强大的计算 能力,若对10个城市的TSP问题来说,可能存在 n!/2n=10!/20=181440条 它能从近20万条路线中选出最好的路线,显示 它的计算能力。 Date91

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1