粒子群优化算法.ppt

上传人:yyf 文档编号:5030735 上传时间:2020-01-29 格式:PPT 页数:33 大小:983.50KB
返回 下载 相关 举报
粒子群优化算法.ppt_第1页
第1页 / 共33页
粒子群优化算法.ppt_第2页
第2页 / 共33页
粒子群优化算法.ppt_第3页
第3页 / 共33页
粒子群优化算法.ppt_第4页
第4页 / 共33页
粒子群优化算法.ppt_第5页
第5页 / 共33页
点击查看更多>>
资源描述

《粒子群优化算法.ppt》由会员分享,可在线阅读,更多相关《粒子群优化算法.ppt(33页珍藏版)》请在三一文库上搜索。

1、粒子群优化算法,目 录,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,人工生命:研究具有某些生命基本特征的人 工系统。包括两方面的内容: 1、研究如何利用计算技术研究生物现象; 2、 研究如何利用生物技术研究计算问题。 我们关注的是第二点。 已有很多源于生物现象的计算技巧,例如神 经网络和遗传算法。 现在讨论另一种生物系统-社会系统:由简 单个

2、体组成的群落和环境及个体之间的相互 行为。,背 景,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,背 景,群智能(swarm intelligence) 模拟系统利用局部信息从而可以产生不可预测的群行为。 我们经常能够看到成群的鸟、鱼或者浮游生物。这些生物的聚集行为有利于它们觅食和逃避捕食者。它们的群落动辄以十、百、千甚至万计,并且经常不存在一

3、个统一的指挥者。它们是如何完成聚集、移动这些功能呢?,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,Millonas在开发人工生命算法时(1994年),提出群体智能概念并提出五点原则: 1、接近性原则:群体应能够实现简单的时空计算; 2、优质性原则:群体能够响应环境要素; 3、变化相应原则:群体不应把自己的活动限制在一狭 小范围; 4、稳定性原

4、则:群体不应每次随环境改变自己的模 式; 5、适应性原则:群体的模式应在计算代价值得的时候 改变。,背 景,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,背 景,社会组织的全局群行为是由群内个体行为以非线性方式出现的。个体间的交互作用在构建群行为中起到重要的作用。 从不同的群研究得到不同的应用。最引人注目的是对蚁群和鸟群的研究。 其中粒群优化方

5、法就是模拟鸟群的社会行为发展而来。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,背 景,对鸟群行为的模拟: Reynolds、Heppner和Grenader提出鸟群行为的 模拟。他们发现,鸟群在行进中会突然同步的改 变方向,散开或者聚集等。那么一定有某种潜在 的能力或规则保证了这些同步的行为。这些科学 家都认为上述行为是基于不可预知的鸟类社

6、会行 为中的群体动态学。 在这些早期的模型中仅仅依赖个体间距的操作, 也就是说,这中同步是鸟群中个体之间努力保持 最优的距离的结果。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,背 景,对鱼群行为的研究: 生物社会学家E.O.Wilson对鱼群进行了研究。 提出:“至少在理论上,鱼群的个体成员能够 受益于群体中其他个体在寻找食物的过程中的 发

7、现和以前的经验,这种受益超过了个体之间 的竞争所带来的利益消耗,不管任何时候食物 资源不可预知的分散。”这说明,同种生物之 间信息的社会共享能够带来好处。这是PSO的 基础。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,粒子群优化算法(PSO)是一种进化计算技术(evolutionary computation),由Eberhart博士和ke

8、nnedy博士于1995年提出 (Kennedy J,Eberhart R Particle swarm optimizationProceedings of the IEEE International Conference on Neural Networks199519421948.)。源于对鸟群捕食的行为研究。粒子群优化算法的基本思想是通过群体中个体之间的协作和信息共享来寻找最优解 PSO的优势在于简单容易实现并且没有许多参数的调节。目前已被广泛应用于函数优化、神经网络训练、模糊系统控制以及其他遗传算法的应用领域。,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代

9、找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,设想这样一个场景:一群鸟在随机的搜索食物。 在这个区域里只有一块食物,所有的鸟都不知 道食物在那。但是它们知道自己当前的位置距 离食物还有多远。 那么找到食物的最优策略是什么? 最简单有效的就是搜寻目前离食物最近的鸟的 周围区域。,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“

10、极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,抽象: 鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子I 在N维空间的位置表示为矢量Xi(x1,x2,xN),飞行速度表示为矢量Vi(v1,v2,vN)每个粒子都有一个由目标函数决定的适应值(fitness value),并且知道自己到目前为止发现的最好位置(pbest)和现在的位置Xi这个可以看作是粒子自己的飞行经验除此之外,每个粒子还知道到目前为止整个群体中所有粒子发现的最好位置(gbe

11、st)(gbest是pbest中的最好值)这个可以看作是粒子同伴的经验粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最

12、优值后,粒子通过下面的公式来更新自己的速度和位置。,(1)式,(2)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,Vi 是粒子的速度; pbest和gbest如前定义; rand()是介于(0、1)之间的随机数; Xi 是粒子的当前位置。 c1和c2是学习因子,通常取c1

13、 c22 在每一维,粒子都有一个最大限制速度Vmax,如果 某一维的速度超过设定的Vmax ,那么这一维的速度 就被限定为Vmax 。( Vmax 0) 以上面两个公式为基础,形成了后来PSO 的标准形式,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,从社会学的角度来看,公式(1)的第一部分称为记忆项, 表示上次速度大小和方

14、向的影响;公式第二部分称为自 身认知项,是从当前点指向粒子自身最好点的一个矢量, 表示粒子的动作来源于自己经验的部分;公式的第三部 分称为群体认知项,是一个从当前点指向种群最好点的 矢量,反映了粒子间的协同合作和知识共享。粒子就是 通过自己的经验和同伴中最好的经验来决定下一步的运 动。 以上面两个公式为基础,形成了后来PSO 的标准形式,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中

15、,i1,2,M,M是该群体中粒子的总数,算法介绍,1998年shi等人在进化计算的国际会议上 发表了一篇论文A modified particle swarm optimizer对前面的公式(1)进行了修正。引入 惯性权重因子。,(3)式,非负,称为惯性因子。,公式(2)和(3)被视为标准pso算法。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总

16、数,算法介绍,值较大,全局寻优能力强,局部寻优能力弱; 值较小反之。 初始时,shi将 取为常数,后来实验发现,动 态 能够获得比固定值更好的寻优结果。动态 可以在PSO搜索过程中线性变化,也可根据PSO 性能的某个测度函数动态改变。 目前,采用较多的是shi建议的线性递减权值 (linearly decreasing weight, LDW)策略。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(

17、1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,Gk为最大进化代数, ini为初始惯性权值, end为迭代至最大代数时惯性权值。 典型取值 ini0.9, end0.4。 的引入使PSO算法性能有了很大提高,针对 不同的搜索问题,可以调整全局和局部搜索能 力,也使得PSO算法能成功的应用于很多实际 问题,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M

18、是该群体中粒子的总数,算法介绍,标准PSO算法的流程: Step1:初始化一群微粒(群体规模为m),包括随机位置和 速度; Step2:评价每个微粒的适应度; Step3:对每个微粒,将其适应值与其经过的最好位置 pbest作比较,如果较好,则将其作为当前的 最好位置pbest; Step4:对每个微粒,将其适应值与其经过的最好位置 gbest作比较,如果较好,则将其作为当前的 最好位置gbest; Step5:根据(2)、(3)式调整微粒速度和位置; Step6:未达到结束条件则转Step2。,算法介绍,迭代终止条件根据具体问题一般选为最大迭代 次数Gk或(和)微粒群迄今为止搜索到的最优位置

19、 满足预定最小适应阈值。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,局部和全局最优算法,方程(2)和(3)中pbest和gbest分别表示微粒群的局部和 全局最优位置,当C10时,则粒子没有了认知能力, 变为只有社会的模型(social-only): 被称为全局PSO算法.粒子有扩展搜索空间的能力,具有 较快的收敛速度,但由于缺少局部搜索,

20、对于复杂问题 比标准PSO 更易陷入局部最优。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,当C20时,则粒子之间没有社会信息,模型变为 只有认知(cognition-only)模型: 被称为局部PSO算法。由于个体之间没有信息的 交流,整个群体相当于多个粒子进行盲目的随机 搜索,收敛速度慢,因而得到最优解的可能性小。,局部和全局最优算法,算

21、法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,参数分析,参数有:群体规模m,惯性因子 ,学习因子c1和c2 最大速度Vmax,迭代次数Gk。 群体规模m 一般取2040,对较难或特定类别的问题 可以取到100200。 最大速度Vmax决定当前位置与最好位置之间的区域的 分辨率(或精度)。如果太快,则粒子有可能越过极小 点;如果太慢,则粒子不能在局

22、部极小点之外进行足 够的探索,会陷入到局部极值区域内。这种限制可以 达到防止计算溢出、决定问题空间搜索的粒度的目的。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,权重因子 包括惯性因子 和学习因子c1和c2。 使粒子 保持着运动惯性,使其具有扩展搜索空间的趋势,有 能力探索新的区域。C1和c2代表将每个粒子推向Pbest 和gbest位置的统

23、计加速项的权值。较低的值允许粒子 在被拉回之前可以在目标区域外徘徊,较高的值导致粒 子突然地冲向或越过目标区域。,参数分析,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,参数分析,参数设置:如果令c1c20,粒子将一直以当前 速度的飞行,直到边界。很难找到最优解。 如果 0,则速度只取决于当前位置和历史最好位置, 速度本身没有记忆性。假设一个粒

24、子处在全局最好位置 ,它将保持静止,其他粒子则飞向它的最好位置和全局 最好位置的加权中心。粒子将收缩到当前全局最好位置。 在加上第一部分后,粒子有扩展搜索空间的趋势,这也 使得w的作用表现为针对不同的搜索问题,调整算法的 全局和局部搜索能力的平衡。 较大时,具有较强的全 局搜索能力; 较小时,具有较强的局部搜索能力。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是

25、该群体中粒子的总数,参数分析,通常设c1c22。Suganthan的实验表明:c1和c2 为常数时可以得到较好的解,但不一定必须等于2。 Clerc引入收敛因子(constriction factor) K来保证 收敛性。,其中,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,参数分析,通常取 为4.1,则K0.729.实验表明,与使 用惯性权重

26、的PSO算法相比,使用收敛因子的 PSO有更快的收敛速度。其实只要恰当的选取 和c1、c2,两种算法是一样的。因此使用收 敛因子的PSO可以看作使用惯性权重PSO的特 例。 恰当的选取算法的参数值可以改善算法的性能。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,离散二进制PSO,基本PSO是用于实值连续空间,然而许多实际问题是组合 优化问题,

27、因而提出离散形式的PSO。 速度和位置更新式为:,then,else,其中,为sigmoid函数,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,PSO和其他算法,1、遗传算法和PSO的比较,共性: 都属于仿生算法。 (2) 都属于全局优化方法。 (3) 都属于随机搜索算法。 (4) 都隐含并行性。 (5) 根据个体的适配信息进行搜索,因此不受函

28、数 约束条件的限制,如连续性、可导性等。 (6) 对高维复杂问题,往往会遇到早熟收敛和收敛 性能差的缺点,都无法保证收敛到最优点。,PSO和其他算法,差异: (1) PSO有记忆,好的解的知识所有粒子都保 存,而GA,以前的知识随着种群的改变被改变。 (2) PSO中的粒子仅仅通过当前搜索到最优点进行共享信息,所以很大程度上这是一种单共享项信息机制。而GA中,染色体之间相互共享信息,使得整个种群都向最优区域移动。 (3) GA的编码技术和遗传操作比较简单,而PSO 相对于GA,没有交叉和变异操作,粒子只是通过内部速度进行更新,因此原理更简单、参数更少、实现更容易。,算法介绍,PSO初始化为一群

29、随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,PSO和其他算法,2、PSO和ANN,GA可以用来研究NN的三个方面:网络连接权重、网络 结构、学习算法。优势在于可处理传统方法不能处理的 问题,例如不可导的节点传递函数或没有梯度信息。 缺点:在某些问题上性能不是特别好;网络权重的编码和 遗传算子的选择有时较麻烦。 已有利用PSO来进行神经网络训练。研究表明PSO是一 种很有

30、潜力的神经网络算法。速度较快且有较好的结果。 且没有遗传算法碰到的问题。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,有关的国际会议 ANTS International Workshop on Ant Colony Optimization and Swarm Intelligence 1998年首次召开,每两年一次 2006年 The F

31、ifth GECCO(国际演化计算会议) Genetic and Evolutionary Computation Conference 每年一次 2006年 particle swarm optimization (PSO), that focuses on continuous optimization problems.,PSO资源和参考文献,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。 在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,PSO资源和参考文献,张丽平.粒子群优化算法的理论于实践.博士论文.2005.1 Kennedy J,Eberhart RParticle swarm optimization Proceedings of the IEEE International Conference on Neural Networks199519421948 王冬梅.群体智能优化算法的研究.硕士论文.2004.5 李建勇.粒子群优化算法研究.硕士论文.2004.3 张燕等.微粒群优化算法及其改进形式综述.计算机工程 与应用.2005.2 13,完,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 研究报告 > 商业贸易


经营许可证编号:宁ICP备18001539号-1