logo资料库

粒子群算法综述.pdf

第1页 / 共11页
第2页 / 共11页
第3页 / 共11页
第4页 / 共11页
第5页 / 共11页
第6页 / 共11页
第7页 / 共11页
第8页 / 共11页
资料共11页,剩余部分请下载后查看
戴朝华
粒子群优化算法综述 戴朝华 西南交通大学 电气工程学院,四川 成都 610031 引用方法: 戴朝华. 粒子群优化算法综述. Available at: http://www.sciencetimes.com.cn/u/dchzyf/. 摘 要: 粒子群优化(PSO)是一种新兴的基于群体智能的启发式全局搜索算法,具有易理解、易实现、全局搜索能力强等特点, 倍受科学与工程领域的广泛关注,成为发展最快的智能优化算法之一。本文围绕 PSO 的原理、特点、改进与应用等方面进行全面 综述。侧重于 PSO 的改进算法,特别是相关的国际发展现状进行全面分析;其中 PSO 的改进策略从粒子群初始化、邻域拓扑、 参数选择和混合策略等 4 个方面进行详细介绍。简短介绍了 PSO 在典型理论问题和实际工业对象中的应用。同时,列出了一些 PSO 有关的重要网址,从那里可以下载相关文献、基于 MATLAB 语言的 PSO 工具箱和一些改进算法源程序等电子资源。最后, 给出了未来的研究方向展望。 关键词: 粒子群优化算法;全局优化;群体智能;进化计算;综述 中图法分类号: TP18 文献标识码: A 文章编号: A Survey on Particle Swarm Optimization DAI Chao-hua (School of Electrical Engineering, Southwest Jiaotong University, Chengdu 610031, China; E-mail: dchzyf@126.com) Abstract: Particle swarm optimization (PSO) is a relatively new swarm intelligence-based heuristic global optimization technique. Since PSO is easy to understand and implement, requires little parameter tuning and exhibits robust global convergence, it has become the target of increasing interest from scientific and engineering communities. A thorough survey on PSO is presented with regard to its mechanism, features, improvements, applications, etc.. Particularly, international advances of the improved PSOs are paid more attention with respect to population initializations, neighborhood topologies, parameter tuning and hybridizations. The applications to academic and industrial problems are just briefly surveyed. Moreover, the interesting network sites are listed from which the related literatures, the MATLAB toolbox of PSO and the source codes of some improved PSOs can be downloaded for free. Finally, the future research directions about PSO are listed. Key words: Particle swarm optimization, global optimization, swarm intelligence, evolutionary computation, survey 1 引言 粒子群优化(Particle Swarm Optimization, PSO)算法[1]是Kennedy和Eberhart受人工生命研究结果的启发、通过模拟 鸟群觅食过程中的迁徙和群聚行为而提出的一种基于群体智能的全局随机搜索算法,1995年IEEE国际神经网络学术 会议发表了题为“Particle Swarm Optimization”的论文,标志着PSO算法诞生(注:国内也有很多学者译为“微粒群优 化”)。它与其他进化算法一样,也是基于“种群”和“进化”的概念,通过个体间的协作与竞争,实现复杂空间最优解的 搜索;同时,PSO又不像其他进化算法那样对个体进行交叉、变异、选择等进化算子操作,而是将群体(swarm)中的 个体看作是在D维搜索空间中没有质量和体积的粒子(particle),每个粒子以一定的速度在解空间运动,并向自身历史 最佳位置pbest和邻域历史最佳位置lbest聚集,实现对候选解的进化。PSO算法具有很好的生物社会背景[2]而易理解、 参数少而易实现,对非线性、多峰问题均具有较强的全局搜索能力,在科学研究与工程实践中得到了广泛关注[3-10]。 2 基本PSO 假设在D维搜索空间中,群体规模为s ,群体中每个粒子i (1≤i≤s )有如下属性:第t 步迭代时所处的位置 ipv ,第i个粒子所在邻域 ,粒子自身的历史最佳位置 ,飞行速度 x x , i i 1 v v , i i 1 v t ( ) v i x iD , v L L D i v id , , , L L , x id , = ( = ( , 2 , ) 2 ) x t ( ) v i 的历史最佳位置 lpv (如果将整个种群看作邻域,则邻域内所有粒子的历史最佳位置也就是整个群体的历史最佳位置 gpv ,此时称为全局模型;否则为局部模型)。第t代的粒子根据下面的公式更新自己的速度和位置[11]: v t ( ) ij = v t ( ij 1) − + ( c r p ij 1 1 − x t ( ij − 1) ) + ( c r p lj 2 2 − x t ( ij − 1) ) (1)
x t ( ) ij = x t ( ij 1) − + v t ( ) ij (2) 其中c1和c2为学习因子,也称加速常数(acceleration constant),r1和r2为[0,1]范围内的均匀随机数。式(1)右边由三部分 组成,第一部分为“惯性(inertia)”或“动量(momentum)”部分,反映了粒子的运动“习惯(habit)”,代表粒子有维持自己 先 前 速 度 的 趋 势 ; 第 二 部 分 为“ 认 知(cognition)” 部 分 , 反 映 了 粒 子 对 自 身 历 史 经 验 的 记 忆(memory) 或 回 忆 (remembrance),代表粒子有向自身历史最佳位置逼近的趋势;第三部分为“社会(social)”部分,反映了粒子间协同合 作与知识共享的群体历史经验,代表粒子有向群体或邻域历史最佳位置逼近的趋势。 3 PSO的改进策略 由于PSO中粒子向自身历史最佳位置和邻域或群体历史最佳位置聚集,形成粒子种群的快速趋同效应,容易出 现陷入局部极值、早熟收敛或停滞现象[12-14]。同时,PSO的性能也依赖于算法参数[15]。为了克服上述不足,各国研 究人员相继提出了各种改进措施。本文将这些改进分为 4 类:粒子群初始化、邻域拓扑、参数选择和混合策略。 3.1 粒子群初始化 研究表明,粒子群初始化对算法性能产生一定影响[16]。为了初始种群尽可能均匀覆盖整个搜索空间,提高全局 搜索能力,Richard 和Ventura[17]提出了基于centroidal voronoi tessellations (CVTs)的种群初始化方法;薛明志等人[18] 采用正交设计方法对种群进行初始化;Campana 等人[19]将标准PSO迭代公式改写成线性动态系统,并基于此研究 粒子群的初始位置,使它们具有正交的运动轨迹;文献[16]认为均匀分布随机数进行初始化实现容易但尤其对高维 空间效果差,并另外比较了 3 种初始化分布方法。 3.2 邻域拓扑 根据粒子邻域是否为整个群体,PSO分为全局模型gbest和局部模型lbest[20]。对于gbest模型,每个粒子与整个群 体的其他粒子进行信息交换,并有向所有粒子中的历史最佳位置移动的趋势。Kennedy[21]指出,gbest模型虽然具有 较快的收敛速度,但更容易陷入局部极值。为了克服gbest全局模型的缺点,研究人员采用每个粒子仅在一定的邻域 内进行信息交换,提出各种lbest局部模型[21,22]。根据现有的研究成果,本文将邻域分为空间邻域(spatial neighborhood)、 性能空间(performance space)邻域和社会关系邻域(sociometric neighborhood)。空间邻域直接在搜索空间按粒子间的距 离(如欧式距离)进行划分,如Suganthan[23]引入一个时变的欧式空间邻域算子:在搜索初始阶段,将邻域定义为每个 粒子自身;随着迭代次数的增加,将邻域范围逐渐扩展到整个种群。性能空间指根据性能指标(如适应度、目标函数 值)划分的邻域,如文献[24]采用适应度距离比值(fitness-distance-ratio)来选择粒子的相邻粒子。社会关系邻域通常按 粒子存储阵列的索引编号进行划分[25],这也是研究最多的一种划分手段,主要有[21,22]:环形拓扑(ring or circle topology)、轮形拓扑(wheel topology)或星形拓扑(star topology)、塔形拓扑(pyramid topology)、冯-诺以曼拓扑(Von Neumann topology)以及随机拓扑(random topology)等。针对不同的优化问题,这些拓扑的性能表现各异;但总的来说, 随机拓扑往往对大多数问题能表现出较好的性能,其次是冯-诺以曼拓扑[22]。M. Clerc[26]对随机拓扑进行了进一步 分析,并在2006年版和2007年版的标准PSO[ ]27 中采用了随机拓扑。此外,文献[28]提出动态社会关系拓扑(Dynamic sociometry),初始阶段粒子采用环形拓扑(ring-type topology),随着迭代次数的增加,逐渐增加粒子间连接,最后形 成星形拓扑(star-type topology)。 此外,还有其它一些主要对群体进行划分的邻域结构(本文暂称“宏观邻域”;则上述邻域称为“微观邻域”)。文 献[29]引入了子种群,子种群间通过繁殖(Breeding)实现信息交流。Kennedy[30]提出了社会趋同(Stereotyping)模型,使 用簇分析将整个粒子群划分为多个簇,然后用簇中心代替带收缩因子PSO中的粒子历史最佳位置或群体历史最佳位 置。X. Li[31]根据粒子相似性动态地将粒子群体按种类划分为多个子种群,再以每个子种群的最佳个体作为每个粒子 的邻域最佳位置。Stefan Janson等人[32]提出等级PSO(hierarchical particle swarm optimizer, HPSO),采用动态等级树作 为邻域结构,历史最佳位置更优的粒子处于上层,每个粒子的速度由自身历史最佳位置和等级树中处于该粒子上一 个节点的粒子的历史最佳位置决定。文献[33]采用主-仆模型(master–slaver model),其中包含一个主群体,多个仆群 体,仆群体进行独立的搜索,主群体在仆群体提供的最佳位置基础上开展搜索。文献[34]将小生境(niche)技术引入到 PSO中,提出了小生境PSO(Niching Particle Swarm Optimizer)。文献[35]采用多群体进行解的搜索。文献[36]则每间隔 一定代数将整个群体随机地重新划分,提出动态多群体PSO。 在标准的PSO算法中,所有粒子仅仅向自身和邻域的历史最佳位置聚集,而没有向邻域内其他个体(即使这些个 体很优秀)学习,造成信息资源的浪费,甚至因此而陷入局部极值;考虑到此因素,Kennedy 等人[37]提出了全信息粒 子群(fully informed particle swarm, FIPS),在FIPS中,每个粒子除了自身和邻域最佳历史位置外,还学习邻域内其他 粒子的成功经验。 上述粒子间学习是在整个D-维空间中构造邻域进行的,这样当搜索空间维数较高时往往容易遭受“维数灾(curse
of dimensionality)”的困扰[38]。基于这方面的考虑,Van den Bergh等人[38]提出了协作PSO(Cooperative PSO)算法,其基 本思路就是采用协作行为,利用多个群体分别在目标搜索空间中的不同维度上进行搜索,也就是一个优化解由多个 独立群体协作完成,每个群体只负责优化这个解矢量部分维上的分量。Baskar和Suganthan[39]提出一种类似的协作 PSO,称为并发PSO(concurrent PSO, CONPSO),它采用两个群体并发地优化一个解矢量。近来,El-Abd 等人[40]结合 文献[38,39]的技术,提出了等级协作PSO(hierarchal cooperative PSO)。 无论是粒子群在D-维的搜索还是多个粒子群在不同维上的协作搜索,其目的都是为了每个粒子能够找到有利于 快速收敛到全局最优解的学习对象。J. Liang 等人[41]提出了一种既可以进行D-维空间搜索、又能在不同维上选择不 同学习对象的新的学习策略,称为全面学习PSO (Comprehensive Learning Particle Swarm Optimizer,CLPSO)。与传 统PSO只向自身历史最佳位置和邻域历史最佳位置学习不同,CLPSO的每个粒子都随机地向自身或其它粒子学习, 并且其每一维可以向不同的粒子学习;该学习策略使得每个粒子拥有更多的学习对象,可以在更大的潜在空间飞行, 从而有利于全局搜索。CLPSO的速度更新公式为: v t ( ) ij = • w v t ( ij r 1) − + • • ϕ ( p − x t ( ij − 1)) f i j ( ), j (3) 其中ϕ为加速因子, 为[0,1]内的均匀随机数, r if j 表示粒子i在第j维的学习对象,它通过下面的策略决定:产生 ( ) [0,1]内的均匀随机数,如果该随机数大于为粒子i预先给定的学习概率 ,则学习对象为自身历史最佳位置;否则, iPc 从种群内随机选取两个个体,按锦标赛选择(tournament selection)策略选出两者中最好的历史最佳位置作为学习对象。 同时,为了确保粒子尽可能向好的对象学习而不把时间浪费在较差的对象上,上述学习对象选择过程设定一个更新 间隔代数(refreshing gap),在此期间的学习对象保持上次选择的学习对象不变。 以上的各种邻域结构,无论是微观拓扑还是宏观邻域,也无论是在整个搜索空间进行信息交流还是以空间的不 同维分量为单位协作搜索,都不主动改变邻域状态,而只是在给定的邻域内进行学习交流,本文称之为PSO的被动 局部模型。还有一类局部模型就是主动改变粒子邻域空间,避免碰撞和拥挤[42],本文称之为PSO的主动局部模型。 Blackwell 等人[43]将粒子分为自然粒子和带电粒子,当带电粒子过于接近时产生斥力,使之分开以提高粒子多样性; Løvbjerg 等人[44]为每个粒子引入与相邻粒子距离成反比的自组织危险度(self-organized criticality)指标,距离越近则 危险度越高,当达到一定阈值后,对该粒子进行重新初始化或推开一定距离降低危险度,达到提高群体多样性的目 的;文献[45]提出一种带空间粒子扩展的PSO,为每个粒子赋一半径,以检测两个粒子是否会碰撞,并采取随机弹 离、实际物理弹离、简单的速度—直线弹离等措施将其分开。 3.3 参数选择 PSO的参数主要包括最大速度(the maximum velocity)、两个加速常数(acceleration constant)和惯性常数(inertia constant)或收缩因子(constriction factor)等。 a) 最大速度的选择:如式(1)所示的粒子速度是一个随机变量,由粒子位置更新公式(2)产生的运动轨迹是不可控 的,使得粒子在问题空间循环跳动[3, 6]。为了抑制这种无规律的跳动,速度往往被限制在 [ − v max , v max ] [20]。 内 maxv 增 大,有利于全局探索(global exploration); 减小,则有利于局部开发(local exploitation) maxv [3]。但是, 过高,粒子 maxv 运动轨迹可能失去规律性,甚至越过最优解所在区域,导致算法难以收敛而陷入停滞状态;相反, maxv 太小,粒子 运动步长太短,算法可能陷入局部极值 [46]。 的选择通常凭经验给定,并一般设定为问题空间的10-20% [3]。此外, maxv 文献[47]提出了 maxv 择方法。 的动态调节方法以改善算法性能;而文献[48]提出了自适应于群体最佳和最差适应度值的 maxv 选 b) 加速常数的选择:式(1)中的加速常数 和 分别用于控制粒子指向自身或邻域最佳位置的运动。文献[20, 49] 1c 2c 建议 ϕ= c 1 + c 2 ≤ ,并通常取 4.0 c 1 c= 2 = 2.0 。Ratnaweera 等人 [50]则提出自适应时变调整策略,即C1随着进化代数
从2.5线性递减至0.5,C2随着进化代数从0.5线性递增至2.5。与传统PSO取正数加速常数不同,Riget和Vesterstrøm[51]提 出一种增加种群多样性的粒子群算法,根据群体多样性指标调整加速常数的正负号,动态地改变“吸引”(Attractive) 和“扩散”(Repulsive)状态,以改善算法过早收敛问题。 c) 惯性权值或收缩因子的选择:当PSO的速度更新公式采用式(1)时,即使 maxv 和两个加速因子选择合适,粒子 仍然可能飞出问题空间,甚至趋于无穷大,发生群体“爆炸(explosion)”现象 (inertia constant)[53]和收缩因子(constriction factor)[52]。带惯性常数PSO的速度更新公式如下[53]: [52]。有两种方法控制这种现象:惯性常数 v t ij w v t 1 − = • ij + c r p ( ij 1 1 − x t ij ) + c r p ( lj 2 2 x − )t ij (4) w 其中 为惯性常数。文献[54]建议 随着更新代数的增加从0.9线性递减至0.4。近来,文献[55]通过采用随机近似理 论(stochastic approximation theory)分析PSO的动态行为,提出了一种随更新代数递减至0的 取值策略,以提高算法 的搜索能力。带收缩因子PSO由Clerc 和 Kennedy [52]提出,其最简单形式[20]的速度更新公式如下: w w v t ij = • v { t 1 χ − ij + c r p ( ij 1 1 − x t ij ) + c r p ( lj 2 2 − x )}t ij (5) 其中 χ = | 2 2 4 | ϕ ϕ ϕ − − − 2 , ϕ = c 1 + c 2 > ;通常取 4.1ϕ= ,从而 0.729 χ= 4.0 c , 1 c= 2 1.49445 = 。虽然惯性权值PSO和收 缩因子PSO对典型测试函数表现出各自的优势[56],但由于惯性常数方法通常采用惯性权值随更新代数增加而递减的 策略,算法后期由于惯性权值过小,会失去探索新区域的能力,而收缩因子方法则不存在此不足[52]。 d) 自适应PSO:主要是对PSO的参数进行自适应选择,如在惯性权值中引入随机成分[3, 57]、利用模糊逻辑调节 惯性权值[58,59]、采用一个独立的二级PSO优化一级PSO参数[60]、利用Q-学习调节参数[61]、采用自适应评论策略调 节参数[62]等。此外,Zhang等人[63]通过评价每个粒子的性能改善指标自适应调节惯性权值、粒子数以及粒子邻域大 小;Ratnaweera 等人[50]通过引入时变加速因子和时变惯性权因子,有效地增强了算法的局部搜索能力,同时引入自 组织等级概念,微粒只通过认知和社会部分来更新。值得一提的是,Clerc提出了一种PSO改进版本-TRIBES[64, 65], 它不需要用户给定任何参数,包括粒子数、粒子拓扑等均是根据算法性能自动确定。 3.4 混合策略 混合PSO就是将其它进化算法或传统优化算法或其它技术应用到PSO 中,用于提高粒子多样性、增强粒子的全局 探索能力,或者提高局部开发能力、增强收敛速度与精度。这种结合的途径通常有两种:一是利用其它优化技术自 适应调整收缩因子/惯性权值、加速常数等;二是将PSO与其它进化算法操作算子或其它技术结合。文献[66]将蚂蚁 算法与PSO结合用于求解离散优化问题;Robinson 等人[67]和Juang[68]将GA与PSO结合分别用于天线优化设计和递归 神经网络设计;文献[69]将种群动态划分成多个子种群,再对不同的子种群利用PSO或GA或爬山法进行独立进化; Naka等人[70]将GA中的选择操作引入到PSO中,按一定选择率复制较优个体;Angeline [71]则将锦标赛选择引入 PSO 算法,根据个体当前位置的适应度,将每一个个体与其它若干个个体相比较,然后依据比较结果对整个群体进行排 序,用粒子群中最好一半的当前位置和速度替换最差一半的位置和速度,同时保留每个个体所记忆的个体最好位置; El-Dib 等人[72]对粒子位置和速度进行交叉操作;Higashi [73]将高斯变异引入到PSO中;Miranda等人[74]则使用了变异、 选择和繁殖多种操作同时自适应确定速度更新公式中的邻域最佳位置以及惯性权值和加速常数;Zhang等人[75-77]利用 差分进化(DE)操作选择速度更新公式中的粒子最佳位置;而Kannan 等人[78]则利用DE来优化PSO的惯性权值和加速 常数。 此 外 , 其 它 一 些 搜 索 技 术 与PSO 结 合 以 提 高 算 法 的 局 部 搜 索 能 力 , 如 文 献 [79] 提 出 一 种 基 于 PSO 和 Levenberg-Marquardt的混合方法;文献[80]将PSO与单纯形法相结合;文献[81]将PSO与序贯二次规划相结合;文献[82] 将模拟退火与PSO结合;文献[83]将禁忌技术与PSO结合;文献[84]将爬山法与PSO结合;文献[85]将PSO与拟牛顿法 结合。 还有作者引入其它一些机制,以改进PSO的性能。文献[86]根据耗散结构的自组织性,提出一种耗散粒子群优化 算法(dissipative PSO)。该算法通过附加噪声持续为粒子群引入负熵(negative entropy),使得系统处于远离平衡态的状 态,又由于群体中存在内在的非线性相互作用,从而形成自组织耗散结构,使粒子群能够“持续进化”,抑制早熟停 滞。文献[87]将自然进化过程中的群体灭绝现象引入PSO,在微粒的位置和速度更新之后,按照一个预先定义的灭绝 间隔重新初始化所有微粒的速度。文献[88]通过模拟自然界的被动聚集(Passive Congregation)行为修改速度更新公式, 实现种群内信息充分共享,防止了微粒因缺乏足够的信息而判断失误所导致陷入局部极小。文献[89]将引力场模型引
入到PSO。此外,还有其它一些混合PSO: 高斯PSO:由于传统PSO往往是在全局和局部最佳位置的中间进行搜索,搜索能力和收敛性能严重依赖加速常数 和惯性权值的设置,为了克服该不足,Secrest等人[90]将高斯函数引入PSO算法中,用于引导粒子的运动;GPSO不再 需要惯性权值,而加速常数由服从高斯分布的随机数产生。 拉伸PSO(Stretching PSO, SPSO):SPSO将所谓的拉伸技术(stretching technique)[91]以及偏转(deflection)和排斥 (repulsion)技术应用到PSO中,对目标函数进行变换,限制粒子向已经发现的局部最小解运动,从而利于粒子有更多 的机会找到全局最优解[4, 92]。 混沌粒子群优化:混沌是自然界一种看似杂乱、其实暗含内在规律性的常见非线性现象,具有随机性、遍历性 和规律性特点。文献[93]利用混沌运动的遍历性以粒子群的历史最佳位置为基础产生混沌序列,并将此序列中的最优 位置随机替代粒子群中的某个粒子的位置,提出混沌PSO(chaos particle swarm optimization, CPSO)。除此之外,文献 [94]利用惯性权值自适应于目标函数值的自适应PSO进行全局搜索、利用混沌局部搜索对最佳位置进行局部搜索,提 出一种PSO与混沌搜索相结合的混沌PSO;文献[15]则利用混沌序列确定PSO的参数(惯性权值和加速常数);文献[95] 提出一种不含随机参数、基于确定性混沌Hopfield神经网络群的粒子群模型。 免疫粒子群优化:生物免疫系统是一个高度鲁棒性、分布性、自适应性并具有强大识别能力、学习和记忆能力 的非线性系统。文献[96]将免疫系统的免疫信息处理机制(抗体多样性、免疫记忆、免疫自我调节等)引入到PSO中, 分别提出了基于疫苗接种的免疫PSO和基于免疫记忆的免疫PSO。 量子粒子群优化:文献[97]采用量子个体提出离散PSO;文献[98]则基于量子行为更新粒子位置。 卡尔曼PSO:文献[99]利用Kalman滤波更新粒子位置。 主成分 PSO:文献[100]结合主成分分析技术,粒子不仅按照传统算法在 n 维的 x 空间飞行,而且还在 m 维的 z 空间同步飞行(m
更为重要的是,比较全面地列出了在国际主要期刊和会议上发表的论文目录以及很多PSO及其改进算法的源 代码,如基于MATLAB的PSO工具箱、2006 年版和 2007 年版的标准PSO(Standard PSO 2006/2007)、无须 人为设定参数的PSO-TRIBES等等。 6 结论与展望 粒子群优化(PSO)是一种新兴的基于群体智能的启发式全局随机搜索算法,具有易理解、易实现、全局搜索能力 强等特点,为各个领域的研究人员提供了一种有效的全局优化技术。本文对PSO的基本原理、改进形式与应用领域 等方面进行了全面综述。在科学与工程实践领域,关心PSO的读者的共同兴趣所在是PSO本身,即“PSO是什么”和“有 些什么样的改进形式”,而“用PSO怎样解决某个具体问题”则依赖于相应领域的专业知识;为了让尽可能多的国内读 者从中受益而不局限于具体的工业背景,综述内容侧重于对基本PSO原理、算法改进,特别是相关国际发展现状进 行分析,而PSO应用综述仅仅列出了典型理论问题和实际工业问题两个方面的一些主要应用对象。文中同时给出了 三个重要的获取PSO文献和源程序的网站。 总之,本文给出了 PSO 的基本原理,让初学者轻松入门;给出了国内外具有重要影响的各种改进形式,不仅 可以让初学者得到提高的机会,也让资深读者从中受到启发;给出了获取 PSO 文献和源程序的网址,让广大读者、 特别是初学者能“拿来就用”,事半功倍。 由于 PSO 毕竟是一种新兴的智能优化算法,在以下方面仍然值得进一步研究: (1) 理论研究:虽然目前对PSO稳定性和收敛性的证明已取得了一些初步成果[52, 126-129],但自诞生以来其数学 基础一直不完备,特别是收敛性一直没有得到彻底解决。因此,仍需要对PSO的收敛性等方面进行进一步 的理论研究。 (2) 控制参数自适应:虽然对PSO参数的改进策略等方面已取得了一定进展,但仍然有很大的研究空间;特别 是如何通过对参数自适应调节以实现“探索(exploration)”与“开发(exploitation)”之间的平衡[130]、以及“nearer is better” 假设与“nearer is worse”假设之间的智能转换[ ]131 ,是一个令人很感兴趣的课题。 (3) 信息共享机制:基于邻域拓扑的 PSO 局部模型大大提高了算法全局搜索能力,充分利用或改进现有拓扑结 构以及提出新的拓扑,进一步改善算法性能,是一个值得进一步研究的问题。同时,由于全局模型具有较 快的收敛速度、而局部模型具有较好的全局搜索能力,对信息共享机制做进一步研究,保证算法既具有较 快的收敛速度、又具有较好的全局搜索能力,也是一个很有意义的研究方向。 (4) 混合PSO:混合进化算法是进化算法领域的趋势之一[132],与其它进化算法或传统优化技术相结合,提出新 的混合PSO算法,甚至提出基于PSO的超启发式搜索算法(hyper-heuristics),使算法对不同种类的问题具有 尽可能好的普适性,并能“更好、更快、更廉(good enough – soon enough – cheap enough)”地得到问题的解[133], 也是一个很有价值的研究方向。 (5) 应用研究:算法的有效性和价值必须在实际应用中才能得到充分体现。广大科学与工程领域的研究人员, 在各自的专业背景下,利用 PSO 解决各种复杂系统的优化问题,进一步拓展其应用领域,是一项十分有意 义的工作。此外,由于 PSO 本质上是一种随机搜索算法,现场工程技术人员对它的可靠性仍难免心存疑虑, 将 PSO(或与工业系统在役技术结合)进行实用化推广,仍是一项任重而道远的任务。 参考文献: [1] Kennedy J, Eberhart R. Particle swarm optimization [A]. in: Proceedings of the 4th IEEE International Conference on Neural Networks [C],Piscataway: IEEE Service Center, 1995, pp.1942 -1948. [2] Simon Garnier, Jacques Gautrais, Guy Theraulaz. The biological principles of swarm intelligence [J]. Swarm Intelligence, no.1, pp.3-31, 2007. [3] R. Eberhart and Y. Shi. Particle swarm optimization: Developments, applications and resources [A]. in Proc. IEEE Congr. Evol. Comput. [C], vol.1, pp.81-86, May 2001. [4] K. Parsopoulos and M. Vrahatis, Recent approaches to global optimization problems through particle swarm optimization [J]. Natural Computing, vol.1, pp.235-306, May 2002. [5] 谢晓锋,张文俊,杨之廉. 微粒群算法综述[J]. 控制与决策, 2003,18(2): 129-134. [6] X. Hu, Y. Shi, and R. Eberhart. Recent advances in particle swarm [A]. in Proc. IEEE Congr. Evol. Comput.[C], vol.1, pp.90-97, Jun. 2004. [7] Alec Banks, Jonathan Vincent, Chukwudi Anyakoha. A review of particle swarm optimization. Part I: background and development [J]. Natural Computing, no.6, pp.467-484, 2007. Part II: hybridization, combinatorial, multicriteria and constrained optimization, and
indicative applications [J]. Natural Computing, no.7, pp.1-16, 2007. [8] 王万良,唐宇. 微粒群算法的研究现状与展望 [J]. 浙江工业大学学报, 2007, 35(2): 136-141. [9] Riccardo Poli, James Kennedy and Tim Blackwell. Particle swarm optimization: An overview [J]. Swarm Intelligence, vol.1, no.1, pp.33-57, 2007. [10] Jelmer van Ast, Robert Babuška and Bart De Schutter. Particle swarms in optimization and control [A]. in Proceedings of the 17th World Congress The International Federation of Automatic Control [C]. Seoul, Korea, pp.5131-5136, July 6-11, 2008. [11] J. Kennedy, The particle swarm: Social adaptation of knowledge [A]. in Proc. IEEE Int. Conf. Evol. Comput. [C], Apr. 1997, pp. 303–308. [12] W. B. Langdon and Riccardo Poli. Evolving problems to learn about particle swarm and other optimizers [A], in Proc. CEC-2005 [C], vol.1, pp.81-88, 2005. [13] M. Clerc. Stagnation analysis in particle swarm optimization or what happens when nothing happens. Online at http://clerc.maurice.free.fr/pso/. [14] S. H. Ling, H. H. C. Iu, F. H. F. Leung, et al. Improved hybrid particle swarm optimized wavelet neural network for modeling the development of fluid dispensing for electronic packaging [J]. IEEE Trans. Ind. Electron., ol.55, no.9, pp.3447-3460, 2008. [15] L. dos Santos Coelho, B.M. Herrera. Fuzzy identification based on a chaotic particle swarm optimization approach applied to a nonlinear yo-yo motion system [J]. IEEE Trans. Ind. Electron., vol.54, no.6, pp.3234-3245, 2007. [16] Maurice Clerc. Initialisations for particle swarm optimization. Online at http://clerc.maurice.free.fr/pso/, 2008. [17] M. Richards and D. Ventura. Choosing a starting configuration for particle swarm optimization [A]. in Proc. IEEE Int. Joint. Conf. Neural Netw. [C], Jul. 2004, vol. 3, pp. 2309–2312. [18] 薛明志,左秀会,钟伟才 等. 正交微粒群算法 [J]. 系统仿真学报, 2005, 17(12): 2908-2911. [19] E. F. Campana, G. Fasano, and A. Pinto. Dynamic system analysis and initial particles position in particle swarm optimization [A]. in Proc.IEEE Swarm Intell. Symp. [C], May 2006, pp. 202–209. [20] R. Eberhart, Y. Shi, and J. Kennedy, Swarm Intelligence [M]. San Mateo, CA: Morgan Kaufmann, 2001. [21] J. Kennedy. Small worlds and mega-minds: Effects of neighborhood topology on particle swarm performance [A]. in Proc. IEEE Congr. Evol. Comput. [C], Jul. 1999, vol. 3, pp. 1931–1938. [22] J. Kennedy and R. Mendes. Population structure and particle swarm performance [A]. in Proc. IEEE Congr. Evol. Comput. [C], May 2002, vol. 2, pp. 1671–1676. [23] Suganthan, P.N. Particle swarm optimiser with neighbourhood operator [A]. in Proceedings of the IEEE Congress on Evolutionary Computation (CEC) [C], Piscataway, NJ, 1999, 1958-1962 [24] K. Veeramachaneni, T. Peram, C. Mohan, and L. A. Osadciw, Optimization using particle swarms with near neighbor interactions [A]. in Proc. Genetic and Evolutionary Computation (GECCO 2003) [C], vol. 2723, 2003, pp. 110–121. [25] A. Abraham, H. Guo, and H. Liu. Swarm intelligence: foundations, perspectives and applications [A]. Swarm Intelligent Systems, Studies in Computational Intelligence [C], N. Nedjah, L. Mourelle (eds.), Springer Verlag, pp.3-25, 2006. [26] M. Clerc. Back to random topology. Online at http://clerc.maurice.free.fr/pso/, 2007. [27] Standard PSO 2006/2007 (SPSO-06/SPSO-07) on the Particle Swarm Central, Programs section: http://www.particleswarm.info. [28] Mark Richards and Dan Ventura, Dynamic sociometry in particle swarm optimization [A]. International Conference on Computational Intelligence and Natural Computing [C], pp. 1557-1560, September 2003. [29] Løvbjerg M,Rasmussen T K,Krink T.Hybrid Particle Swarm Optimizer with Breeding and Subpopulations [A].In:Proc. of the 3rd Genetic and Evolutionary Computation Conference [C].San Francisco,USA: Morgan Kaufmann,2001, pp.273-280. [30] J. Kennedy, Stereotyping: Improving particle swarm performance with cluster analysis [A]. in Proc. 2000 Congr. Evolutionary Computing [C], 2000, pp. 1507–1512. [31] X. Li. Adaptively choosing neighborhood bests using species in a particle swarm optimizer for multimodal function optimization [A]. in Proc.Genetic Evol. Comput. Conf. [C], Jun. 2004, pp. 105–116. [32] Stefan Janson and Martin Middendorf. A hierarchical particle swarm optimizer and its adaptive variant [J]. IEEE Transactions on Systems, Man, and Cybernetics-Part B: Cybernetics, 2005, vol.35, no.6, pp. 1272-1282. [33] Ben Niu, Yunlong Zhu, Xiaoxian He et al. A multi-swarm optimizer based fuzzy modeling approach for dynamic systems processing [J]. Neurocomputing, 2007, pp. 1-13. [34] R.Brits, A.P. Engelbrecht, F. van den Bergh. A Niching Particle Swarm Optimizer [A]. in Proceedings of the 4th Asia-Pacific Conference on Simulated Evolution and Learning [C], Singapore: Orchid Country Club, pp.692-696, 2002.
[35] T. M. Blackwell and J. Branke, Multi-swarm optimization in dynamic environments [A]. LNCS No. 3005: Proceedings of Applications of Evolutionary Computing: EvoWorkshops [C], Coimbra, Portugal. pp. 489-500, 2004. [36] J. J. Liang and P. N. Suganthan. Dynamic Multi-Swarm Particle Swarm Optimizer [A]. IEEE International Swarm Intelligence Symposium [C], 2005, pp.124-129. [37] J. Kennedy and R. Mendes. Neighborhood topologies in fully-informed and best-of-neighborhood particle swarms [A]. in Proc. IEEE Int. Workshop Soft Computing in Industrial Applications [C], Jun. 2003, pp.45–50. [38] F. Bergh and A. Engelbrecht, A cooperative approach to particle swarm optimization [J]. IEEE Trans. Evol. Comput., vol. 8, no. 3, pp.225–239, Jun. 2004. [39] S. Baskar and P. N. Suganthan. A novel concurrent particle swarm optimization [A], in Proc. IEEE Congr. Evol. Comput. [C], Jun. 2004, vol. 1, pp. 792–796. [40] M. El-Abd and M. S. Kamel, A hierarchal cooperative particle swarm optimizer [A]. in Proc. IEEE Swarm Intell. Symp. [C], May 2006, pp. 43–47. [41] J. J. Liang, A.K. Qin, Ponnuthurai Nagaratnam Suganthan, et al. Comprehensive learning particle swarm optimizer for global optimization of multimodal functions [J]. IEEE Transaction on Evolutionary Computation, 2006, 10(3): 67-82. [42] T.M.Blackwell, P. J. Bentley. Don’t push me! Collision-avoiding swarms [A]. in Proc. IEEE Congr. Evol. Comput. [C], May 2002, vol. 2, pp.1691–1696. [43] T. M. Blackwell and P. J. Bentley, Dynamic search with charged swarms [A]. in Proc. Genetic Evol. Comput. Conf. [C], W. B. Langdon et al., Eds., 2002, pp. 19–26. [44] M. Løvbjerg and T. Krink. Extending particle swarms with self-organized criticality [A]. in Proc. IEEE Congr. Evol. Comput. [C],May 2002, vol.2, pp. 1588–1593. [45] Thiemo Krink, Jakob S. Vesterstrøm, Jacques Riget. Particle swarm optimization with spatial particle extension [A]. in: Proceedings of the 2002 Congress on Evolutionary Computation [C], 2002, vol.2,pp.1474-1479. [46] Y. del Valle, G. Venayagamoorthy, S. Mohagheghi, et al. Particle Swarm Optimization: Basic Concepts, Variants and Applications in Power Systems [J]. IEEE Transactions on Evolutionary Computation, vol.12, no.2, pp.171-195, 2008. [47] H. Fan and Y. Shi, Study on Vmax of particle swarm optimization [A]. in Proc. Workshop on Particle Swarm Optimization, Purdue School of Engineering and Technology [C], Indianapolis, IN, Apr. 2001. [48] A. Abido, Optimal power flow using particle swarm optimization [J]. Int. J. Elect. Power Energy Syst., vol. 24, no. 7, pp. 563–571, Oct. 2002. [49] E. Ozcan and C. Mohan, Particle swarm optimization: Surfing the waves [A]. in Proc. IEEE Congress Evol. Comput. [C], Jul. 1999, vol. 3, pp.1939–1944. [50] Ratnaweera A, Halgamuge SK, and Watson HC. Self-Organizing Hierarchical Particle Swarm Optimizer with Time-Varying Acceleration Coefficients [J]. IEEE Transactions on Evolutionary Computation, 8(3), 240–255, 2004. [51] Jacques Riget and Jakob S. Vesterstrøm. A diversity-guided particle swarm optimizer-the ARPSO. EVALife Technical Report, no. 2002-02. [52] M. Clerc and J. Kennedy. The particle swarm - explosion, stability, and convergence in a multidimensional complex space [J]. IEEE Transactions on Evolutionary Computation, 6(1):58–73, February 2002. [53] Y. Shi and R. Eberhart, A modified particle swarm optimizer [A]. in Proc. IEEE World Congr. Comput. Intell. [C], May 1998, pp. 69–73. [54] Y. Shi and R. Eberhart, Empirical study of particle swarm optimization [A]. in Proc. IEEE Congr. Evol. Comput. [C], Jul. 1999, vol. 3, pp.1945–1950. [55] X. Chen and Y. Li, An improved stochastic PSO with high exploration ability [A]. in Proc. IEEE Swarm Intell. Symp. [C], May 2006, pp.228–235. [56] R. Eberhart and Y. Shi, Comparing inertia weights and constriction factors in particle swarm optimization [A]. in Proc. IEEE Congress Evol. Comput. [C], Jul. 2000, vol. 1, pp. 84–88. [57] S. Mohagheghi, Y. Del Valle, G. Venayagamoorthy, and R. Harley, A comparison of PSO and backpropagation for training RBF neural networks for identification of a power system with STATCOM [A]. in Proc. IEEE Swarm Intell. Symp. [C], Jun. 2005, pp. 381–384. [58] Y. Shi and R. Eberhart, Fuzzy adaptive particle swarm optimization [A]. in Proc. IEEE Congr. Evol. Comput. [C], May 2001, vol. 1, pp. 101–106. [59] Y. Shi and R. Eberhart, Particle swarm optimization with fuzzy adaptive inertia weight [A]. in Proc. Workshop on Particle Swarm
分享到:
收藏