✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。
🍎 往期回顾关注个人主页:Matlab科研工作室
👇 关注我领取海量matlab电子书和数学建模资料
🍊个人信条:格物致知,完整Matlab代码获取及仿真咨询内容私信。
🔥 内容介绍
摘要:本文聚焦于2020年IEEE Transactions on Cybernetics(SCI一区TOP期刊)中提出的灵活交叉变异灰狼算法GWO_CM,通过文献检索、筛选与评估,深入剖析该算法的研究重点、方法及成果。综合分析发现,GWO_CM通过引入交叉和变异策略,有效提升了传统灰狼优化算法(GWO)的探索与开发能力,在解决复杂优化问题中展现出显著优势。
关键词:灵活交叉变异灰狼算法;GWO_CM;优化算法;探索与开发
一、引言
灰狼优化算法(Grey Wolf Optimizer, GWO)作为一种模拟灰狼社会等级与狩猎行为的群体智能优化算法,自2014年由Seyedali Mirjalili等人提出以来,凭借其结构简洁、参数少、全局搜索能力强等优势,在工程优化、机器学习、资源调度等多个领域得到广泛应用。然而,传统GWO算法在面对复杂优化问题时,存在易早熟收敛、收敛精度不高、收敛速度不够快等局限性。为克服这些问题,2020年IEEE Transactions on Cybernetics发表的研究提出了灵活交叉变异灰狼算法GWO_CM,通过引入交叉和变异策略,增强了算法的灵活性和适应性,有效提升了算法性能。
二、研究重点
2.1 传统GWO算法的局限性分析
传统GWO算法在优化过程中,种群依赖于三个主导狼(α、β、δ)的信息更新其余种群成员,这种搜索模式限制了搜索空间的探索。当三位领导者彼此接近或同时陷入局部最优时,种群多样性迅速丧失,导致算法过早收敛,难以找到全局最优解。此外,GWO算法在每次迭代中需等待所有搜索代理重新定位并评估后才更新领导者,削弱了在有潜力区域周围的开发搜索,导致收敛速度缓慢。
2.2 GWO_CM算法的创新点
GWO_CM算法针对传统GWO算法的局限性,提出了以下创新点:
引入交叉和变异策略:通过遗传算法中的交叉算子实现个体间的信息交换,提高种群多样性;通过变异算子引入随机变化,拓展个体解的范围,帮助算法探索更广泛的解空间,避免过早收敛。
动态调整领导者数量:在算法迭代过程中,动态调整狼领导者的数量。初始阶段设置较多的领导者数量,以确保每个搜索代理获得多样化的引导,提升种群多样性;随着迭代推进,逐渐淘汰适应值较低的领导者,保留适应值较高的领导者,使算法逐渐专注于开发搜索。
三、研究方法
3.1 算法设计与实现
GWO_CM算法在传统GWO算法的基础上,引入交叉和变异操作。具体实现步骤如下:
初始化种群:设定算法参数,包括灰狼数量、最大迭代次数、搜索空间上下界、问题维度等,随机生成初始种群。
适应度评估:计算每只灰狼的目标函数值(适应度),评估候选解的优劣。
更新领导者:根据适应度排序,筛选出当前最优(α)、次优(β)、第三优(δ)灰狼,记录其位置与适应度值。
参数更新:根据当前迭代次数,非线性更新收敛控制参数a,并同步计算A、C向量。
交叉操作:对种群中的个体进行交叉操作,通过随机选择交叉点和交叉概率,实现个体间的信息交换。
变异操作:对交叉后的个体进行变异操作,通过随机选择变异位点和变异概率,引入随机变化,拓展个体解的范围。
位置更新:基于α、β、δ狼的位置及更新后的参数,更新所有灰狼的位置,并进行边界检查,确保个体位置在预设搜索空间内。
迭代终止判断:重复步骤2 - 7,直至达到最大迭代次数,停止迭代。
结果输出:输出α狼的位置与适应度值,作为问题的最优解。
⛳️ 运行结果
📣 部分代码
%___________________________________________________________________%
% Grey Wold Optimizer (GWO) source codes version 1.0 %
% %
% Developed in MATLAB R2011b(7.13) %
% %
% Author and programmer: Seyedali Mirjalili %
% %
% e-Mail: ali.mirjalili@gmail.com %
% seyedali.mirjalili@griffithuni.edu.au %
% %
% Homepage: http://www.alimirjalili.com %
% %
% Main paper: S. Mirjalili, S. M. Mirjalili, A. Lewis %
% Grey Wolf Optimizer, Advances in Engineering %
% Software , in press, %
% DOI: 10.1016/j.advengsoft.2013.12.007 %
% %
%___________________________________________________________________%
% Grey Wolf Optimizer
function [Alpha_score,Alpha_pos,Convergence_curve]=GWO(SearchAgents_no,Max_iter,lb,ub,dim,fobj)
% initialize alpha, beta, and delta_pos
Alpha_pos=zeros(1,dim);
Alpha_score=inf; %change this to -inf for maximization problems
Beta_pos=zeros(1,dim);
Beta_score=inf; %change this to -inf for maximization problems
Delta_pos=zeros(1,dim);
Delta_score=inf; %change this to -inf for maximization problems
%Initialize the positions of search agents
Positions=initialization(SearchAgents_no,dim,ub,lb);
Convergence_curve=zeros(1,Max_iter);
l=0;% Loop counter
% Main loop
while l<Max_iter
for i=1:size(Positions,1)
% Return back the search agents that go beyond the boundaries of the search space
Flag4ub=Positions(i,:)>ub;
Flag4lb=Positions(i,:)<lb;
Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+ub.*Flag4ub+lb.*Flag4lb;
% Calculate objective function for each search agent
fitness=fobj(Positions(i,:));
% Update Alpha, Beta, and Delta
if fitness<Alpha_score
Alpha_score=fitness; % Update alpha
Alpha_pos=Positions(i,:);
end
if fitness>Alpha_score && fitness<Beta_score
Beta_score=fitness; % Update beta
Beta_pos=Positions(i,:);
end
if fitness>Alpha_score && fitness>Beta_score && fitness<Delta_score
Delta_score=fitness; % Update delta
Delta_pos=Positions(i,:);
end
end
% a decreases linearly fron 2 to 0
a=sin(((l*pi)/Max_iter)+pi/2)+1;
% Update the Position of search agents including omegas
for i=1:size(Positions,1)
for j=1:size(Positions,2)
r1=rand(); % r1 is a random number in [0,1]
r2=rand(); % r2 is a random number in [0,1]
A1=2*a*r1-a; % Equation (3.3)
C1=2*r2; % Equation (3.4)
D_alpha=abs(C1*Alpha_pos(j)-Positions(i,j)); % Equation (3.5)-part 1
X1=Alpha_pos(j)-A1*D_alpha; % Equation (3.6)-part 1
r1=rand();
r2=rand();
A2=2*a*r1-a; % Equation (3.3)
C2=2*r2; % Equation (3.4)
D_beta=abs(C2*Beta_pos(j)-Positions(i,j)); % Equation (3.5)-part 2
X2=Beta_pos(j)-A2*D_beta; % Equation (3.6)-part 2
r1=rand();
r2=rand();
A3=2*a*r1-a; % Equation (3.3)
C3=2*r2; % Equation (3.4)
D_delta=abs(C3*Delta_pos(j)-Positions(i,j)); % Equation (3.5)-part 3
X3=Delta_pos(j)-A3*D_delta; % Equation (3.5)-part 3
Positions(i,j)=(X1+X2+X3)/3;% Equation (3.7)
end
end
l=l+1;
Convergence_curve(l)=Alpha_score;
end
🔗 参考文献
Wang H, Zhang J, Fan J, et al. An Improved Grey Wolf Optimizer with Flexible Crossover and Mutation for Cluster Task Scheduling[J]. Information Sciences, 2025: 121943.(SCI2区)
🎈 部分理论引用网络文献,若有侵权联系博主删除
🏆团队擅长辅导定制多种毕业课题和科研领域
MATLAB仿真,助力毕业科研梦:
🌈 各类智能优化算法改进及应用
生产调度、经济调度、装配线调度、充电优化、车间调度、发车优化、水库调度、三维装箱、物流选址、货位优化、公交排班优化、充电桩布局优化、车间布局优化、集装箱船配载优化、水泵组合优化、解医疗资源分配优化、设施布局优化、可视域基站和无人机选址优化、背包问题、 风电场布局、时隙分配优化、 最佳分布式发电单元分配、多阶段管道维修、 工厂-中心-需求点三级选址问题、 应急生活物质配送中心选址、 基站选址、 道路灯柱布置、 枢纽节点部署、 输电线路台风监测装置、 集装箱调度、 机组优化、 投资优化组合、云服务器组合优化、 天线线性阵列分布优化、CVRP问题、VRPPD问题、多中心VRP问题、多层网络的VRP问题、多中心多车型的VRP问题、 动态VRP问题、双层车辆路径规划(2E-VRP)、充电车辆路径规划(EVRP)、油电混合车辆路径规划、混合流水车间问题、 订单拆分调度问题、 公交车的调度排班优化问题、航班摆渡车辆调度问题、选址路径规划问题、港口调度、港口岸桥调度、停机位分配、机场航班调度、泄漏源定位
🌈 机器学习和深度学习时序、回归、分类、聚类和降维
2.1 bp时序、回归预测和分类
2.2 ENS声神经网络时序、回归预测和分类
2.3 SVM/CNN-SVM/LSSVM/RVM支持向量机系列时序、回归预测和分类
2.4 CNN|TCN|GCN卷积神经网络系列时序、回归预测和分类
2.5 ELM/KELM/RELM/DELM极限学习机系列时序、回归预测和分类
2.6 GRU/Bi-GRU/CNN-GRU/CNN-BiGRU门控神经网络时序、回归预测和分类
2.7 ELMAN递归神经网络时序、回归\预测和分类
2.8 LSTM/BiLSTM/CNN-LSTM/CNN-BiLSTM/长短记忆神经网络系列时序、回归预测和分类
2.9 RBF径向基神经网络时序、回归预测和分类