实现 函数 F01、F06 的优化测试
以下内容是现有算法的运行结果、调参分析、及代码实现,用于给其他人提供参考,懒得改了hh
1. 运行结果
-
参数
w = 0.5 (可更改)
c1 = 2.0 (可更改)
c2 = 2.0 (可更改)
swarmSize = 30 (可更改)
v_max = 5 (可更改)
v_min = -5 (可更改)
dimension = 2
iterations = 1000 (可更改) -
输出(因为粒子群算法有一定随机性,所以给出三组输出样例)
-
第一组
-
控制台
-
收敛图像
-
-
第二组
-
第三组
-
-
小结:根据上述输出我们知道,在上述参数的配置下,函数收敛情况不错,并且最终也得到了相当高精度的结果,即解向量特别趋近于 [0,0] 了
2. 调参分析
- 为什么要调参?粒子群算法的核心是个体位置和速度的更新,而个体位置和速度的更新取决于其自身因素(自身速度),社会因素(粒子群最佳位置),认知因素(历史最佳位置)决定,因此每一个因素的变化都会导致算法收敛程度的改变
- 调参——自身因素,因为自身因素包括惯性权重和原本速度两个方面,因此我们可以对惯性权重和速度范围进行调整,并观察结果
-
在其他参数不变的情况下,w = 0.9,我们发现函数收敛情况变得不好了
-
w = 0.1,我们发现,函数收敛情况变好了
-
小结:惯性权重减少,使得粒子探索空间的能力减弱,但是收敛的精度大大提高。因为这里测试的两个函数是单峰函数,因此不需要考虑因为w过小导致粒子群陷入局部优化的问题,因此可以推导,对于单峰函数的优化,w 取小一点效果会更好。另外,更改 v_min\v_max 一定程度上也是更改粒子群的搜索空间的广度,与更改 w 具有类似的作用,故而不进行调参测试
-
- 调参——社会因素&认知因素
- 在其他参数不变的情况下,c1 = 1.0,c2=3.0,即社会因素更强,相比于初始情况,没有过大变化
- c1 = 3.5, c2 = 0.5,显然,F06 收敛效果变好,即当粒子的运动更多关注自身历史最佳位置时,其搜索效果可能会改变
- 在其他参数不变的情况下,c1 = 1.0,c2=3.0,即社会因素更强,相比于初始情况,没有过大变化
3. 代码实现
import random
import math
from matplotlib import pyplot as pltw = 0.5 # 惯性权重,①取值大有利于全局搜索,不利于局部搜索,②取值小有利于局部搜索,不利于全局搜索,容易陷入“局部最优”
c1 = 2.0 # “认知部分” 的加速因子
c2 = 2.0 # “社会部分” 的加速因子
swarmSize = 30 # 粒子规模
v_max = 5 # 粒子最大速度
v_min = -5 # 粒子的最小速度dimension = 2 # 搜索空间的维度,也是位置向量和速度向量的维度,也是粒子的维度
iterations = 100 # 收敛次数/迭代次数class Particle:""" 粒子群中粒子的定义 """def __init__(self, domain):""" 粒子初始化 """self.velocity = [] # 速度向量self.pos = [] # 位置向量self.pBest = [] # 最佳位置self.domain = domain # 二维向量,表示粒子位置向量每个维度变量的取值范围(这里规定粒子每个维度的变量的取值范围相同)for i in range(dimension):self.pos.append((domain[1] - domain[0]) *random.random() + domain[0]) # 初始化粒子的位置向量,随机数范围在 [下限,上限)self.velocity.append(0.01 * random.random() +v_min) # 初始化粒子的速度向量,随机数范围在 [v_min,v_max)self.pBest.append(self.pos[i]) # 初始化粒子的历史最佳位置向量,初始时刻即当前位置returndef updateVelocity(self, gBest):""" 更新速度向量 """''' gBest 表示当前粒子群的最优位置,需要作参数传入 '''for i in range(dimension):r1 = random.random()r2 = random.random()cognitive = c1 * r1 * (self.pBest[i] - self.pos[i]) # 认知部分的分量social = c2 * r2 * (gBest[i] - self.pos[i]) # 社会部分的分量self.velocity[i] = w * self.velocity[i] + \cognitive + social # 更新速度向量returndef updatePosition(self):""" 更新位置向量 """for i in range(dimension):self.pos[i] = self.pos[i] + self.velocity[i]returndef satisfyConstraints(self):""" 让当前粒子的位置向量和速度向量满足限制条件 """for i in range(dimension):x = self.pos[i] # 满足位置向量的限制条件,即应该在其取值范围之间if x > self.domain[1]:self.pos[i] = self.domain[1]elif x < self.domain[0]:self.pos[i] = self.domain[0]v = self.velocity[i] # 更新速度向量的限制条件,即应该在 [v_min, v_max] 范围内if v > v_max:self.velocity[i] = v_maxelif v < v_min:self.velocity[i] = v_minreturnclass ParticleSwarmOptimizer:""" POS 优化器的定义 """def __init__(self, optimizeFun):""" 优化器的初始化:即初始化一个粒子种群 """self.swarm = [] # 粒子群self.gBest = [] # 粒子群的最佳位置self.visual_y = [] # 作图纵坐标,用于记录每次迭代粒子群最佳位置的函数值self.visual_x = [] # 作图横坐标,用于记录迭代次数self.optimizeFun = optimizeFun # 函数类的实例对象for i in range(swarmSize):particle = Particle(self.optimizeFun.domain)self.swarm.append(particle) # 初始化一个粒子种群self.gBest = self.swarm[0].pBest # 获取粒子群初始状态的最佳位置for i in range(swarmSize):pBest = self.swarm[i].pBestif self.f(pBest) > self.f(self.gBest): # 在我们看来,适应度self.gBest = pBestreturndef optimize(self):""" 优化函数 """for i in range(iterations):''' STEP 1 更新每个粒子的速度向量、位置向量 '''for k in range(swarmSize):self.swarm[k].updateVelocity(self.gBest)self.swarm[k].updatePosition()self.swarm[k].satisfyConstraints()''' STEP 2 更新每个粒子的历史最佳位置 '''for l in range(swarmSize):if self.f(self.swarm[l].pos) > self.f(self.swarm[l].pBest):self.swarm[l].pBest = self.swarm[l].pos''' STEP 3 找到全局最佳值 '''for j in range(swarmSize):pBest = self.swarm[j].pBestif self.f(pBest) > self.f(self.gBest): # 将每个粒子的最佳位置和粒子群最佳位置比较,从而获得最好的位置self.gBest = pBestself.visual_x.append(i)self.visual_y.append(self.optimizeFun.fun(self.gBest[0], self.gBest[1]))return self.gBestdef f(self, solution):""" 计算 solution 的函数值,因为我们用于查找最小值,所以函数值取负值就是适应值 """return -self.optimizeFun.fun(solution[0], solution[1])def visualize(self):plt.title("Function Convergent Image") # 图片标题plt.xlabel("iterations") # x 轴变量名称plt.ylabel("Value Of Function") # y 轴变量名称plt.plot(self.visual_x, self.visual_y, label=self.optimizeFun.funName) # 逐点画图plt.legend() # 画出曲线图标plt.show() # 画出图像class OptimizeFunctions:""" 函数类,其中存储了待优化的函数及其变量的取值范围(我们假定函数自变量每个维度的取值范围相同) """def __init__(self, key):""" 根据传入的 key 初始化 domain 和 fun """if key == 1:self.domain = self.__domain_01 # 存储变量的取值范围self.fun = self.__f01 # 存储用于优化的函数self.funName = r"$f(x)=\Sigma_{i=1}^nx_i^2$" # 特定格式的函数表达式字符串elif key == 6:self.domain = self.__domain_06self.fun = self.__f06self.funName = r"$f(x)=20[1-e^{-0.2\sqrt{\frac{1}{2}\Sigma_{i=1}^2x_i^2}}]+e-e^{\frac{1}{2}\Sigma_{i=1}^2cos2\pi x_i}$"__domain_01 = [-100, 100]__domain_06 = [-32, 32]def __f01(self, x1, x2):return x1 * x1 + x2 * x2def __f06(self, x1, x2):return 20 * (1 - math.exp(-0.2 * math.sqrt(0.5 * (x1 * x1 + x2 * x2)))) + math.exp(1) - math.exp(0.5 * (math.cos(2 * math.pi * x1) + math.cos(2 * math.pi * x2)))def main():optimizeFun = OptimizeFunctions(1)optimizer = ParticleSwarmOptimizer(optimizeFun)x = optimizer.optimize()optimizer.visualize()print("函数 01 优化得到最小值位置为", x)optimizeFun = OptimizeFunctions(6)optimizer = ParticleSwarmOptimizer(optimizeFun)x = optimizer.optimize()optimizer.visualize()print("函数 06 优化得到最小值位置为", x)if __name__ == '__main__':main()