Optimizing GBDT's Strip Coiling Temperature Prediction with the Evolutionary Algorithm
-
摘要: 针对B钢厂2 250 mm热轧生产线层流冷却系统卷取温度预报命中率低的问题,采用差分进化算法优化后的梯度提升决策树建立带钢卷取温度预测模型(DE-GBDT),并对DE-GBDT预测模型与3个基础预测模型(梯度提升决策树(GBDT)、支持向量机(SVM)、小波神经网络(WNN)预测模型)以及差分进化算法优化后的支持向量机(DE-SVM)、小波神经网络(DE-WNN)进行对比。实验结果显示DE-GBDT预测模型能为提高带钢卷取温度控制精度提供有力支持:(1)与DE-SVM、DE-WNN预测模型相比,DE-GBDT预测模型的各项误差指标均最小,其中均方误差为18.232。(2)DE-GBDT预测模型的各项误差指标明显小于3个基础预测模型,其中,与GBDT预测模型相比,DE-GBDT预测模型的预测命中率提高了2.9%,均方误差降低了40.294,说明差分进化算法能明显提升模型性能。Abstract: Considering the low hit rate of the coiling temperature prediction of the laminar cooling system of the 2 250 mm hot rolling production line in Steelworks B, the gradient boosting decision tree optimized with the diffe-rential evolution algorithm (DE-GBDT) is used to establish the strip coiling temperature prediction model. Five regression prediction models, including Support Vector Machine (DE-SVM) and Wavelet Neural Network (DE-WNN) optimized with the differential evolution algorithm and the three basic prediction models (Gradient Boosting Decision Tree (GBDT), Support Vector Machine (SVM) and Wavelet Neural Network (WNN)), are added to the experiment for comparison. The experimental results show that DE-GBDT prediction model can provide strong su-pport for improving the precision of strip coiling temperature control: (1)compared with DE-SVM and DE-WNN, the DE-GBDT prediction model has the smallest error indicators and the mean square error is 18.232; (2)compared with the three basic prediction models, the error indicators of the DE-GBDT prediction model are significantly smaller than those of the three basic prediction models; compared with the GBDT prediction model, the hit rate of the DE-GBDT prediction model has increased by 2.9% and the mean square error has been reduced by 40.294, indicating that the differential evolution algorithm can significantly improve the model performance.
-
Keywords:
- laminar cooling /
- coiling temperature prediction /
- differential evolution algorithm /
- GBDT /
- SVM /
- WNN
-
热轧后带钢的冷却控制是热轧生产的重要环节,层流冷却过程温度和卷取温度的控制精度将直接影响带钢的组织性能和力学性能,同时也是带钢能否顺利卷取、安全下线的决定因素[1-2]。热轧带钢卷取温度预报是带钢质量控制的重要基础,准确的温度预报模型为卷取温度的前馈补偿控制提供可靠的参考数据,对提高卷取温度的控制精度具有重要意义[3]。
目前的层流冷却控制系统主要通过经典数学模型对卷取温度进行预测,但是冷却过程是一个非常复杂的时变非线性过程,在目标卷取温度允许公差范围内,机理预测模型的命中率往往并不理想。随着人工智能技术的发展,有学者将BP神经网络应用于卷取温度方面,以提高其预测精度,如:马丽坤等[4]利用BP神经网络预测数学模型中的综合换热因子,大幅提高了卷取温度的预测精度;石孝武和申群太[5]将遗传算法与BP神经网络相结合,建立了遗传神经网络卷取温度预测模型,具有较好的应用前景;郭强等[6]建立人工鱼群神经网络预测模型,利用鱼群算法训练BP网络权值,建立了人工鱼群神经网络预测模型,具有较强的自适应能力。然而,基于BP神经网络建立的预测模型虽然取得了较好的预测精度,但由于BP神经网络自身结构的局限性,导致在有限的训练样本下泛化性能较差,容易陷入局部最优,限制了BP神经网络模型在卷取温度方面的应用。
梯度提升决策树(Gradient Boosting Decision Tree,GBDT)作为集成学习[7]中一个的重要算法,具有防止过拟合和泛化能力较强等优点,在回归预测方面具有广泛应用。如:王伟等[8]利用GBDT对热镀锌刚力学性能预报,模型具有较高的预测精度;谷云东等[9]将梯度提升决策树应用于电力负荷预测,其预测误差明显低于传统神经网络的。针对B钢厂层流冷却系统卷取温度预报精度低且人工调参过程具有经验性和不确定性的问题,本文探索将集成学习中的梯度提升决策树算法应用于带钢卷取温度预测,利用差分进化(Differential Evolution,DE)算法的全局寻优能力获取模型最优参数,建立基于差分进化优化梯度提升决策树的卷取温度预测模型(DE-GBDT)。同时,与3个基础预测模型(梯度提升决策树(GBDT)[10]、支持向量机(SVM)[11]、小波神经网络(WNN)[12])以及差分进化优化后的支持向量机(DE-SVM)、小波神经网络(DE-WNN)预测模型进行对比实验,以验证DE-GBDT预测模型的有效性,拟为前馈补偿控制提供准确的参考数据,为进一步提高卷取温度的控制精度提供新方法。
1. DE-GBDT预测模型
1.1 数据的标准化处理
根据钢厂实际历史生产数据,通过对带钢层流冷却段的生产工艺特点和历史数据分析,确定以下生产过程中的关键因素作为模型训练的数据特征:目标卷取温度、终轧温度、带钢厚度、带钢速度、冷却水温度和实测卷取温度。由于上述不同特征量纲差别较大,如带钢厚度为2~6 mm,而带钢温度区间为600~800 ℃,需根据下式对数据进行标准化处理,以消除量纲:
z=x−μσ, (1) 其中,z为标准化后的数据,x为原始数据,μ为样本均值,σ为样本标准差。经数据标准化处理后,可以提高模型精度及收敛速度。
1.2 GBDT预测模型的建模过程
GBDT是以分类回归树(Classification and Regression Tree,CART)为基模型的集成学习算法,该算法基于Boosting迭代的思想,利用原始训练集获取第一棵决策树,此后每一轮迭代中的目标都是拟合上一轮弱学习器的残差。GBDT建模过程以当前学习器的损失函数最小为目标,损失函数选用平方损失函数,通过多次迭代以减小训练残差,最后将所有训练好的回归树的结果进行求和,从而获得最终的预测结果[13-15]。本文将带钢目标卷取温度、冷却水温度以及带钢在精轧出口实时的厚度、速度、温度等条件属性作为GBDT预测模型的输入特征,将带钢实测卷取温度作为输出特征:输入为训练数据集T={(x1, y1), (x2, y2), …, (xN, yN)},其中,xi(xi∈X⊆Rn)为影响带钢实测卷取温度的条件属性,X为输入样本空间;yi(yi∈Y⊆R)为带钢实测卷取温度,Y为输出样本空间;损失函数为L(yi, f(xi)),输出为回归树fM(xi)。GBDT预测模型的建模过程如下:
(1) 初始化:估计使损失函数极小化的常数值c,f0(x)是只有1个根节点的树:
f0(x)=argmincN∑i=1L(yi,c)。 (2) (2) 对建立的M棵回归树:
① 对i=1, 2, …, N,计算第m (m=1, 2, …, M)棵树对应的损失函数的负梯度,即伪残差:
rmi=−[∂L(yi,f(xi))∂f(xi)]f(x)=fm−1(x); (3) ② 利用CART回归时拟合数据(xi, rmi), 从而得到第m棵回归树,其对应叶子节点区域为Rmj,其中j=1, 2, …, J,J为第m (m=1, 2, …, M)棵回归树叶子节点的个数;
③ 对于j (j=1, 2, …, J)个叶子节点区域,计算最佳拟合值:
cmj=argminc∑xi∈RmjL(yi,fm−1(xi)+c); (4) ④ 更新学习器fm(x):
fm(x)=fm−1(x)+J∑j=1cmjI(x∈Rmj)。 (5) (3) 得到回归树fM(x):
fM(x)=M∑m=1J∑j=1cmjI(x∈Rmj)。 (6) 1.3 DE-GBDT预测模型的建模过程
在GBDT算法模型中,模型参数较多,人工调参需耗费大量时间且存在不确定性,目前关于如何选择和调节模型参数理论尚未建立,因此,本文利用DE算法的全局寻优能力获取模型最优参数。
DE算法[16]是基于群体差异的启发式并行搜索方法,主要包括种群初始化、变异、交叉和选择等操作。主要的控制参数包括:种群规模NP、缩放因子F和交叉概率CR,其中,NP主要影响种群多样性以及收敛速度,F主要影响搜索步长,CR主要影响进化信息的调整权重[17-18]。差分进化算法主要操作如下:
(1) 初始化操作:本文采用实数编码方式(RI)构建种群,个体维数D由寻优模型参数个数决定。个体定义如下:
\begin{gathered} \boldsymbol{X}_{i}(g)=\left[x_{i, 1}^{g}, x_{i, 2}^{g}, \cdots, x_{i, D}^{g}\right] \\ (i=1, 2, \cdots, N P ; g=0, 1, \cdots, G), \end{gathered} (7) 其中,Xi(g)为第g代迭代的第i个个体,G为种群最大迭代次数。设定好控制参数,由下式即可随机生成满足约束条件的0代种群(即初始种群):
X_{i, j}(0)=X_{i, j}^{L}+\operatorname{rand}(\ ) \cdot\left(X_{i, j}^{U}-X_{i, j}^{L}\right) \quad(j=1, 2, \cdots, D), (8) 其中,rand()为在[0, 1]区间内满足均匀分布的随机数;Xi, jU、Xi, jL分别为第i个个体中第j个分量的上、下界。
(2) 变异操作:首先,从第g代种群中随机选取3个个体Xr1(g)、Xr2(g)、Xr3(g),选择其中2个个体Xr1(g)、Xr2(g)进行差分操作; 然后进行加权, 再与另一个体Xr3(g)进行求和,从而生成变异个体。计算公式如下:
\boldsymbol{V}(g)=\boldsymbol{X}_{r_{3}}(g)+F \cdot\left(\boldsymbol{X}_{r_{1}}(g)-\boldsymbol{X}_{r_{2}}(g)\right)。 (9) (3) 交叉操作:将变异个体V(g)与目标个体Xi(g)进行交叉操作,生成中间个体Ui(g)。Ui(g)中每一维分量ui, jg按下式生成:
u_{i, j}^{g}= \begin{cases}v_{i, j}^{g} & (\operatorname{rand}(j) \leqslant \mathrm{CR}), \\ x_{i, j}^{g} & (\operatorname{rand}(j)>\mathrm{CR}), \end{cases} (10) 其中, rand(j)∈[0, 1]为第j维分量对应的随机数。
(4) 选择操作:对个体Ui(g)、Xi(g)进行适应度评价,f(·)为适应度函数,对中间个体和当代个体对应的适应度值进行比较,选择适应度值更优的个体进入下一代,计算公式如下:
\boldsymbol{X}_{i}(g+1)= \begin{cases}\boldsymbol{U}_{i}(g) & \left(f\left(\boldsymbol{U}_{i}(g)\right)<f\left(\boldsymbol{X}_{i}(g)\right)\right) \\ \boldsymbol{X}_{i}(g) & \left(f\left(\boldsymbol{U}_{i}(g)\right) \geqslant f\left(\boldsymbol{X}_{i}(g)\right)\right) \end{cases}。 (11) 依次执行以上操作,可以获得新一代种群Xi(g+1)。通过不断对新种群Xi(g+1)执行变异、交叉和选择等操作,可以不断更新种群,直至达到最大种群迭代次数G,算法结束。
GBDT模型主要考虑弱学习器的最大迭代次数、弱学习器的权重缩减系数、子采样比例和决策树最大深度。其中,最大迭代次数和权重缩减系数相互影响:若最大迭代次数(即弱学习器的个数)太小则容易欠拟合,太大则容易过拟合;对于同样的训练集拟合效果,较小的权重缩减系数(即步长)表明需要的最大迭代次数更多;子采样比例小于1可以防止过拟合,但是会增加样本拟合的偏差;决策树最大深度太小则可能会简单地过拟合训练数据,太大则会使决策树结构过于复杂,容易过拟合,导致测试误差增大。
针对上述模型的参数特性,GBDT预测模型的参数范围设置如下:最大迭代次数、权重缩减系数、子采样比例、决策树最大深度的取值区间分别为[10, 1 000]、[0.001, 0.1]、[0.1, 1]、[1, 100]。然后,根据这些区间初始化种群,通过个体参数训练GBDT模型。其次,计算每个个体的适应度,并根据当前种群迭代次数和种群收敛情况判断是否满足终止条件:若不满足,则根据交叉、变异和选择等操作更新种群,重新训练GBDT模型;若满足,则根据当前种群最优个体获取模型最优参数组合。最后,根据此最优参数组合训练GBDT模型,从而建立DE-GBDT预测模型(图 1)。
2. 仿真实验
利用B钢厂2020年8月份历史数据进行建模,训练并验证卷取温度预测模型。模型输入特征包括带钢厚度、带钢速度、带钢温度、冷却水温度和目标卷取温度,输出特征为实际卷取温度,实验仿真工具为Python。实验共采集了190卷带钢数据,依样本段提取带钢数据并经数据处理后,共获取11 000组高质量数据,其中10 000组数据构成训练集,1 000组数据构成测试集。由于目前钢厂中有70%的带钢是以相对误差在20 ℃范围内计算预测命中率,其余带钢以相对误差在15 ℃范围内计算命中率,因此,实验以15 ℃的相对误差计算模型预测命中率。模型预测误差评价指标采用均方误差(MSE)、均方根误差(RMSE),计算公式如下:
\begin{array}{c} \mathrm{MSE}=\frac{1}{n} \sum\limits_{i=1}^{n}\left(y_{\text {true }, i}-y_{\text {pre }, i}\right)^{2}, \\ \mathrm{RMSE}=\sqrt{\frac{1}{n} \sum\limits_{i=1}^{n}\left(y_{\text {true }, i}-y_{\text {pre }, i}\right)^{2}, } \end{array} (12) 其中,n为样本数,ytrue, i、ypre, i分别为带钢卷取温度实际值、预测模型输出值。
2.1 差分进化算法参数选择
在GBDT模型中,针对DE算法中的种群规模NP和最大迭代次数G进行超参数选取实验,将G初始化为20,NP分别设置为10、30、50、70,分析不同的参数设置对模型预测效果的影响。
由实验结果(表 1)可知:当种群最大迭代次数G为20、种群规模NP为50时,效果最佳。此时的GBDT模型的最优参数取值如下:弱学习器的最大迭代次数为906,权重缩减系数为0.019,子采样比例为0.776,决策树最大深度为16。同时为后续对比实验做准备,利用该进化算法参数设计分别对小波神经网络模型中的学习率、最大训练次数和支持向量机模型中的惩罚系数C、核函数参数γ进行参数寻优,得到模型的最优参数:学习率为0.1、最大训练次数为17 703,C为234.092 8,γ为2.699 7。
表 1 种群规模超参数选取Table 1. The selection of population size hyperparameters[G, NP] MSE [20, 10] 19.707 [20, 30] 18.771 [20, 50] 18.232 [20, 70] 18.232 2.2 3个优化后模型的效果对比
利用差分进化算法分别对SVM、WNN预测模型的模型参数进行寻优,从而得到DE-SVM、DE-WNN预测模型,并与DE-GBDT预测模型进行效果对比。由对比结果(图 2)可知:DE-WNN预测模型在740~800 ℃范围内的数据点预测偏差较大,DE-GBDT、DE-SVM预测模型的误差基本都分布在±15 ℃误差带范围内,且DE-GBDT预测模型的离群点最少。
同时,由3个预测模型的评价指标(表 2)可知:DE-GBDT预测模型的预测命中率最高,且DE-GBDT预测模型的各项评价指标均最小(MSE为18.232、RMSE为4.269),表明DE-GBDT预测模型在带钢卷取温度预测方面的应用效果最好。
表 2 3个优化后的预测模型的评价指标Table 2. The valuation indexes of three prediction models after optimization模型 MSE RMSE 预测命中率/% DE-GBDT 18.232 4.269 98.5 DE-SVM 26.188 5.117 97.4 DE-WNN 91.807 9.581 92.3 随机选取一卷带钢数据,利用DE-GBDT预测模型对该钢卷样本点的卷取温度进行预测。由预测效果(图 3)可知:DE-GBDT预测模型的预测值与实际值高度拟合,符合实际工艺要求。
2.3 DE-GBDT预测模型与3个基础预测模型的效果对比
将DE-GBDT预测模型与3个基础预测模型(GBDT、SVM、WNN)进行对比。由4个模型预测误差分布(图 2A、图 4)可知:3个基础预测模型的预测误差较大,DE-GBDT预测模型的离群点明显少于3个基础预测模型。
由4个预测模型的评价指标结果(表 2,表 3)可知:DE-GBDT预测模型的各项误差指标均最小,预测命中率最高,其中,与GBDT预测模型对比,DE-GBDT预测模型的MSE、RMSE分别降低了40.294、3.388,预测命中率提高了2.9%,说明差分进化算法能明显提升模型性能。
表 3 3个基础预测模型的评价指标Table 3. The evaluation indexes of three basic prediction models模型 MSE RMSE 预测命中率/% GBDT 58.526 7.657 95.6 SVM 82.214 9.067 93.3 WNN 152.046 12.331 88.5 3. 结论
本文以B钢厂2 250 mm热轧生产线实际生产数据,结合差分进化算法的全局寻优能力和梯度提升决策树的鲁棒性优点,建立基于差分进化算法优化梯度提升决策树的卷取温度预测模型(DE-GBDT)。与DE-SVM、DE-WNN、GBDT、SVM、WNN预测模型的对比仿真结果表明:
(1) DE-GBDT预测模型的各项误差指标均小于DE-SVM、DE-WNN预测模型的,说明DE-GBDT预测模型在卷取温度预测方面泛化性能更好,能为层流冷却前馈控制系统提供更可靠的参考数据。
(2) DE-GBDT预测模型的离群点明显少于3个基础预测模型(GBDT、SVM、WNN)的,各项误差指标均最小,预测命中率最高。其中,与GBDT预测模型对比,DE-GBDT预测模型的MSE、RMSE分别降低了40.294、3.388,预测命中率提高了2.9%,说明差分进化算法能明显提升模型性能。
-
表 1 种群规模超参数选取
Table 1 The selection of population size hyperparameters
[G, NP] MSE [20, 10] 19.707 [20, 30] 18.771 [20, 50] 18.232 [20, 70] 18.232 表 2 3个优化后的预测模型的评价指标
Table 2 The valuation indexes of three prediction models after optimization
模型 MSE RMSE 预测命中率/% DE-GBDT 18.232 4.269 98.5 DE-SVM 26.188 5.117 97.4 DE-WNN 91.807 9.581 92.3 表 3 3个基础预测模型的评价指标
Table 3 The evaluation indexes of three basic prediction models
模型 MSE RMSE 预测命中率/% GBDT 58.526 7.657 95.6 SVM 82.214 9.067 93.3 WNN 152.046 12.331 88.5 -
[1] 谭明皓, 柴天佑. 基于案例推理的层流冷却过程建模[J]. 控制理论与应用, 2005(2): 248-253;260. doi: 10.3969/j.issn.1000-8152.2005.02.015 TAN M H, CAI T Y. Modeling of the laminar cooling process with case_based reasoning[J]. Control Theory & Applications, 2005(2): 248-253;260. doi: 10.3969/j.issn.1000-8152.2005.02.015
[2] 李振垒, 胡啸, 李海军, 等. 热轧带钢超快冷模型及自适应控制系统的研究和开发[J]. 钢铁, 2013, 48(2): 44-48. doi: 10.3969/j.issn.1672-4224.2013.02.013 LI Z L, HU X, LI H J, et al. Study and development of ultra-fast cooling model and self-adaptive control system of hot strip rolling[J]. Iron and Steel, 2013, 48(2): 44-48. doi: 10.3969/j.issn.1672-4224.2013.02.013
[3] 孙铁军, 杨卫东, 程艳明, 等. 用改进遗传算法优化的带钢卷取温度预报模型[J]. 控制理论与应用, 2015, 32(8): 1106-1113. SUN T J, YANG W D, CHENG Y M, et al. Improved genetic algorithm for optimizing prediction model of strip coiling temperature[J]. Control Theory & Applications, 2015, 32(8): 1106-1113.
[4] 马丽坤, 韩斌, 王君, 等. 基于BP神经网络的热轧带钢卷取温度预报[J]. 钢铁研究学报, 2006(11): 27-30. doi: 10.3321/j.issn:1001-0963.2006.11.007 MA L K, HAN B, WANG J, et al. Prediction of coiling temperature of hot rolled strip based on BP Neural Networks[J]. Journal of Iron and Steel Research, 2006(11): 27-30. doi: 10.3321/j.issn:1001-0963.2006.11.007
[5] 石孝武, 申群太. 带钢卷取温度高精度预报的遗传神经网络方法[J]. 计算机工程与应用, 2008(16): 225-227;235. doi: 10.3778/j.issn.1002-8331.2008.16.069 SHI X W, SHEN Q T. Genetic neural network method for high-accuracy prediction of coiling temperature of hot rolled strip[J]. Computer Engineering and Applications, 2008(16): 225-227;235. doi: 10.3778/j.issn.1002-8331.2008.16.069
[6] 郭强, 张超, 莫天生. 人工鱼群神经网络在热连轧卷取温度预报中的应用[J]. 科技导报, 2010, 28(1): 74-77. GUO Q, ZHANG C, MO T S. Application of artificial fish-swarm neural network in coiling temperature forecasting of hot rolled strip[J]. Science & Technology Review, 2010, 28(1): 74-77.
[7] 徐继伟, 杨云. 集成学习方法: 研究综述[J]. 云南大学学报(自然科学版), 2018, 40(6): 1082-1092. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201806004.htm XU J W, YANG Y. A survey of ensemble learning approaches[J]. Journal of Yunnan University(Natural Science Edition), 2018, 40(6): 1082-1092. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201806004.htm
[8] 王伟, 匡祯辉, 谢少捷, 等. 热镀锌钢卷力学性能GBDT预报模型[J]. 福州大学学报(自然科学版), 2020, 48(5): 602-609. https://www.cnki.com.cn/Article/CJFDTOTAL-FZDZ202005010.htm WANG W, KUANG Z H, XIE S J, et al. Research on GBDT prediction model of mechanical properties of hot dip galvanized steel coils[J]. Journal of Fuzhou University(Natural Science Edition), 2020, 48(5): 602-609. https://www.cnki.com.cn/Article/CJFDTOTAL-FZDZ202005010.htm
[9] 谷云东, 马冬芬, 程红超. 基于相似数据选取和改进梯度提升决策树的电力负荷预测[J]. 电力系统及其自动化学报, 2019, 31(5): 64-69. https://www.cnki.com.cn/Article/CJFDTOTAL-DLZD201905012.htm GU Y D, MA D F, CHEN H C. Power load forecasting based on similar-data selection and improved gradient boosting decision tree[J]. Proceedings of the CSU-EPSA, 2019, 31(5): 64-69. https://www.cnki.com.cn/Article/CJFDTOTAL-DLZD201905012.htm
[10] FRIEDMAN J H. Greedy function approximation: a gradient boosting machine[J]. The Annals of Statistics, 2001, 29(5): 1189-1232. doi: 10.1214/aos/1013203450
[11] CORTES C, VAPNIK V N. Support vector networks[J]. Machine Learning, 1995, 20(3): 273-297.
[12] ZHANG Q H, BENVENISTE. A wavelet network[J]. IEEE Traps on Neuralnetworks, 1992, 3(6): 889-898.
[13] 段大高, 盖新新, 韩忠明, 等. 基于梯度提升决策树的微博虚假消息检测[J]. 计算机应用, 2018, 38(2): 410-414;420. doi: 10.3969/j.issn.1001-3695.2018.02.020 DUAN D G, GAI X X, HAN Z M, et al. Micro-blog misinformation detection based on gradient boost decision tree[J]. Journal of Computer Applications, 2018, 38(2): 410-414;420. doi: 10.3969/j.issn.1001-3695.2018.02.020
[14] CHENG J, CHEN X H. Travel time prediction model of freeway based on gradient boosting decision tree[J]. Journal of Southeast University(English Edition), 2019, 35(3): 393-398.
[15] DENG S K, WANG C G, WANG M Y, et al. A gradient boosting decision tree approach for insider trading identification: an empirical model evaluation of China stock market[J]. Applied Soft Computing Journal, 2019, 83: 105652-105677. doi: 10.1016/j.asoc.2019.105652
[16] STORN R, PRICE K. Differential evolution: a simple and efficient heuristic for global optimization over continuous spaces[J]. Journal Global Optimization, 1997, 11(4): 341-359. doi: 10.1023/A:1008202821328
[17] 丁青锋, 尹晓宇. 差分进化算法综述[J]. 智能系统学报, 2017, 12(4): 431-442. DING Q F, YIN X Y. Research survey of differential evolution algorithms[J]. CAAI Transactions on Intelligent Systems, 2017, 12(4): 431-442.
[18] 汪慎文, 丁立新, 张文生, 等. 差分进化算法研究进展[J]. 武汉大学学报(理学版), 2014, 60(4): 283-292. WANG S W, DING L X, ZHANG W S, et al. Survey of differential evolution[J]. Journal of Wuhan University(Natural Science Edition), 2014, 60(4): 283-292.
-
期刊类型引用(4)
1. 阎新杰,秦红波,郑立康,陈彤. 基于数据驱动的卷取温度关键因子研究. 轧钢. 2024(04): 101-109 . 百度学术
2. 王子昂,王伟,马乾伦,白振华. 面向带钢热镀锌感应加热的改进贝叶斯温度预测算法. 制造业自动化. 2024(10): 157-164+188 . 百度学术
3. 冀心成,汪衍凯,张迎,许彦杰. 贝叶斯优化梯度提升树的室内日光照度分布预测. 计算机与现代化. 2023(09): 44-50 . 百度学术
4. 蒋波. 基于梯度提升算法预测钢质缺陷产生的研究. 信息系统工程. 2022(02): 141-144 . 百度学术
其他类型引用(8)