2. 武汉理工大学 物流工程学院,武汉 430063
2. School of Logistics Engineering, Wuhan University of Technology, Wuhan 430063, China
粒子群优化算法(particle swarm optimization, PSO)是由Kennedy等[1]受鸟群觅食行为启发而提出的一种基于群体智能的随机优化方法, 其主要思想是通过粒子个体的学习行为和群体之间的合作交互实现问题求解. 由于PSO算法具有结构简单、并行性强、收敛速度快等优势, 多被应用于解决多目标优化[2]、神经网络训练[3]、图像处理[4]等问题. 然而, PSO也存在早熟收敛、易陷入局部最优等现象. 针对这些问题, 众多学者从多方面提出了改进方法, 如参数调整、精英选择和算法混合等不同策略[5]. Shi等[6]较早提出了一种惯性权重线性递减的规则; 文献[7]在此基础上通过动态调整策略提高算法的收敛性和收敛速度. 此外, 也有学者对PSO的加速因子进行了类似的改进, 提出时变自组织PSO算法(HPSO-TVAC)[8]. 为进一步提高粒子的寻优能力, Zhang等[9]将邻域最优解作用到速度更新公式上, 通过迭代进程决定学习强度. 近年来, 利用改变拓扑结构来选择学习榜样也得到了较好的结果. 如Chen等[10]利用双差分突变策略设计两层新型种群结构, 采用两种不同控制参数的推理突变操作产生精英粒子, 以保证种群多样性. 文献[11]提出了一种具有异构分簇的粒子群算法(APSO-C), 采用
粒子群优化算法的寻优能力主要取决于两个特征: 开采性和勘探性[18]. 为了平衡两者能力, 提高算法的综合性能, 与已有研究不同, 本文提出一种具有重组学习和混合变异的动态多种群粒子群优化算法(dynamic multi-population particle swarm optimization algorithm with recombined learning and hybrid mutation, DMPSORH). 借鉴小生境的思想将种群划分成规模相等的子种群以及局部PSO模型, 再对其实施不同的速度更新策略. 同时, 利用重构粒子引导速度方向来加强种群的局部开采能力, 借助于历史最优位置的子空间信息指导粒子进行局部搜索. 并且, 为了进一步扩大全局有效搜索范围, 提出一种基于概率性度量概念的混合变异策略, 在保持最优学习轨迹的同时进行自适应维度更新. DMPSORH在迭代过程中随机选择变异方式, 采用反向学习策略(opposition-based learning, OBL)和极值扰动操作(disturbed extremum, DE), 为最优粒子逃离局部困境提供更多步长增量, 引导其探索更多新区域. 重构粒子与混合变异结合, 可以在进化早期保持种群的多样性, 并加快后期收敛速度, 有效地兼顾全局勘探与局部开采能力.
1 具有重组学习和混合变异的动态多种群粒子群优化算法 1.1 标准粒子群优化算法原理在一个
| $ \begin{align} &V^{k+1}_{id} = \omega V^{k}_{id}+c_{1}r_{1}({P}^{k}_{id}-X^{k}_{id})+\\ &\; \; \; \; \; \; \; \; \; \; \; \; \; \; \; c_{2}r_{2}({P}^{k}_{{g}d}-X^{k}_{id}), \end{align} $ | (1) |
| $ \begin{align} &X^{k+1}_{id} = X^{k}_{id}+V^{k+1}_{id}. \end{align} $ | (2) |
其中:
飞行速度
多种群PSO算法其实也是一种基于特殊邻域拓扑结构的局部PSO算法[19], 相比于固定划分多种群, 动态随机重组可以避免过于限制粒子的自由, 提升个体信息交流效率. 文献[20]基于分类的思想以适应度值的均值和标准差为测度, 通过评价粒子的位置关系将种群分为多个等级. 但是在迭代后期, 优秀种群会吸引更多个体加入, 将导致粒子过于聚集, 种群间信息交流困难. 所以, 本文在此基础上以适应度值升序的中位值为界划分子种群, 每一代都实行动态调整. 适应度值较小的为“顶层粒子”, 较大的为“底层粒子”; 再从两者当中分别抽出同等数量的粒子组成局部PSO模型, 并确保3个种群规模均衡, 分别为离最优解较近的“亲邻域”、局部PSO模型的“重组域”以及“疏离域”.
“亲邻域”中的粒子适应度值较小, 需要继承种群中最优解的位置信息, 缩小步长进行更加细密的搜索; 而“疏离域”中的粒子则应扩大“步伐”, 在向全局极值靠近的同时探索周围新的优解来提升开采能力; 作为局部模型的“重组域”将动态调整种群的多样性, 既要吸取个体经验, 也要共享全局信息.
1.3 重构粒子引导及速度更新机制粒子群在每代的飞行中都将更新历史最优位置, 而自身极值中的认知经验便会被忽略. 本文在执行速度更新时利用重构粒子保留Pbest的子空间信息, 不仅是为了保持精英学习的轨迹, 而且也从多维角度增加群体的多样性. 基于重构粒子引导的速度更新公式为
| $ \begin{align} V^{k+1}_{id} = \;&\omega V^{k}_{id}+(c_{1}-c_{3})r_{1}(P^{k}_{id}-X^{k}_{id})+\\ &c_{2}r_{2}(P^{k}_{gd}-X^{k}_{id})+c_{3}r_{3}(P^{k}_{\rm mix}-X^{k}_{id}), \end{align} $ | (3) |
其中
重构粒子生成过程如图 1所示.
|
图 1 重构粒子生成过程 |
下面以二维的搜索空间覆盖范围为例, 对引入重构粒子的策略进行特性分析. 为便于简化, 引入记号如下:
| $ \begin{align*} &\alpha = \omega V^{k}_{i}+c_{2}r_{2}({P}^{k}_{{g}}-X^{k}_{i}), \; \beta = c_{1}({P}^{k}_{i}-X^{k}_{i}), \notag\\ &\mu = c_{3}({P}^{k}_{\rm mix}-X^{k}_{i}), \; \beta' = (c_{1}-c_{3})({P}^{k}_{i}-X^{k}_{i}). \end{align*} $ |
同时, 将式(1)改写成
| $ \begin{align} V^{k+1}_{i} = \alpha+r_{1}\beta, \end{align} $ | (4) |
式(3)改写成
| $ \begin{align} &V^{k+1}_{i} = \alpha+r_{1}\beta'+r_{3}\mu, \end{align} $ | (5) |
| $ \begin{align} &\beta' = \dfrac{(c_{1}-c_{3})}{c_{1}}\beta. \end{align} $ | (6) |
在改写后的速度更新公式中, 由于两式存在相同项
|
图 2 速度更新方式对比 |
本文所构建的3个子种群各自更新方式如下: “亲邻域”中的粒子采用基本PSO的更新公式, 即式(1)和(2);“疏离域”利用式(3)和(2)进行更新; “重组域”介于两者之间, 由于个体间的差异在算法前期较大, 侧重于其认知部分可以实现多方交流, 而在后期加强全局极值的引领力, 能够促使粒子向最优解的周围聚集. 因此, 学习因子引入余弦、正弦函数, 分别呈现递减和递增的趋势. 粒子位置按照式(2)更新, 有
| $ \begin{align} V^{k+1}_{id} = \;&\omega V^{k}_{id}+2\cos\Big(\frac{{\rm{ \mathsf{ π}}} t}{2T}\Big)r_{1}(P^{k}_{id}-X^{k}_{id})+\\[6pt] &2\sin\Big(\frac{{\rm{ \mathsf{ π}}} t}{2T}\Big)r_{2}({P}^{k}_{{g}d}-X^{k}_{id}). \end{align} $ | (7) |
其中:
粒子群算法在优化后期收敛速度变得缓慢的主要原因是其难以摆脱当前局部极值, 导致精度下降. 很多学者为此提出了一些改进方法, 如重新初始化[21]、自适应PSO[22]和杂交策略[23]等, 并在不同程度上取得了良好的效果, 提高了收敛速度和精度. 但是, 这些改进措施缺乏对算法收敛于局部最优的根本原因以及其在不同阶段的动态效果的综合考虑, 存在一定的局限性. 文献[24]和文献[25]从数学理论的角度, 通过严格推导得到如下公式, 从而解释了PSO在进化停滞状态下的“聚集”现象:
| $ \begin{align} &\lim\limits_{t\to\infty}x(t) = {P}_{{g}}' = \frac{c_{1}{P}_{i}+c_{2}{P}_{{g}}}{c_{1}+c_{2}} = \\ &\; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; (1-\lambda){P}_{i}+\lambda{P}_{{g}}, \end{align} $ | (8) |
| $ \begin{align} &\; \lambda = \frac{c_{2}}{c_{1}+c_{2}}. \end{align} $ | (9) |
由式(8)和(9)可知, 在算法进程中, 自身极值
本文基于上述分析, 提出一种概率性混合变异策略(probability-based hybrid mutation, M-P), 综合采用反向学习策略(OBL)和极值扰动操作(DE), 以时变概率随机选择变异方式.
1) 最优粒子的反向学习变异.
它的主要思想是计算并评估Gbest与其反解, 从两者中选择较优值作为下一代的全局引导, 增加跳出局部最优的概率.下面给出相关定义.
定义1 反向点. 设
| $ \begin{align} x^\prime_j = a_{j}+b_{j}-x_{j}. \end{align} $ | (10) |
定义2 最优粒子反向解. 设
| $ \begin{align} x^*_j = k({\rm da}+{\rm db})-x_j. \end{align} $ | (11) |
其中:
| $ \begin{align} {\rm da} = \min(x), \; {\rm db} = \max({x}). \end{align} $ | (12) |
利用动态边界代替搜索空间中的固定边界, 既能保证生成的反向解位于逐步缩小的空间中[26], 也能控制过度学习, 提高有效变异率. 同时, 本文考虑到全局极值的最优特性, 采用Gbest的维度最值作为动态边界, 不引入其他粒子携带的搜索信息影响它的“优越性”. 当然, 在反向学习的过程中, 反向解有飞越动态边界的可能, 因此, 对其采用下式的方法生成在
| $ \begin{align} x^*_j = {\rm da}+k({\rm db}-{\rm da}), \; x^*_j<{\rm da}\; {\rm or}\; x^*_j>{\rm db}. \end{align} $ | (13) |
2) 最优粒子的邻域学习变异.
文献[27]提出了一种高斯变异策略(Gaussian mutation, GM), 采用下式对Gbest进行扰动:
| $ \begin{align} {\rm Gbest}^\prime_d = {\rm Gbest}_{d}+r(X_{\rm max}-X_{\rm min})\rm Gaussian(\mu, \delta^2). \end{align} $ | (14) |
其中:
本文提出的全局极值扰动策略, 主要是依据方差可调的正态随机分布对Gbest实施变异, 得到新的最优粒子
| $ \begin{align} {\rm Gbest}{^t_d}^\prime = N({\rm Gbest}^t_d, \delta). \end{align} $ | (15) |
其中
| $ \begin{align} \delta = 10^{\zeta_{1}-(\zeta_{1}-\zeta_{2})\cdot t/T}. \end{align} $ | (16) |
其中
一般地, 在群体进化的初期, 进行多维度学习可以帮助最优粒子加速跳出局部极值区域, 为其提供更多的学习机会; 而在末期, 全局极值已经接近最优解, 尽量保留各维度的优势信息有利于提高算法精度. 因此, 本文采用下式进行变异维度的规模选择.
| $ \begin{align} {\rm dim} = \lceil(1-(t-1)/T)\cdot D \rceil. \end{align} $ | (17) |
其中: dim表示选择变异的维度数量,
| $ \begin{align} {\rm Gbest}_d = \begin{cases} {\rm Gbest}^\prime_d, \; {\rm fit}({\rm Gbest}^\prime_d)<{\rm fit}({\rm Gbest}_d);\\ {\rm Gbest}_d, \; \rm otherwise. \end{cases} \end{align} $ | (18) |
下面给出M-P策略的伪代码用来描述其基本步骤. 其中: TR为时变概率, 是服从
算法 M-P策略.
randomly disorganize
update dim according to eq.(17);
for
if TR
generate the opposite Gbest by eq.(11);
if
generate the opposite
again;
end
else
execute the DE strategy on Gbest by
eqs.(15) and (16);
end
compare fit and select Gbest according to
eq.(18);
end
1.5 算法流程及时间复杂性分析综合算法的构造思想及以上具体策略, 现给出算法流程(见图 3)和时间复杂度分析.
|
图 3 算法流程 |
由图 3可以看出, DMPSORH主要包括5个部分: 初始化, 划分种群, M-P策略, 引入重构粒子, 速度、位置与极值的更新. 算法迭代一次各部分所需的操作为: 1)初始化种群的复杂度为
| $ \begin{align*} &O({N\!\cdot \!D})+{O}(1)+{O}(D)+O(D)+O({N\!\cdot \!D}) = \\ &O({N\!\cdot \!D}), \end{align*} $ |
与基本PSO算法具有相同的复杂度.
2 数值实验及分析 2.1 测试函数为了测试算法的性能, 本文实验采用表 1中的14个国际标准benchmark测试函数, 按照其属性分为单峰函数
| 表 1 14个测试函数 |
本文通过划分多种群、引入重构粒子以及使用M-P策略来提升PSO的综合性能. 本节将在基本PSO算法的基础上逐步增加相应措施, 比较几种策略在相同迭代次数下的作用. bPSO是基本PSO算法; DMPSO、PSOR、PSOH是在PSO框架中分别增加3种策略; DMPSOR是在划分动态多种群的基础上融入重构粒子作为引导, DMPSOH在划分动态多种群的基础上增加对最优解的变异策略, PSORH是在引入重构粒子的基础上实施混合变异; DMPSORH是结合3种策略的综合算法. 同时还与其他两种改进算法进行比较, 分别是HPSO-TS[28]和CLPSO[29].
本节实验所有算法均采取相同的迭代次数
| 表 2 算法构造策略的测试实验 |
|
图 4 不同算例下的算法时间统计 |
表 2的实验结果表明:
1) 在相同的迭代次数下, 本文所提出的算法DMPSORH在14个测试函数中取得10个最优结果和4个次优结果, HPSO-TS、CLPSO分别取得7个最优结果和5个次优结果.
2) 引入重构粒子的PSOR算法和实施变异操作的PSOH算法在所有测试函数上都不同程度地优于bPSO, 可见这两种策略对算法性能的提升有一定促进作用.
3) 叠加两种策略的算法DMPSOH、PSORH都取得了5个最优结果和2个次优结果, 并且在大部分函数上都比PSOH表现优越; 同时, DMPSOR算法在函数
4) 与前面7个算法相比, 结合3种策略的DMPSORH算法除了在
综上所述, 本文提出的3种策略都具有积极作用, 并且将其融合能够促进算法性能大幅度提升, 从而取得更满意的计算结果.
图 4中, HPSO-TS算法的执行时间最长, bPSO的时间最短, 其次是PSOR、CLPSO. 对比前4种算法可以发现, 划分种群和实施变异会导致算法时间具有明显的增长, 而融入重构粒子的策略对运行时间影响较小. DMPSORH除了在
为了对比测试算法的搜索性能, 本文选取不同叠加方式并与其他两种改进类算法进行对比实验. 图 5给出了PSO、PSOR、PSORH、DMPSORH、HPSO-TS和CLPSO六种算法在30次独立运行中的迭代过程.
|
图 5 不同算例下的算法平均收敛曲线 |
其中:
从图 5可以看出, 与数值实验结果相似, 6种算法的进化趋势互有差异. DMPSORH和PSORH的收敛精度在大部分函数上都明显优于bPSO、PSOR和CLPSO. 在函数
由上述实验结果和分析可知, M-P策略对提升算法性能有显著优势. 为了进一步探究M-P策略中变异方式的效用, 将不含极值扰动策略的DMPSORH (DMPSORH-Null)和集成GM策略代替DE策略的DMPSORH (DMPSORH-GM)作为对比算法. 每个函数迭代次数为3 000, 独立运行30次. 实验中记录算法运行30次的成功率(success rate, SR), 即算法最终解达到表 1中阈值次数占运行总次数的比例. 同时, 也统计算法中变异策略成功次数的中位值(median number of successful mutation, MNSM), 若变异后的Gbest更优, 则表明变异策略成功. 表 3给出了实验结果, 其中“median”代表中位值.
| 表 3 不同变异方式的比较实验 |
从表 3的仿真结果可以看出:
1) 除
2) 结合GE策略的DMPSORH-GM算法在函数
M-P策略中的两种变异方式以OR为转换标志. 为了测试OR对DMPSORH算法性能的影响, 本次实验将0.1作为间隔, OR取[0.1, 0.9]之间的数值, 算法最大运行次数设置为3 000. 由于
|
表 4 OR敏感性测试实验 |
|
表 5 OR敏感性测试实验 |
表 4的实验结果表明,
从表 5的测试结果可以发现, 未收敛到极小值的9个函数对OR的敏感性较低, 波动幅度一般在0
基于上述分析可以得出OR对不同测试函数的影响程度会有明显差异的结论, 即对表 4中的函数进行优化时可以采用较大的OR来加快收敛速度, 而对表 5中的函数则偏向用较小的OR提高算法的收敛精度. 不过, 考虑到算法的通用性和整体性并综合实验数据, 本文给出OR的取值范围在[0.2, 0.4]之间, 更有利于加强算法的求解能力. 此外, 表 3的数据结果显示: 对函数
本文在融合粒子重组学习和概率性混合变异策略的基础上, 提出了一种动态多种群优化算法. 利用重构粒子引导调整速度更新方向, 并与标准粒子群搜索探测进行一般性对比分析, 在保持子种群精英学习的基础上考虑了群体的多样性和收敛性; 算法中采用M-P策略对全局最优解进行逐维变异, 扩大群体搜索范围的同时增强了邻域探索能力, 从而较好地保持了算法的开发与勘探能力之间的平衡. 实验结果表明, 本文提出的混合改进措施具有一定协作互补作用, DMPSORH的性能在叠加各策略之后比所选对比算法表现更好, 具有较为明显的优势. 本文算法力求综合多方信息以优化种群搜索, 但还存在一定不足, 尤其面向多峰函数优化问题时种群间隐含信息的提取与利用还有待于进一步深入研究. 后续工作将结合算法对工业生产中的高维优化和多目标优化问题进行应用研究.
| [1] |
Kennedy J, Eberhart R. Particle swarm optimization[C]. Proceedings of the IEEE International Conference on Neural Networks. Perth: IEEE Press, 1995: 1942-1948.
|
| [2] |
Hu W, Yen G G, Zhang X. Multi-objective particle swarm optimization based on Pareto entropy[J]. Journal of Software, 2014, 25(5): 1025-1050. |
| [3] |
Han H G, Lu W, Hou Y, et al. An adaptive-PSO-based self-organizing RBF neural network[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(1): 104-117. DOI:10.1109/TNNLS.2016.2616413 |
| [4] |
Teng Q Z, Tang T, Li Z J, et al. Three-dimensional reconstruction of sandstone section image based on particle swarm optimization[J]. Journal of Electronics & Information Technology, 2011, 33(8): 1871-1876. |
| [5] |
Xia X W, Liu J N, Gao K F, et al. Particle swarm optimization algorithm with reverse-learning and local-learning behavior[J]. Chinese Journal of Computers, 2015, 38(7): 1397-1407. |
| [6] |
Shi Y H, Eberhart R C. A modified particle swarm optimizer[C]. Proceedings of IEEE ICEC Conference. Piscataway: IEEE, 1998: 69-73.
|
| [7] |
Yang X F, Liu S L. Dynamic adjustment strategies of inertia weight in particle swarm optimization algorithm[J]. International Journal of Control and Automation, 2014, 7(5): 353-364. DOI:10.14257/ijca.2014.7.5.35 |
| [8] |
Ratnaweera A, Halgamuge S K, Watson H C. Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients[J]. IEEE Transactions on Evolutionary Computation, 2004, 8(3): 240-255. DOI:10.1109/TEVC.2004.826071 |
| [9] |
Zhang S P, Zhong W B. Hybrid particle swarm optimization algorithm of new learning factors and constraint factor[J]. Application Research of Computers, 2015, 32(12): 3626-3628. |
| [10] |
Chen Y G, Li L X, Peng H P, et al. Particle swarm optimizer with two differential mutation[J]. Applied Soft Computing, 2017, 61: 314-330. DOI:10.1016/j.asoc.2017.07.020 |
| [11] |
Li W F, Liang X L, Zhang Y, et al. Research on PSO with clusters and heterogeneity[J]. Acta Electronica Sinica, 2012, 40(11): 2194-2199. |
| [12] |
Niu B, Huang H L, Tan L J, et al. Symbiosis-based alternative learning multi-swarm particle swarm optimization[J]. IEEE/ACM Transactions on Computational Biology and Bioinformatics, 2017, 14(1): 4-14. DOI:10.1109/TCBB.2015.2459690 |
| [13] |
Ni H M, Liu Y J, Li P C. Adaptive dynamic reconfiguration multi-objective particle swarm optimization algorithm[J]. Control and Decision, 2015, 30(8): 1417-1422. |
| [14] |
Ma C, Deng C, Xiong Y, et al. An intelligent optimization algorithm based on hybrid of GA and PSO[J]. Journal of Computer Research and Development, 2013, 50(11): 2278-2286. |
| [15] |
Feng H K, Bao J S, Jin Y. Hybrid particle swarm optimization algorithm for multiple vehicle dragging goods problem[J]. Computer Integrated Manufacturing Systems, 2010, 16(7): 1427-1436. |
| [16] |
Li F, Liu J C, Shi H T, et al. Multi-objective particle swarm optimization algorithm based on decomposition and differential evolution[J]. Control and Decision, 2017, 32(3): 403-410. |
| [17] |
Kiran M S, Gundüz M. A recombination-based hybridization of particle swarm optimization and artificial bee colony algorithm for continuous optimization problems[J]. Applied Soft Computing, 2013, 13(4): 2188-2203. DOI:10.1016/j.asoc.2012.12.007 |
| [18] |
Kadirkamanathan V, Selvarjah K, Fleming P J. Stability analysis of the particle dynamics in particle swarm optimizer[J]. IEEE Transactions on Evolutionary Computation, 2006, 10(3): 245-255. DOI:10.1109/TEVC.2005.857077 |
| [19] |
Gao Y L, Yan P. Unified optimization based on multi-swarm PSO algorithm and cuckoo search algorithm[J]. Control and Decision, 2016, 31(4): 601-608. |
| [20] |
Tong Q J, Li M, Zhao Q. An improved particle swarm optimization algorithm based on classification[J]. Modern Electronics Technique, 2019, 42(19): 11-14. |
| [21] |
Sabat S L, Ali L, Udgata S K. Integrated learning particle swarm optimizer for global optimization[J]. Applied Soft Computing Journal, 2011, 11(1): 574-584. DOI:10.1016/j.asoc.2009.12.016 |
| [22] |
Guo Y N, Liu D D, Cheng J, et al. Adaptive cultural algorithm adopting mixed mutation[J]. Acta Electronica Sinica, 2011, 39(8): 1913-1918. |
| [23] |
Xin B, Chen J, Zhang J, et al. Hybridizing differential evolution and particle swarm optimization to design powerful optimizers: A review and taxonomy[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part C, 2012, 42(5): 744-767. DOI:10.1109/TSMCC.2011.2160941 |
| [24] |
Clerc M, Kennedy J. The particle swarm: Explosion stability and convergence in a multi-dimensional complex space[J]. IEEE Transactions on Evolutionary Computation, 2002, 6(1): 58-73. DOI:10.1109/4235.985692 |
| [25] |
Hu W, Li Z S. A simpler and more effective particle swarm optimization algorithm[J]. Journal of Software, 2007, 18(4): 861-868. DOI:10.1360/jos180861 |
| [26] |
Zhou X Y, Wu Z J, Wang H, et al. Elite opposition-based particle swarm optimization[J]. Acta Electronica Sinica, 2013, 41(8): 1647-1652. |
| [27] |
Li Y M, Zhang H F, Cheng L, et al. Particle swarm optimization based on multi-subgroup and subspace learning strategy[J]. Computer & Digital Engineering, 2018, 46(9): 1768-1772. |
| [28] |
Zhou W F, Liang X L, Tang K X, et al. Hybrid particle swarm optimization algorithm with topological time-varying and search disturbance[J]. Journal of Computer Applications, 2020, 40(7): 1913-1918. |
| [29] |
Liang J J, Qin A K, Suganthan P N, et al. Comprehensive learning particle swarm optimizer for global optimization of multimodal functions[J]. IEEE Transactions on Evolutionary Computation, 2006, 10(3): 281-295. DOI:10.1109/TEVC.2005.857610 |
2021, Vol. 36
