基于教与学的全局优化动态分组策略优化

(整期优先)网络出版时间:2020-10-12
/ 3

基于教与学的全局优化动态分组策略优化

张喆

沈阳化工大学 110142

摘要

全局优化仍然是进化计算和群体智能最具挑战性的任务之一。近年来,这些领域在解决全局优化问题方面取得了一些重大进展。主要针对全局优化问题,提出了一种改进的基于教与学的动态分组优化算法(DGSTLBO)。

1.介绍

现实世界中的优化问题经常出现在工程、社会科学和物理科学的不同领域。因此,需要高效的优化算法来处理日益复杂的现实问题。这对经典的基于派生的技术提出了严峻的挑战。主要问题是算法可能陷入含有多个最优解的优化问题的局部最优解中。这使得研究人员开发了各种基于进化计算和群体智能的优化技术。这些算法(如遗传算法(GA),粒子群优化(PSO),差分进化(DE),蚁群优化(ACO) , 有不同的设计原理和特点,并已证明是成功的在处理许多优化问题。

2.教与学优化算法(TLBO

TLBO的主要思想是模拟由教师阶段和学习者阶段组成的经典学习过程。在教师阶段,老师把他的知识分配给所有的学生(即学生向老师学习),而在学习者阶段,学生在同学的帮助下学习(即学生通过与其他学生的互动学习)。在TLBO下,总体被认为是一个学习者的群体或阶层。在优化算法中,总体由不同的设计变量组成。

在教师阶段,一个好的教师试图使他的学生达到他的知识水平。然而,在实践中,这是不可能的,教师只能在一定程度上提高班级的平均知识,这取决于学生的能力。这是一个随机的过程,取决于许多因素。

学习者通过两种不同的方式来增长知识:一种是通过教师的输入,另一种是通过他们之间的互动。学习者通过小组讨论、演讲、正式交流等方式与其他学习者进行随机互动。如果另一个学习者比他有更多的知识,他就会学到新的东西。

3.算法描述

一个好的优化算法需要在探索和开发之间取得平衡。探索是指算法对可行搜索空间的不同区域进行搜索的能力,而利用是指所有个体以尽可能快的速度收敛到最优解的能力。过度的探索会导致纯粹的随机搜索,而过度的开发则会产生纯粹的局部搜索。

3.1分组

将学习者分成小范围的群体,以增加种群的多样性。每个组使用自己的成员在搜索空间中搜索更有前景的区域。

算法1. Grouping( )

1 Begin

2 Sort all learners in descending order of their results

3 while(the sorted learners is not empty)

4 Evaluate the distance from the fifirst learner to each learner

5 Sort all learners in ascending order of their the distances

6 Select the fifirst m learners and set them as one group

7 Remove learners of the current group from the current learners

8 endwhile

9 end

3.2动态组策略

我们通过引入动态群体学习,提出了一种改进的学习策略。所有的学习者都属于特定的组,每个学习者的学习都被限制在他相应的组中。

3.3伪代码为DGSTLBO

DGSTLBO与原始TLBO算法有两个主要区别。

(1)在教学阶段,每个学习者不是用班级的平均数作为平均数,而是向相应组的平均数学习。

(2)在学习阶段,每个学习者不是通过学习者之间的相互作用进行学习,而是通过随机学习策略或相应群体的量子行为学习策略进行概率学习。算法2总结了DGSTLBO的伪代码。

算法2. DGSTLBO( )

1 Begin

2 Initialize N(population size), D(dimensions) and genmax(iterations)

3 Initialize learners and evaluate all learners

4 Execute 算法 1: Grouping( )

5 while(stopping condition not met)

6 for gen = 1: genmax

7 Update the Teacher of the class and the mean of each group

8 Execute 算法: Dynamic Group Strategy( )

9 endfor

10 endwhile

11 end

4.实验结果

我们使用4个基准函数来测试DGSTLBO的效率。为了评价DGSTLBO的性能,我们还模拟了jDE、SaDE、和TLBO算法,在10个维度中进行了测试并对它们的结果进行了比较。

表1

使用的基准函数的详细信息

函数

公式

范围

最适条件

Sphere

5f83b96a86946_html_17637ca7bc0fd427.gif

[-100,100]

0

Quadric

5f83b96a86946_html_b12cd6e3c9368c20.gif

[-100,100]

0

Sum Square

5f83b96a86946_html_b822c1628b78d31e.gif

[-10,10]

0

Zakharov

5f83b96a86946_html_3aed4634bc15a711.gif

[-10,10]

0

表2

对10个维度上的函数比较

Fun

jDE

SaDE

TLBO

DGSTLBO

F1

1.12e-093 ± 2.41e-093

2.65e-088 ± 5.52e-088

1.32e-219 ± 8.26e-220

1.76e-282 ± 0.0

F2

1.64e-034 ± 3.19e-034

4.83e-041 ± 7.42e-041

1.17e-095 ± 3.36e-095

1.96e-148 ± 7.59e-148

F3

2.77e-095 ± 6.43e-095

1.93e-088 ± 5.33e-088

4.50e-220 ± 5.32e-220

1.46e-283 ± 0.0

F4

1.73e-039 ± 5.31e-039

1.86e-056 ± 6.11e-056

1.93e-104 ± 5.14e-104

4.16e-154 ± 2.35e-153

好的结果用加粗表示

5.结论

在本文中,我们将DGSTLBO算法作为传统TLBO算法的扩展。该算法基于动态群,利用群的信息和搜索空间中相对群的均值来求解单模态和多模态问题。

从我们的分析和实验中,我们已经证明动态分组策略能够使DGSTLBO更有效地利用本地信息,更频繁地生成更高质量的解决方案。

参考文献

[1] B. Akay, D. Karaboga, A modifified Artifificial Bee Colony algorithm for real-parameter optimization, Inf. Sci. 192 (1) (2012) 120–142.

[2] J. Brest, S. Greiner, B. Boskovic, M. Mernik, V. Zumer, Self-adapting control parameters in differential evolution: a comparative study on numerical

benchmark problems, IEEE Trans. Evol. Comput. 10 (6) (2006) 646–657.

[3] M. Dorigo, Optimization, Learning and Natural Algorithms, Ph.D. Thesis, Politecnico di Milano, Italy, 1992.

[4] S.O. Degertekin, M.S. Hayalioglu, Sizing truss structures using teaching–learning-based optimization, Comput. Struct. 119 (2013) 177–188.