2. 浙江工业大学 计算机科学与技术学院,杭州 310023
2. College of Computer Science and Technology, Zhejiang University of Technology, Hangzhou 310023, China
随着信息技术的发展, 特别是人工智能技术的研究应用, 教育的智能化需求越来越迫切.教育智能化的一个重要特征是满足学习者个性化学习需求.在线学习环境下学习者可获得大量的学习资源, 然而, 学习者并不能通过学习资源根据自己需求寻找到合适的学习路径.目前大多数在线学习系统将学习资源和学习路径推荐给学习者的过程中, 并没有考虑学习者的偏好和需求[1-2], 因此, 研究在线学习路径优化问题已成为国内外在线自适应学习研究的热点.
学习路径推荐本质上是一个个性化的推荐问题.在推荐技术领域, 智能演化算法应用越来越广泛, 其中粒子群算法具有参数少、易于理解的优点, 表现出较优的搜索性能, 已经广泛应用于工业领域及路径优化方面的研究[3-6].在线学习领域方面, 人们对于粒子群算法用于学习路径推荐的优化效果也在不断进行研究探索. Wang等[7]提出了动态复习课程生成模型, 运用概念语义图找出应该推荐的概念, 利用DBPSO算法寻找与主题相关的更加合适的材料, 最后采用贪婪方法实现对课程排序, 实现个性化的复习课程生成. De-Marcos等[8]构建了基于能力的学习对象排序问题模型, 以能力定义学习单元顺序, 并运用粒子群算法进行优化计算, 实现了较好的优化效果.吴雷等[9]提出了学习路径优化数学模型, 引入知识结构图, 考虑知识点之间的顺序约束关系, 并将局部邻域搜索与禁忌搜索相结合的二进制粒子群算法应用于学习路径优化中, 此方法在一定程度上解决了陷入局部最优的问题. Gao等[10]将多目标无速度粒子群算法用于Moodle学习系统中的个性化电子课程组合, 实验表明此算法具有良好的有效性.
目前, 利用智能优化算法解决在线学习路径优化存在的主要问题有: 1)在线学习路径优化模型构建还不完善, 已有研究对学习者基本信息(如学习目标、学习能力等)、学习资源基本信息(如难度水平、学习支出)与学习者个性化信息(如学习风格等)、学习资源类型信息的融合建模考虑不足, 往往忽视学习者个性化信息与学习资源类型的关系, 降低了学习路径的推荐效果, 影响了学习路径与学习者的匹配度; 2)具有参数少、易于实现、收敛性能好的二进制粒子群算法依然存在陷入局部最优问题, 影响学习路径推荐速度和学习路径推荐匹配度.
针对上述问题, 本文利用学习者信息特征和学习资源信息特征, 建立多维信息特征映射模型MIFMM.该模型不仅考虑到学习者和学习资源的基本信息, 而且融和了学习者个性化信息特征和学习资源类型信息特征, 实现基本信息和个性化信息的融合建模.大量研究表明, 学习资源内容应满足学习者的学习风格特点[11-12].将个性化学习风格信息融入到基本信息模型中, 更加符合在线学习路径个性化的推荐需求.设计了基于进化状态的双映射二进制粒子群优化算法DMBPSO, 通过进化因子划分不同进化状态, 选择相应的映射函数, 提高算法推荐学习路径的效率, 并通过惯性权重的动态调整, 帮助算法跳出局部最优, 提高算法推荐学习路径的匹配度.最后提出基于多维信息特征映射模型的在线学习路径优化方法(MIFMM-POA), 该方法以MIFMM模型为核心, 利用DMBPSO算法对模型进行优化, 并通过仿真实验验证了MIFMM-POA方法的有效性.
1 问题描述和模型建立 1.1 问题描述学习路径优化是为了使智能化在线学习系统能够根据学习者的知识水平和学习目标对被推荐的学习资源进行重组排序, 形成适合学习者的学习路径, 使其快速有效地完成学习目标.在线学习路径的优化问题可以描述为:在学习资源推荐完成基础上, 充分考虑学习者信息特征和学习资源信息特征, 根据信息特征相斥度依次将学习资源进行排序, 学习者从一个学习资源开始学习, 直到完成所有资源的学习, 即完成一门课程学习.学习路径优化问题的解为学习资源组成的一组序列, 这组序列是学习者特征和学习资源特征综合优化的结果.
学习者信息特征用向量U={u1, u2, u3, u4}表示, u1, u2, u3, u4分别表示学习者的能力信息、学习者正在学习的学习资源信息、学习者需要学习的目标知识点信息、学习者个性的学习风格信息; 学习资源信息特征用向量RES={res1, res2, res3, res4}表示, res1, res2, res3, res4分别表示学习资源难度信息、学习者待将学习的资源信息、学习资源规模信息、学习资源类型信息.根据文献[13]中阐述的kolb学习风格, 并结合文献[14], 本文将学习者的风格按照kolb学习风格划分为聚合型、发散型、同化型、调节型4种, 学习资源类型分为文本、图片、音频或视频、互动学习软件4种.不同学习风格类型的学习者对学习资源类型的偏好是不同的, 聚合型学习风格的学习者更喜欢文本类型的学习资源, 发散型学习风格的学习者更喜欢图片类型的学习资源, 同化型学习风格的学习者更喜欢音频或视频类型的学习资源, 调节型学习风格的学习者更喜欢在交流探讨中学习.满足学习者学习风格的学习路径推荐会有效提高学习者的学习效率和学习路径与学习者的匹配度.
1.2 相斥度定义相斥度大小是学习路径与学习者信息特征匹配度的衡量标准, 用来检验所推荐的学习路径与学习者需求的符合程度.相斥程度越小, 表明当前学习路径越符合学习者的个性化需求; 反之, 则越偏离学习者需求.相斥度由学习者特征与学习资源信息特征构建的相斥度函数获得, 用MD表示.
1.3 参数表示 1.3.1 学习者信息特征参数化表示1) 学习者能力信息.
定义学习者L={L1, L2, ..., Lk}表示K个学习者, K表示学习者的总数量, Lk表示第k个学习者, 1≤ k≤ K.定义学习者的能力信息A={a1, a2, ..., ak}代表K个学习者的能力水平信息, ak代表第k个学习者Lk的学习能力水平信息.
2) 学习者需要学习的目标知识点规模信息.
定义学习者需要学习的目标知识点C={c1, c2, ..., cm}表示M个知识点, M表示知识点的总数量, cm表示第m个知识点, 1≤ m≤ M.
3) 学习者正在学习的学习资源信息.
定义学习者正在学习的学习资源为nri, 即表示第i个学习资源为学习者正在学习的学习资源, 由m个知识点与之对应, nri= {nr1i, nr2i, ..., nrmi}, 1≤ m≤ M, 1≤ i≤ N, M为知识点数量, N为学习资源总数量.
4) 学习者的学习风格信息.
定义学习者的学习风格为e={e1, e2, e3, e4}, e1, e2, e3, e4分别表示学习者的学习风格为聚合型、发散型、同化型、调节型, 学习者学习风格数量用Q表示.学习者所展现的学习风格往往不是单一风格, 4种不同风格会有不同程度的呈现.设ST={ST1, ST2, ..., STk}表示K个学习者的学习风格, STk表示第k个学习者的学习风格.每个STk都包含Q个一维向量, STk={STk1, STk2, ..., STkq}表示学习者与学习风格的匹配值, 其中STkq表示第k个学习者与第q个学习风格的匹配值. 1≤ k≤ K, 1≤ q≤ Q, 0≤ STkq≤ 1, 满足以下表达式:
(1) |
1) 学习资源规模信息.
定义学习资源r={r1, r2, ..., rn}, rn表示第n个学习资源, 1≤ n≤ N, n个学习资源是知识点m对应的n个学习资源, 即rn={rm1, rm2, ..., rmn}, 1≤ m≤ M.
2) 待将学习的学习资源信息.
定义学习者待将学习的学习资源为lrj, 即表示第j个学习资源为学习者待将学习的学习资源, 由m个知识点与之对应, lrj={lr1j, lr2j..., lrmj}, 1≤ m≤ M, 1≤ j≤ N.
3) 学习资源难度水平信息.
定义学习资源的难度d={d1, d2, ..., dn}, dn表示第n个学习资源的难度水平, 学习资源分为学习者正在学习的学习资源nri和学习者待将学习的学习资源lrj, 则dnri表示学习者正在学习的第i个学习资源的难度水平信息, dlrj表示学习者待将学习的第j个学习资源的难度水平信息.
4) 学习资源类型信息.
定义学习资源类型B={b1, b2, b3, b4}, b1, b2, b3, b4分别表示学习资源类型为文本、图片、音频或视频、互动学习软件, 学习资源类型数量用P表示.学习资源的类型往往不是单一类型, 会呈现出多种方式.设RK={RKn1, RKn2, ..., RKnp}表示学习资源与资源类型的匹配值, 其中RKnp表示第n个学习资源与第p个资源类型的匹配值, 满足以下表达式:
(2) |
定义学习资源推荐路径变量为xnrilrj, 变量xnrilrj的值用二进制编码, 其中1≤ i≤ N, 1≤ j≤ N.学习路径为第i个学习资源到第j个学习资源, 则xnrilrj=1, 否则xnrilrj=0.
1.4 模型建立根据信息参数化表示, 构建在线学习路径多维信息特征映射模型(MIFMM), 如图 1所示.
在图 1的映射模型中, 对于信息特征参数集合A和子函数值集合B存在映射关系f, 使得对于任意的x∈ A, 有唯一的y∈ B存在, 则f为集合A到集合B的映射.映射关系记为f:A→ B.信息特征参数集合A在映射关系f下, 得到子函数值集合B.
信息特征参数集合A表示学习者信息特征和学习资源信息特征的集合, 有
(3) |
其中: ui表示学习者的第i个信息特征; resj表示学习资源的第j个信息特征, 满足约束条件i=j.
子函数值集合B表示集合A在映射关系f下的子函数值, 即学习者能力与资源难度差异信息值、学习资源间的支出信息值、知识点与学习资源的相关度信息值、学习风格与资源类型的相关度信息值, 有
(4) |
其中Fi表示在第i个子函数值, 通过构建的映射关系获得.
模型中映射关系f为
(5) |
信息特征参数集合A在映射关系f下, 得到子函数值集合B.具体地, 在信息特征参数集合A满足i=j的约束条件下, 学习者能力信息和学习资源难度信息通过子映射函数F(1)得到子函数值集合B中的第1个子函数值F1, 即学习者能力与资源难度差异信息值; 正在学习的资源信息和待将学习的资源信息通过子映射函数F(2)得到子函数值集合B中的第2个子函数值F2, 即学习资源间的支出信息值; 目标知识点规模信息和学习资源规模信息通过子映射函数F(3)得到子函数值集合B中的第3个子函数值F3, 即知识点与学习资源的相关度信息值; 学习风格信息和学习资源类型信息通过子映射函数F(4)得到子函数值集合B中的第4个子函数值F4, 即学习风格与资源类型的相关度信息值.
映射关系f中, dnri和dlrj分别表示学习者正在学习的第i个学习资源难度水平和学习者待将学习的第j个学习资源的难度水平, 1≤ i≤ N, 1≤ j≤ N. ak表示学习者k的学习能力水平, 不同的学习资源下, 学习者k的学习能力水平是不同的; snrilrj表示第i个正在学习的学习资源与第j个待将学习的学习资源之间的学习支出; Zn表示学习资源的选择情况, 值设为1, 即考虑在学习资源推荐完成之后的情况下排序; Rmn表示第m个知识点与第n个学习资源的匹配度.学习者与学习路径相斥度函数由子映射函数通过加权系数构建, 有
(6) |
其中ωi表示权重系数.此函数获得的值即为相斥度MD.
2 模型求解基于MIFMM模型求解在线学习路径, 是一个组合优化问题.为了提高在线学习路径与学习者信息特征的匹配度, 在MIFMM模型基础上, 设计基于进化状态的双映射二进制粒子群算法DMBPSO, 并提出MIFMM-POA在线学习路径优化方法.首先利用Logisitic映射, 即混沌策略进行在线学习资源初始化; 然后定义进化因子ef; 接着通过模糊分类方式将路径优化过程分为收敛和跳出局部最优两个状态, 针对学习路径优化过程的不同状态选取对应的映射函数, 提高在线学习路径的优化效果; 最后根据海明距离对惯性权重进行动态增减策略, 目的是为了适应在线学习路径不同的优化状态.通过MIFMM-POA优化方法, 提高所推荐的学习路径与学习者的匹配度. MIFMM模型求解在线学习路径优化问题流程如图 2所示.
原始二进制粒子种群采用随机策略进行种群初始化, 易导致推荐给学习者的学习资源出现学习资源分布状态不佳、质量参差不齐等问题.因此, 此处采用Logistic映射进行学习资源的初始化, 吸取混沌运动具有全局遍历性的优势, 提高初始种群粒子质量和二进制粒子群算法的搜索性能, 确保推荐给学习者的学习路径与学习者较高的匹配度, 有
(7) |
其中: k表示迭代次数; μ表示控制系统混沌行为的参数, 设置值为4.如果yk+1大于0.5, 则yk+1等于1, 反之等于0.
2.2 在线学习路径的多维信息特征相斥度函数构建将以上构建的4个子映射函数配以相应的权重值, 采用线性加权法构建在线学习路径的多维信息特征相斥度函数min F(x), 获得相斥度MD, 有
(8) |
相斥度函数F(x)中, 满足
(9) |
通过对BPSO中种群初始化、映射函数与惯性权重的改进提出DMBPSO算法.种群初始化在第2.1节有详细阐述, 本节介绍映射函数与惯性权重改进策略.
2.3.1 映射函数改进BPSO算法采用S型映射函数, 有
(10) |
文献[16]分析了S型与V型函数的优劣, 根据文献分析, 将BPSO算法中单映射函数策略改为双映射函数策略, 即使得S型和V型两个映射函数适应不同的进化状态, 并提出新的V型映射函数. S型映射函数与基本BPSO相同; V型映射函数公式如下所示:
(11) |
其中x的取值为[-1, 1].
2.3.2 惯性权重改进BPSO算法中惯性权重为固定的值, DMBPSO算法根据种群的进化状态, 为每一次进化动态非线性调整惯性权重值, 惯性权重动态调整为
(12) |
其中: a用来平衡公式前半部分和后半部分协同变化的速率, ωmax和ωmin分别为惯性权重的最大和最小值.通过式(12)能够实现根据搜索过程的进化状态动态增减惯性权重值, 更加符合种群的迭代进程.
2.4 利用DMBPSO算法优化学习路径相斥度函数 2.4.1 定义进化因子ef利用海明距离作为粒子间距离的衡量标准, 根据海明距离与迭代次数的关系定义进化因子ef.任意两个粒子X1与X2的距离可由海明距离表示为
(13) |
基于海明距离与算法迭代次数的关系, 定义进化因子为
(14) |
其中: HD表示海明距离均值; k用来调节海明距离均值对指数函数的调节能力; t和T分别为种群的当前迭代次数与最大迭代次数, 当t=T时, ef=1.
2.4.2 利用模糊理论进行进化状态划分分析和利用种群的进化状态能够有效提高算法的收敛性能.在上述进化因子ef的基础上, 利用三角形隶属函数, 根据ef值的大小对进化状态进行划分.
参考文献[17-18], 本文以三角形隶属函数作为改进基础, 有
(15) |
将迭代过程分为收敛和跳出局部最优两个状态, 分别以S1和S2表示.若进化因子ef≤ 0.6, 则E=S1; 若ef>0.6, 则E=S2. E表示当前进化状态.
2.4.3 惯性权重更新根据式(12)进行惯性权重的更新.
2.4.4 粒子速度更新粒子速度更新采用基本二进制粒子群优化算法中的公式, 有
(16) |
其中: c1、c2为学习因子, r1、r2为[0, 1]之间的随机数, pij为粒子个体历史最优, gij为种群最优.
2.4.5 映射函数选择S型映射函数和V型映射函数的优化效果在文献[16]中已有阐述, 种群在完成几乎一半的迭代次数后, 具有V型映射函数的BPSO的收敛速度超过了具有S型映射函数的BPSO, V型映射函数具有加速收敛行为, 而S型映射函数具有稳定的收敛行为.基于此, 当种群处于S1收敛状态时, 采用S型映射函数; 当种群处于S2跳出局部最优状态时, 采用V型映射函数; 用map表示映射函数选择, 有
(17) |
根据第2.4.2节中进化状态的划分, 利用两种不同映射机制的收敛性能提高算法收敛性能.
2.4.6 相斥度MD计算通过式(8)计算学习者与学习路径的相斥度MD, 进而根据相斥度MD判断学习路径的优化性能.
2.4.7 在线学习路径优化方法MIFMM-POAMIFMM-POA在线学习路径优化方法从路径推荐模型和二进制粒子群优化两个方法实现路径优化效率和推荐匹配度的提高.多维信息特征映射模型融合了学习者的kolb学习风格信息和学习资源的类型信息, 更加符合学习者的个性化需求, 提高学习路径匹配度.子映射函数在通过加权系数ωi后构建学习者与学习资源的相斥度函数, 利用双映射二进制粒子群算法DMBPSO进行优化求解; DMBPSO算法通过Logistic实现在线学习资源的均匀分布, 通过双映射函数实现学习路径优化性能的提升. MIFMM模型和DMBPSO算法共同实现在线学习路径与学习者匹配度的提高, 实现在线学习路径的优化.
3 实验仿真 3.1 实验设计为了验证所提出方法优化学习路径的性能, 设计如下6组实验, 实验参数如表 1所示.
知识点CM数量的不同会影响在线学习路径的准确度和匹配度, 学习者LK数量的多少同样也会对学习路径规划的速度和精度产生影响, 因此, 本文分别设置不同的知识点和学习者观察在线学习路径优化的性能情况. 表 1中设置的学习资源rN个数是一个知识点分别对应的学习资源个数, 即一个知识点在5个学习资源中都有存在.实验1、实验2、实验3是在学习者相同的情况下, 设置不同的知识点进行对比的实验效果, 在这3组实验中, 对应的学习资源总数分别为250, 500, 1 000;实验4、实验5和实验6是在知识点数相同的情况下, 设置不同的学习者进行对比的实验效果, 此3组实验中学习资源总数分别为2 500, 5 000, 10 000.实验中, 学习者的能力水平依次分为[A1, A2, A3, A4, A5]5个等级, 分别表示学习者能力弱、较弱、一般、较强、强, 数字越大, 表明学习者的能力越强.学习资源的难度水平依次分为[D1, D2, D3, D4, D5]5个等级, 分别表示学习资源难度低、较低、适中、较高、高, 数字越大, 表明在线学习资源的难度越大.
上述学习资源中包括学习前测、概念详解、学习实例、学习后测等.不同学习资源所具有的信息特征与学习者所具有的信息特征, 其匹配度是不同的.当通过信息特征检测到学习者与学习前测有关的学习资源匹配度较高时, 在线学习资源推荐系统会推荐给学习者难度较低、处于该知识点入门水平的学习资源; 完成该学习资源后, 会再次对信息特征进行重新匹配, 此时若学习者掌握了学习前测资源, 表明学习者对该知识点的能力水平有所提升, 则会根据信息特征匹配结果, 进一步推荐该知识点的后序学习资源, 如概念详解、学习实例和学习后测, 直至学习者掌握该知识点.
针对上述6组实验, 基于MIFMM模型的在线学习路径优化方法, 分别以BPSO[15]、RPSO[19]、LPSO[19]、VBPSO[16]和本文提出的DMBPSO为核心算法进行实验对比, 观察所得学习路径优化效果的差别.文献[15, 19]的模型与本文在线学习路径优化模型构建思想相似, 文献[16]算法与本文双映射DMBPSO算法改进角度相同, 因此选择以上算法做实验对比.文献[7]采用离散粒子群优化算法为学习者选择合适的复习材料, 所用算法与本文DMBPSO相比, 虽然都是将粒子通过速度或者位置向量的改进以适应离散空间问题, 但二者改进角度有所差异. DMBPSO算法从映射函数角度出发, 将速度值映射为粒子位置变化的概率, 从而确定粒子位置的更新, 并改进惯性权重以适应粒子的进化状态; 文献[7]算法的粒子位置更新则是通过新的速度向量完成, 并未涉及映射函数, 也没有对惯性权重做出改进.
基于MIFMM模型的在线学习路径优化方法中所利用的核心算法优化策略如下: BPSO属于基本的二进制粒子群算法; RPSO和LPSO均采用S型映射函数, 惯性权重的调整分别利用随机策略和线性递减策略; VBPSO采用V型映射机制, 惯性权重的调整利用线性递减策略; 本文所提出的DMBPSO算法采用V型映射函数, 惯性权重的调整利用非线性动态调整策略.各个核心算法的参数设置如下:种群规模N=20, 代表惯权重ω取值范围为[0.4, 0.9], 学习因子c1/c2值为2, 最大迭代次数Max_iteration = 100, BPSO、RPSO、LPSO、VBPSO最大速度Vmax = 6, DMBPSO最大速度设置为2.
3.2 实验环境算法仿真实验环境为windows7操作系统, 编程语言环境为Matlab R2012a, 硬件环境为intel酷睿处理器i5-4570, 主频为3.20 GHz, 内存为4 GB.
3.3 实验结果分析 3.3.1 寻优精度对比分析所有核心算法的实验数据均在实验平台上独立运行30次获得, 表 2是各个算法独立运行30次后获得的均值和方差, 最优值用加粗表示.
本文构建相斥度函数是为了表示学习者信息特征和在线学习资源信息特征之间的相斥度, 两者之间的相斥度越小, 表明此学习路径越符合学习者的需求, 与学习者具有越高的匹配度, 因此学习路径的规划会更加准确.表中显示的数据即是所构建相斥度函数值的平均值和方差.从均值的数据可以看出, 在所有的核心算法中, DMBPSO核心算法所得到的两者之间差值的平均值和方差是最小的, 表明该算法规划的学习路径更加准确且更加符合学习者特征.从方差的数据可以看出, 利用DMBPSO核心算法所得到的方差数据同样是所有核心算法中最小的, 表明运用DMBPSO核心算法构建的学习路径优化方法进行的学习路径优化具有更好的稳定性.
3.3.2 寻优过程对比分析图 3是6组实验下5种核心算法的寻优过程对比.通过寻优过程对比可以观察到各个核心算法的寻优过程情况和寻优性能.
图 3是在不同知识点和不同学习者情况下得到的信息特征匹配度收敛结果. 图 3(a)~图 3(c)表示的3组实验中知识点数量不同, 通过对比在不同知识点数量下的数据和信息特征相斥度均值收敛曲线图可以看出, DMBPSO核心算法具有更好的收敛速度和收敛稳定性, 表明随着知识点数量的增加, 利用DMBPSO核心算法优化的在线学习路径更加符合学习者的特征, 呈现出较好的优化速度和匹配度. 图 3(d)~ 图 3(f)表示的3组实验中只有学习者数量不同, 通过对比在不同学习者数量下的数据和信息特征相斥度均值收敛曲线图可以看出, DMBPSO核心算法同样具有更好的收敛速度和收敛稳定性, 表明随着知识点数量的增加, 利用DMBPSO核心算法优化的在线学习路径同样能够较好地满足学习者的需求, 呈现出较好的优化速度和优化匹配度.
3.3.3 寻优时间对比分析为了分析各核心算法用于在线学习路径的寻优时间, 分别将各核心算法独立运行15次得到运行时间数据平均值, 绘制运行时间曲线如图 4所示.
各核心算法在实验1~实验6上各迭代100次.从图 4可以看出, 从实验1到实验6, LPSO核心算法运行时间最多, DMBPSO核心算法的运行时间与用时最少的BPSO核心算法相近, 表明DMBPSO核心算法在寻优时间上具有较好的表现, 运用DMBPSO核心算法构建的MIFMM-POA方法优化的学习路径具有较好的性能表现.
4 结论本文针对目前在线学习路径优化方法存在学习路径匹配度不高的问题, 提出了基于多维信息特征映射模型的在线学习路径优化方法MIFMM-POA.通过定义信息特征集合, 构建映射关系f, 并设计相斥度函数, 利用改进的DMBPSO算法进行在线学习路径寻优.实验结果表明, 利用MIFMM-POA方法优化的学习路径与学习者匹配度较高, 具有较好解决在线学习路径优化问题的优势.所提出的MIFMM-POA学习路径优化方法能够提供与学习者能力、学习风格等特征相符合的学习资源序列, 满足学习者个性化需求, 为学习者开展自适应学习奠定基础, 降低学习者的认知负荷, 提高学习效率.在后续研究工作中将对学习者和学习资源模型继续完善, 同时结合在线学习平台实际应用效果进一步改进和优化此方法.
[1] |
Hnida M, Idrissi M K, Bennani S. A novel approach for smart curriculum sequencing based on HSA evolutionary computation[C]. IEEE Int Colloquium on Information Science and Technology. Morocco: IEEE, 2017: 547-552.
|
[2] |
Xu J, Xing T, Schaar M V D. Personalized course sequence recommendations[J]. IEEE Trans on Signal Processing, 2016, 64(20): 5340-5352. DOI:10.1109/TSP.2016.2595495 |
[3] |
吴高超.基于粒子群算法的路径规划问题研究[D].秦皇岛: 燕山大学信息科学与工程学院, 2016. (Wu G C. Research on path planning based on particle swarm optimization[D]. Qinhuangdao: School of Information and Engineering, Yanshan University, 2016.) |
[4] |
张宏立, 李瑞国, 范文慧, 等. 基于量子粒子群的全参数连分式混沌时间序列预测[J]. 控制与决策, 2016, 31(1): 52-58. (Zhang H L, Li R G, Fan W H, et al. Quantum particle swarm optimization based on full parametric contingency fractional chaotic time series prediction[J]. Control and Decision, 2016, 31(1): 52-58.) |
[5] |
宫华, 袁田, 张彪. 基于深度邻域搜索PSO算法的装配序列优化问题[J]. 控制与决策, 2016, 31(7): 1291-1295. (Gong H, Yuan T, Zhang B. Assembly sequence optimization based on deep neighborhood search PSO algorithm[J]. Control and Decision, 2016, 31(7): 1291-1295.) |
[6] |
王学武, 严益鑫, 顾幸生. 基于莱维飞行粒子群算法的焊接机器人路径规划[J]. 控制与决策, 2017, 32(2): 373-377. (Wang X W, Yan Y X, Gu X S. Welding robot path planning based on levi flight particle swarm optimization[J]. Control and Decision, 2017, 32(2): 373-377.) |
[7] |
Wang T I, Tsai K H. Interactive and dynamic review course composition system utilizing contextual semantic epansion and discrete particle swarm optimization[J]. Expert Systems with Applications, 2009, 36(6): 9663-9673. DOI:10.1016/j.eswa.2008.12.010 |
[8] |
De-Marcos L, Martínez J J, Gutiérrez J A. Particle swarms for competency-based curriculum sequencing[C]. World Summit on the Knowledge Society: Emerging Technologies and Information Systems for the Knowledge Society. Athens: Springer, 2008: 243-252.
|
[9] |
吴雷, 方卿. 基于改进粒子群算法的学习路径优化方法[J]. 系统科学与数学, 2016, 36(12): 2272-2281. (Wu L, Fang Q. Learning path optimization method based on improved particle swarm optimization[J]. J of Systems Science and Mathematical Sciences, 2016, 36(12): 2272-2281.) |
[10] |
Gao Y, Peng L, Li F, et al. A multi-objective PSO with pareto archive for personalized course composition in moodle learning system[C]. Int Symposium on Computational Intelligence and Design. Hangzhou: IEEE, 2016: 21-24.
|
[11] |
Brusilovsky P, Maybury M T. From adaptive hypermedia to the adaptive web[J]. Communications of the ACM, 2003, 45(5): 30-33. |
[12] |
Tseng J C R, Chu H C, Hwang G J, et al. Development of an adaptive learning system with two sources of personalization information[J]. Computers & Education, 2008, 51(2): 776-786. |
[13] |
Akkoyunlu B S, Meryem Y. A study of student's perceptions in a lended learning environment based on different learning styles[J]. J of Educational Technology and Society, 2008, 11(1): 183-193. |
[14] |
程岩. 在线学习中基于群体智能的学习路径推荐方法[J]. 系统管理学报, 2011, 20(2): 232-237. (Cheng Y. A method of swarm intelligence-based learning path recommendation for online learning[J]. J of Systems & Management, 2011, 20(2): 232-237.) |
[15] |
Chu C P, Chang Y C, Tsai C C. PC 2 PSO: Personalized E-course composition based on particle swarm optimization[J]. Applied Intelligence, 2011, 34(1): 141-154. |
[16] |
Mirjalili S, Lewis A. S-shaped versus V-shaped transfer functions for binary particle swarm optimization[J]. Swarm & Evolutionary Computation, 2013, 9: 1-14. |
[17] |
Meng X, Jia L. A new kind of PSO-convergent fuzzy particle swarm optimization and performance analysis[C]. The 4th Int Conf on Networked Computing and Advanced Information Management. Gyeongiu: IEEE Computer Society, 2008: 102-107.
|
[18] |
Zhan Z H, Zhang J, Li Y, et al. Adaptive particle swarm optimization[J]. IEEE Trans on Systems, Man, and Cybernetics, Part: B Cybernetics, 2009, 39(6): 1362-1381. DOI:10.1109/TSMCB.2009.2015956 |
[19] |
Dheeban S G, Deepak V, Dhamodharan L, et al. Improved personalized E-course composition approach using modified particle swarm optimization with inertia-coefficient[J]. Int J of Computer Applications, 2011, 1(6): 109-115. |