控制与决策  2019, Vol. 34 Issue (6): 1253-1258  
0

引用本文 [复制中英文]

蒋瑜. 基于改进差别信息树的粗糙集属性约简算法[J]. 控制与决策, 2019, 34(6): 1253-1258.
[复制中文]
JIANG Yu. Attribute reduction with rough set based on improved discernibility information tree[J]. Control and Decision, 2019, 34(6): 1253-1258. DOI: 10.13195/j.kzyjc.2017.1523.
[复制英文]

基金项目

国家自然科学基金项目(61602064);四川省教育厅重点项目(17ZA0071);成都信息工程大学中青年学术带头人科研基金项目(J201609)

作者简介

蒋瑜(1980-), 男, 副教授, 从事网络空间安全、粗糙集理论和数据挖掘等研究, E-mail: jiangyu@cuit.edu.cn

通讯作者

蒋瑜, E-mail: jiangyu@cuit.edu.cn

文章历史

收稿日期:2017-11-13
修回日期:2018-02-25
基于改进差别信息树的粗糙集属性约简算法
蒋瑜     
成都信息工程大学 软件工程学院,成都 610225
摘要:差别矩阵为属性约简提供了很好的思路, 差别信息树能有效消除差别矩阵中的冗余元素, 并实现对差别矩阵的压缩存储.然而, 差别信息树既没有考虑“核”属性在消除差别矩阵中冗余元素的作用, 也没有考虑属性序在压缩存储差别矩阵中非空元素的作用.对此, 基于“核”属性和属性序关系, 提出改进差别信息树, 该树能进一步实现对差别矩阵中非空元素的压缩存储.最后, 给出基于UCI数据库的仿真结果, 并通过仿真结果验证该树的有效性.
关键词粗糙集    差别矩阵    属性约简    改进差别信息树    属性重要度    
Attribute reduction with rough set based on improved discernibility information tree
JIANG Yu     
College of Software Engineering, Chengdu University of Information Technology, Chengdu 610225, China
Abstract: A discernibility matrix is a good idea for attribute reduction. Discernibility information tree can effectively eliminate redundancy elements in discernibility matrix, and it realizes the compactness storage of discernibility matrix. However, discernibility information tree neither considers the role of core attribute in eliminating redundancy elements nor considers the effect of attribute order in the compactness storage elements in the discernibility matrix. Therefore, an improved discernibility information tree is proposed, which can further compress the storage space of non-empty elements in the discernibility matrix. In order to verify the effectiveness of the improved discernibility information tree, some simulation experiments for UCI datasets are displayed.
Keywords: rough set    discernibility matrix    attribute reduction    improved discernibility information tree    attribute significance    
0 引言

属性约简(也称为知识约简或特征选择)是粗糙集理论研究的主要内容之一[1].所谓属性约简, 就是在保持知识库分类能力不变的前提下, 从条件属性集中删除不相关或不重要的冗余条件属性.通过属性约简可以从特征信息中提取有用的信息, 简化知识处理过程.文献[2]指出, 学者们基于不同的理论思想设计了许多优秀的属性约简算法.这些思想方法主要分为:正区域方法[3-5]、差别矩阵(或分辨矩阵或区分矩阵)方法[6-10]、信息熵方法[11-12]、基因方法[13-14]、蚁群方法[15-16]等.

差别矩阵为属性约简提供了很好的思路, 该方法将信息系统中所有属性的区分信息浓缩进一个矩阵中.对于给定的决策表、信息表或信息系统, 其差别矩阵是一个|U|×|U|的对角线为空的对称矩阵(其中U为决策表对象的集合), 差别矩阵中每一元素是由决策表中两对象在条件属性集C下取值不同的条件属性所构成的集合, 该集合称为差别信息(Discernibility information, DI)或区分信息.差别矩阵因其简洁直观而得到广大研究者的关注.目前, 基于差别矩阵或差别函数, 研究者已提出了许多优秀的属性约简启发式算法.文献[17]基于属性序关系和差别矩阵设计了一种优秀的属性约简启发式算法; 文献[18]提出了一种最小差别矩阵, 该矩阵中的所有非空元素都是单元素集, 即该矩阵中任意元素都只包含一个条件属性, 该最小差别矩阵中所有元素的“并”构成属性约简.然而, 这些启发式算法都具有较高的时间和空间成本, 这是因为这些算法雇用了差别矩阵中所有非空元素来构建属性约简, 而差别矩阵中大量重复元素和父集元素在属性约简中是没有任何作用的, 但这些元素的存在占据了大量的存储空间, 并且增加了求解属性约简的计算复杂度.

为了消除差别矩阵中冗余元素, 减少基于差别矩阵的属性约简的存储空间, 文献[19]提出了一种树型结构, 即差别信息树.该树是一棵基于条件属性从左到右序列的有序前缀树.在差别信息树中, 差别矩阵中的相同元素被映射到同一路径上, 并且部分具有子、父集关系的元素被映射到子集所对应的路径上, 再加上许多路径共享前缀, 因此相比差别矩阵, 差别信息树具有较低的存储复杂度.同时, 差别信息树也包含了构建属性约简所需的所有差别信息.但是, 文献[19]中所提出的差别信息树只考虑了在决策表中条件属性已有的顺序下该树的构建, 没有考虑其对差别矩阵压缩存储能力与属性序之间的关系, 并且差别信息树还存在一个致命的缺点, 即它不能确保完全消除所有核属性的父集.

针对上述问题, 需要设计一种新的数据结构, 实现差别矩阵中非空元素压缩存储的想法.基于该想法, 结合差别信息树的设计思想, 本文提出一种改进的差别信息树(Improved discernibility information tree, IDI-tree).该树雇用核属性剪枝策略和属性重要度降序策略:核属性剪枝策略可确保改进的差别信息树消除所有核属性的父集; 属性重要度降序策略可确保越重要的属性越靠近树的根节点, 并使得更多的属性在改进差别信息树中共享前缀和路径, 从而进一步压缩对差别矩阵中元素的存储.一般而言, 在Rough集约简理论下, 一个决策表的约简不是惟一的, 即对于同一个决策表可能存在多个约简.因为属性约简的目的是导出关于决策表的决策规则, 约简中属性的多少直接影响着决策规则的繁简和性能.因此, 人们往往期望找到具有最少条件属性的约简(最小属性约简).为了验证改进的差别信息树的有效性, 基于该树提出一种最小属性约简启发式算法, 该算法的主要策略是:在每次迭代过程中选择相对核属性, 为了确保能在下一次迭代过程中得到相对核属性, 该算法在迭代过程中必须删除非核叶子节点.

1 差别信息树

对于一个给定决策表所对应的差别矩阵, 其包含的任意元素都是决策表条件属性的子集.在给定的差别矩阵中, 其实存在许多冗余的重复元素和父集元素, 这些元素的存在不仅对属性约简没有任何帮助, 而且还占据了大量的存储空间, 并且增加了求解属性约简的计算复杂度.为了在不丢失差别矩阵所包含的约简信息的前提下, 实现对差别矩阵的压缩存储, 文献[19]提出了一种虚拟的树型结构, 即差别信息树, 该树是一棵基于条件属性从左到右顺序构建的有序树.该树雇用了不扩展路径策略和删除子树策略来确保删除差别矩阵中冗余元素, 实现了对差别矩阵中非空元素的压缩存储.

例1   表 1为某一差别矩阵, 其中U={u1, u2, ..., u6}, C={a, b, c, d, e}.

表 1 某一差别矩阵

基于差别信息树的定义和构建算法, 图 1给出了表 1构建的一棵差别信息树.

图 1 基于表 1构建的差别信息树

图 1所示, 差别矩阵中许多非空元素在差别信息树中共享一条路径或前缀.例如, 属性集{a, b, c, d, e}、{a, b, c, d}和{a, b, c}共享路径〈a, b, c〉, 属性集{a, b, c}、{a, c, d, e}共享前缀〈a〉, 因此实现了对差别矩阵的压缩存储.然而, 文献[19]中提出的差别信息树只是基于条件属性从左至右的顺序构建的一棵有序树, 根本没有考虑差别信息树对差别矩阵压缩存储能力与属性序之间的关系, 也就是说, 基于不同的属性序, 差别信息树可能具有更好的压缩存储能力.另外, 由表 1图 1可知, 属性b是核属性, 但是差别信息树中并没有消除包含核属性b的路径〈a, b, c〉.因此, 基于以上分析, 需要重新设计一种新的数据结构近一步压缩存储差别矩阵中的非空元素.

2 改进差别信息树的设计与实现

本节针对传统差别信息树的不足, 结合属性重要度和核属性剪枝等策略, 提出一种基于属性重要度和核的改进差别信息树结构.

2.1 核属性剪枝策略

众所周知, 决策表的“核”是一个非常重要的条件属性集的子集, 表示为CoreC(D).它是由决策表所有约简的“交”运算计算而来.对于差别矩阵而言, 差别矩阵中所有只包含一个元素的集合的“并”构成决策表的核, 如表 1中的CoreC(D)={b}所示.核之所以重要, 是因为核中任意一属性被删除都会影响决策表的分类能力.基于该分析, 在压缩存储差别矩阵非空元素时, 如果让决策表的核作为启发信息, 则在构建改进差别信息树时, 不仅不需要在差别矩阵中出现晚于核属性的父集元素参与构建树, 而且能消除树中已构建且包含核属性的路径, 从而实现消除差别矩阵中所有核属性的父集冗余元素.

算法1  基于核的改进差别信息树构建算法.

输入:决策表T;

输出:改进差别信息树IDI-tree和CoreC(D).

get IDI-tree(decision table T)

{

1) 令CoreC(D)=∅;

2) 创建改进差别信息树根节点TN, 并令TN为null;

3) 对于决策表T中每个对象对〈xi, xj〉, 计算其差别信息DI;

if(DI∩CoreC(D)==∅){

if(|DI|==1)CoreC(D)=CoreC(D) ∪ DI且根据属性指针头表删除含有该核属性的所有路径;

while(DI≠∅){

  ⅰ)令属性b是排列在DI中最左边的元素;

  ⅱ) if(TN有一子节点N, 且N的属性名为b)

  {

  如果N是一叶子节点, 返回; 否则TN=N

  }

else{

    a)创建一新节点N', 节点N'作为TN一子节点, 同时初始N'的属性名为b, 并通过该节点的同名指针连接到具有与该节点有相同属性名的节点上, 从而构成一个同名属性节点链;

    b)令TN=N'.

}

    ⅲ) DI= DI-{b}.

    }

  }

}

例2  基于算法1和表 1给出改进差别信息树的具体构建过程如下.

首先, 创建改进差别信息树的根节点.

其次, 构建第1条差别信息{a, b, c, d, e}所对应的路径〈a, b, c, d, e〉, 并插入到改进差别信息树中.对于第2条差别信息{a, b, c, d, e}, 由于该差别信息与改进差别信息树中路径〈a, b, c, d, e〉所对应的差别信息相同, 所以第2条差别信息{a, b, c, d, e}也映射到路径〈a, b, c, d, e〉上.对于第3条差别信息{b}, 由于b是核属性, 则通过同名指针删除改进差别信息树中包含有节点(b)的所有路径, 且令CoreC(D)为{b}, 并把差别信息{b}插入到改进差别信息树中, 这时该改进差别信息树中只包含一条路径〈b〉.对于第4条差别信息{a, b, c}, 由于该差别信息包含了核属性, 不构建该差别信息所对应的路径.同理, 重复上面构建过程, 直至把最后一条差别信息{a, b, c, d, e}插入改进差别信息树中. 图 2给出了基于算法1和表 1构建的改进差别信息树.

图 2 基于表 1和算法1构建的IDI-tree

由以上改进差别信息树的构建过程可知, 相比于差别信息树, 改进差别信息树中完全消除了核属性的父集差别信息, 并且在构建树的过程中, 不需要所有的差别信息参与.例如, 在例2中, 只有差别信息{a, b, c, d, e}、{a, b, c, d, e}、{b}、{d, e}和{a, c, d, e}参与了改进差别信息树的构建, 而在核元素b出现后, 那些后面出现的且包含核元素b的差别信息{a, b, c}、{a, b, c, d}和{a, b, c, d, e}直接被核属性剪枝策略过滤掉, 从而不参与改进差别信息树的构建, 所以只有差别信息集{{a, b, c, d, e}, {a, b, c, d, e}, {b}, {d, e}, {a, c, d, e}}参与了改进差别信息树的构建.

2.2 属性重要度策略

核属性剪枝策略虽然保证了能消除核属性的父集差别信息, 但是不能确保其他父集差别信息能被删除.

对于算法1而言, 如果差别信息DI中的属性按照下列两种顺序排列: 1) order(DI)=〈a, b, c, d, e〉; 2) order(DI)=〈d, e, a, b, c〉.则算法1构建的改进差别信息树如图 2图 3所示.

图 3 IDI-tree:order(DI)=〈d, e, a, b, c

图 2图 3可以看出, 在改进差别信息树中, 图 2拥有7个节点(除了根节点), 而图 3只拥有3个节点.显而易见, 就压缩存储差别信息而言, 图 3代表的改进差别信息树具有最大的压缩能力.根据以上分析可知, 在参与构建改进差别信息树的差别信息集{{a, b, c, d, e}, {a, b, c, d, e}, {b}, {d, e}, {a, c, d, e}}中, 属性de的出现频率最高.基于差别矩阵的属性重要度定义为属性在差别矩阵中出现的次数.由此可知, 属性de具有较高的重要度.属性重要度表示了属性在决策表中的重要程度.属性越重要, 其在决策表中所处位置越高, 反之亦然.如果在构建改进差别信息树时, 加入属性重要度作为启发式信息, 则由上面的分析可知, 它不但能使越重要的属性越靠近根节点, 加大改进差别信息树的压缩程度, 还能有效消除父集差别信息.基于以上分析, 在算法1的基础上结合属性重要度策略设计基于核属性和属性重要度的改进差别信息树, 称为算法2.

算法2  算法2是在算法1的基础上增加计算属性重要度, 令CList为按属性重要度降序排列的属性序列, 并对于所有的差别信息DI都按该序列排列, 除此之外, 算法2中的其他计算步骤与算法1相同.

2.3 改进差别信息树的复杂度分析

对于给定的决策表S=(U, CD, V, f), 有|U|个对象和|C|个条件属性, 则在该决策表对应的差别矩阵中最多存在|U|2-|U|个非空元素.假设CoreC(D)为决策表S对应的核, N为差别矩阵中实际非空元素个数, 则改进差别信息树中最多包含N条路径, 而每条路径中最多包含|C|个节点, 因此差别信息树中最多包含|C|×(N-|CoreC(D)|)+|CoreC(D)|个节点, 又由于在改进差别信息树中许多路径共享前缀节点, 改进差别信息树中节点数远远小于|C|×(N-|CoreC(D)|)+|CoreC(D)|.综上所述, 在最坏情况下改进差别信息树的空间复杂度为O(|C|×|U|2).

另外, 在改进差别信息树的构建过程中, 向树中插入路径的次数最多为|U|2-|U|次, 并且每次构建树中路径时, 最多比较和插入|C|个节点, 删除Ni节点, 那么改进差别信息树的时间复杂度为|C|×(|U|2-|U|)+(N1+...+N|U|2-|U|).因为改进差别信息树中最多包含|C|×(|U|2-|U|-|CoreC(D)|)+|CoreC(D)|个节点, 所有N1+...+N|U|2-|U|的值最多为|C|×(|U|2-|U|-|CoreC(D)|)+|CoreC(D)|, 从而可得改进差别信息树的时间复杂度也为O(|C|× |U|2).

3 基于改进差别信息树的属性约简算法

为了验证本文提出的改进差别信息树的有效性, 基于改进差别信息树, 采用至下而上的策略, 提出一种基于改进差别信息树的粗糙集属性约简算法.算法具体描述如下.

算法3  基于改进差别信息树的属性约简算法.

输入:改进差别信息树;

输出:决策表的一个属性约简.

1) 创建一空集R.

2) 获取改进差别信息树的头表HT, 并令CList为头表中属性至上而下的有序序列集合.

3) 集合Core'C(D)是由改进差别信息树中只含有一个节点的路径所对应的属性所构成的集合.

4) 若Core'C(D)非空, 则对所有a∈Core'C(D), 在改进差别信息树中删除包含a属性的所有路径.

5) 令R←Core'C(D)且CList←CList-Core'C(D).

6) while CList≠∅∧IDI-tree≠∅ do{

ⅰ)选取CList中最右边的一属性Ci, 令CList←CList-{Ci};

ⅱ)如果HT[Ci]≠∅并且CiR, 则根据头表HT[Ci]所对应的同名指针, 搜索同名指针构成的指针链, 在搜索过程中, 若链中节点为叶子节点, 则在改进差别信息树中删除该叶子节点;

ⅲ) 把改进差别信息树中的只有一个节点的路径所对应的属性加入集合R中, 并在改进差别信息树中删除包含这些属性的路径, 同时在CList中删除这些属性.

}

7) 输出R, 算法结束.

由改进差别信息树的构建算法可知, 改进差别信息树中越重要的属性越靠近根节点, 因为算法3采用至下而上的策略, 在每次迭代过程中删除最不重要的属性, 保留重要属性, 所以算法3能确保得到一个最小约简或优化约简.

例3   {{a, c}, {a, d}, {b}, {a, c}, {a, c, d}}是给定差别信息集, 算法2求得的改进差别信息树如图 4所示.

图 4 基于算法2的改进差别信息树:〈a, c, d, b

基于图 4, 算法3的求解过程如下:

1) 初始时R为空, 而CList为{a, c, d, b};

2) 属性b加入约简R中, 并从CList中删除属性b, 同时从改进差别信息树中删除含属性b的路径;

3) 选取CList中最右边属性d, 通过同名指针链删除包含属性d的叶子节点;

4) 选取CList中最右边属性c, 通过同名指针链删除包含属性c的叶子节点;

5) 将属性a加入约简R中, 并从CList删除属性a, 同时删除含属性a的路径;

6) 将此时差别信息树改进为只含根节点的空树, 算法结束, 输出约简R={a, b}.

4 实验结果及分析

为了验证本文提出的改进差别信息树的有效性, 本节选用UCI机器学习数据库中的数据在AMD A8-5550M APU with RadeonTM HD Graphics 2.1 GHz (4 GB内存, Microsoft Windows 7操作系统)上进行两个实验:差别信息树(DI-tree)、CDI-tree (文献[20])与改进差别信息树(IDI-tree)在存储差别信息的空间复杂度上的对比结果如表 2所示; 本文算法3与文献[19]和文献[20]所提出的约简算法在找最小属性约简上的对比结果如表 3所示.

表 2 基于DI-tree、CDI-tree和IDI-tree的实验结果
表 3 基于文献[19]、文献[20]和本文算法3在属性约简结果上的对比实验

表 2所示的实验结果可知, 改进差别信息树中的节点数远远小于|C|× |U|2, 并且与差别信息树和CDI-tree相比, 改进差别信息树进一步实现了对差别矩阵中非空元素的压缩存储, 例如, 基于voting数据集差别信息树中的节点数是改进差别信息树中节点数的18倍多, 基于Lymphography数据集的差别信息树和CDI-tree中的节点数是改进差别信息树中节点数的6倍多.所以基于表 3可以得出, 在存储差别信息时, 改进差别信息树具有更好的压缩能力.

另外, 由表 3的实验结果可知, 基于IDI-tree的最小属性约简算法比基于DI-tree和CDI-tree的最小属性约简算法更能有效地找到最小属性约简, 如Lymphography和letter数据集所示.

5 结论

本文基于差别信息树, 引入了属性重要度和核属性, 提出了一种改进差别信息树.实验结果表明, 该树具有对差别信息更好的压缩存储能力.然而, 本文的改进差别信息树没有考虑不同属性重要度顺序对压缩存储差别信息起到的作用, 下一步的工作将探讨快速的属性重要度计算方法, 以及在不同属性重要度关系下改进差别信息树是否能进一步对差别信息实现压缩存储.

参考文献
[1]
Pawlak Z. Rough sets[J]. Int J of Computer and Information Science, 1982, 11(5): 341-356. DOI:10.1007/BF01001956
[2]
Slowinski R. Intelligent decision support-handbook of applications and advances of the rough sets theory[M]. London: Kluwer Academic Publishers, 1992: 176-177.
[3]
Qian Y H, Liang J Y, Pedrycz W, et al. Positive approximation: An accelerator for attribute reduction in rough set theory[J]. Artificial Intelligence, 2010, 174(9/10): 597-618.
[4]
蒋瑜, 刘胤田, 李超. 基于Bucket Sort的快速属性约简算法[J]. 控制与决策, 2011, 26(2): 207-212.
(Jiang Y, Liu Y T, Li C. Fast algorithm for computing attribute reduction based on Bucket Sort[J]. Control & Decision, 2011, 26(2): 207-212.)
[5]
Wen S D, Bao Q H. A fast heuristic attribute reduction approach to ordered decision systems[J]. European J of Operational Research, 2018, 264(2): 440-452. DOI:10.1016/j.ejor.2017.03.029
[6]
Liu G L, Hua Z, Chen Z H. A general reduction algorithm for relation decision systems and its applications[J]. Knowledge-Based Systems, 2017, 119(5): 87-93.
[7]
王熙照, 王婷婷, 翟俊海. 基于样例选择的属性约简算法[J]. 计算机研究与发展, 2012, 49(11): 2305-2310.
(Wang X Z, Wang T T, Zhai J H. An attribute reduction algorithm based on instance selection[J]. J of Computer Research and Development, 2012, 49(11): 2305-2310.)
[8]
周建华, 徐章艳, 章晨光. 改进的差别矩阵的快速属性约简算法[J]. 小型微型计算机系统, 2014, 35(4): 831-834.
(Zhou J H, Xu Z Y, Zhang C G. Quick attribute reduction algorithm based on the improved disernibility matrix[J]. J of Chinese Computer Systems, 2014, 35(4): 831-834. DOI:10.3969/j.issn.1000-1220.2014.04.030)
[9]
冯少荣, 张东站. 基于改进差别矩阵的增量式属性约简算法[J]. 深圳大学学报理工版, 2012, 29(5): 405-411.
(Feng S R, Zhang D Z. Increment algorithm for attribute reduction based on the improvement of disernibility matrix[J]. J of Shengzhen University Science and Engineering, 2012, 29(5): 405-411.)
[10]
Wu Z J, Zhang J M, Gao Y. An attribute reduction algorithm based on genetic algorithm and discernibility matrix[J]. J of Software, 2012, 7(11): 2040-2048.
[11]
Zheng J G, Yan R X. Attribute reduction based on cross entropy in rough set theory[J]. J of Information & Computational Science, 2012, 9(3): 745-750.
[12]
马胜蓝, 叶东毅. 信息熵最小约简问题的若干随机优化算法[J]. 模式识别与人工智能, 2012, 25(1): 96-104.
(Ma S L, Ye D Y. Research on computing minimum entropy based attribute reduction via stochastic optimization algorithms[J]. Pattern Recognition and Artificial Intelligence, 2012, 25(1): 96-104. DOI:10.3969/j.issn.1003-6059.2012.01.013)
[13]
Jing S Y. A hybrid genetic algorithm for feature subset selection in rough set theory[J]. Soft Computing, 2014, 18(7): 1373-1382. DOI:10.1007/s00500-013-1150-3
[14]
Pradipta Maji, Sushmita Paul. Rough set based maximum relevance-maximum significance criterion and gene selection from microarray data[J]. Int J of Approximate Reasoning, 2011, 52(3): 408-426. DOI:10.1016/j.ijar.2010.09.006
[15]
Majdi Mafarja, Derar Eleyan. Ant colony optimization based feature selection in rough set theory[J]. Int J of Computer Science and Electronics Engineering, 2013, 1(2): 244-247.
[16]
于洪, 杨大春. 基于蚁群优化的多个属性约简的求解方法[J]. 模式识别与人工智能, 2011, 24(2): 176-184.
(Yu H, Yang D C. Approach to solving attribute reductions with ant colony optimization[J]. Pattern Recognition and Artificial Intelligence, 2011, 24(2): 176-184. DOI:10.3969/j.issn.1003-6059.2011.02.004)
[17]
蒋瑜, 王燮, 叶振. 基于差别矩阵的Rough集属性约简算法[J]. 系统仿真学报, 2008, 20(14): 3717-3720.
(Jiang Y, Wang X, Ye Z. Attribute reduction algorithm of rough sets based on discernibility matrix[J]. J of System Simulation, 2008, 20(14): 3717-3720.)
[18]
Yao Y Y, Zhao Y. Discernibility matrix simplification for constructing attribute reducts[J]. Information Sciences, 2009, 179(5): 867-882.
[19]
蒋瑜. 基于差别信息树的Rough Set属性约简算法[J]. 控制与决策, 2015, 30(8): 1531-1536.
(Jiang Y. Attribute reduction with rough set based on discernibility information tree[J]. Control & Decision, 2015, 30(8): 1531-1536.)
[20]
Jiang Y, Yu Y. Minimal attribute reduction with rough set based on compactness discernibility information tree[J]. Soft Computing, 2016, 20(6): 2233-2243. DOI:10.1007/s00500-015-1638-0