顾苏杭(1989-), 男, 博士生, 从事人工智能与模型识别、机器学习的研究, E-mail:
王士同(1964-), 男, 教授, 博士生导师, 从事人工智能与模式识别、机器学习、深度学习等研究, E-mail:
针对实际数据集中的每一类数据都潜在或显著地包含独有的数据风格信息, 提出一种挖掘数据风格信息的双知识表达分类方法.在训练阶段, 利用K近邻(KNN)算法构建社交网络以表达数据点之间的组织架构, 并利用社交网络属性挖掘数据点及每一类数据整体风格信息.在分类阶段, 用双知识表达约束所提出方法的分类行为, 即赋予测试样本标签时既要使该样本物理上与所建分类模型最相似, 也要使该样本风格上与分类模型最相似.与其他对比分类方法相比, 所提出方法在不包含或包含不显著风格的数据集上至少能够取得竞争性的分类性能, 在包含明显风格的数据集上能够取得优越性的分类性能.
Since the distinguished style information of data may latently or obviously present in each data class in a given real-world dataset, a double knowledge representations based classification method (DKR-CM) from the perspective of social networks is proposed. In the training stage, a social network corresponding to all data samples in a dataset is easily built using the on-hand KNN method. In addition, style information of each data sample and each data class are respectively exploited in the social network. In the prediction stage, the proposed double knowledge representations (DKR) is utilized to improve the classification hebaviors of the DKR-SCM. In other words, each data sample is classified into the data class which it approaches to as far as possible from the perspectives of both physical features and style information of data. Experimental results demonstrate that the DKR-CM is at least comparative to the compared classification methods on the datasets with no or inapparent style information and outperforms them on the datasets with obvious style information.
传统的模糊/非模糊分类方法, 如支持向量机(support vector machine, SVM)[
文献[
针对上述分析, 本文基于社交网络提出一种双知识表达约束的风格分类方法(DKR-CM).鉴于数据集中的每一类数据暗含或显著具有风格特征, 利用社交网络[
传统分类方法[
1) 通过基于物理特征的传统分类方法实现数据集不包含或包含不明显数据风格情况下的分类(在分类过程中数据物理特征起决定作用);
2) 通过基于物理特征和数据风格信息的分类方法实现数据集包含明显数据风格情况下的分类(在分类过程中数据风格信息起决定作用).
大量的科学研究已经证明KNN算法KNN[
社交网络致力于表达网络中各个实体之间相互作用的微妙关系, 进而为决策系统提供基于实体真实组织结构信息的参考意见[
本文通过KNN算法构建社交网络SN, 在SN中探索并挖掘每一个数据点以及数据类的风格信息(为便于理解, 每一个数据类以及SN中每个子网络统一标识为sn
其中:
其中:
参数σ为距离函数
其中:
其中ρ
这里:
当迭代次数达到设置的最大值
其中:||·||代表 2范数;
建立起关于数据风格信息的知识表达后便可对数据点进行预测分类.如第1节中所述, 本文从人类思维的角度出发考虑数据点分类问题, 一方面保证数据点的风格与其真实所属的数据类相同, 另一方面保证数据点的物理特征与其真实所属的数据类相同.与传统分类方法相似, DKR-CM包含训练和预测两个阶段, 分别描述如下.
训练阶段:DKR-CM采用基于KNN的社交网络构建方法将训练集映射成一个较大网络, 并在该网络中挖掘数据风格信息, 即数据点和数据类的权威性、数据点的影响力.
预测阶段:DKR-CM利用数据风格信息和数据物理特征两个数据知识表达约束DKR-CM的分类行为, 并精确地预测数据点的真实标签类型.
针对测试集中某个测试数据点
其次, 保证数据点的风格与其真实所属的数据类尽可能相同.这里通过数据集υ
其中:
真实数据集暗含或明显地具有数据风格特征且显著不同于数据物理特征[
step1:给定当前训练集
训练阶段:
step2:利用KNN算法将训练集
step3:利用式(1)(3)分别计算所有
step4:利用式(6)计算所有
step5:设置
step6:利用式(5)计算所有
step7:
预测阶段:
step8:设置
step9:利用式(8)确定
step10:利用式(10)和(9)确定
step11:将第
step12:
其中:
评论4在分类阶段, DKR-CM预测
由式(12)可知, 可将DKR-CM挖掘数据风格信息用于分类决策的行为类推到贝叶斯决策理论[
针对DKR-CM的详细算法流程, 可给出以下算法复杂度分析.对比训练阶段与测试阶段, DKR-CM的主要复杂度集中于训练阶段, 这里主要分析训练阶段的算法复杂度.将给定包含
DKR-CM工作流程展示
本节针对人造数据集、真实数据集以及典型案例研究3个方面将所提出的DKR-CM与对比方法的分类性能进行比较.对比方法包括传统分类方法和DKR-CM的简易版本.其中, 传统分类方法包括模糊和非模糊两种类型, 模糊分类方法选择0-orderTSK和1-orderTSK, 非模糊分类方法选择线性SVM(L-SVM)和高斯型SVM(G-SVM)、KNN、RF、NB以及C4.5.为了有效验证本文利用数据点局部浓度迭代计算数据点真实影响力, 将DKR-CM的简易版本DKR-CM_0作为对比方法, 即该方法并不考虑数据点的局部浓度, 直接利用式(4)计算每个数据点的影响力.
所有对比算法的参数设置如下:0-orderTSK和1-orderTSK的分类性能主要取决于模糊规则数
对于本文所提出的DKR-CM, 由详细算法流程可知, 其分类性能主要与以下参数相关:step2中的参数
实验中, KNN算法运行30次后取其平均结果, 其他算法运行10次后取其平均结果.所有算法最优参数均经网格搜索结合10折交叉验证的方法获得.所有算法均在Matlab软件平台下实现编程.
本节将在人造数据集上从视觉上展示所提出的DKR-CM分类方法与传统分类方法的区别.如
3种算法的决策边界比较
为进一步了解DKR-CM, 在人造数据集(如
DKR-CM参数敏感性分析
由
本节将在真实数据集上将所提出的DKR-CM与对比分类方法进行实际分类性能比较, 所选数据集不包含或者包含不明显的数据风格.所有真实数据集均来自UCI数据库[
人造数据集详细配置
数据集 | 数据点个数 | 维数 | 类别数 |
flare(FLA) | 1066 | 11 | 6 |
haberman(HAB) | 306 | 3 | 2 |
monks1(MON) | 432 | 6 | 2 |
phoneme(PHO) | 5404 | 5 | 2 |
seeds(SEE) | 210 | 7 | 3 |
seismic_bumps(SEI) | 2584 | 18 | 2 |
titanic(TIT) | 2201 | 3 | 2 |
vehicle(VEH) | 846 | 18 | 4 |
wisconsin(WIS) | 683 | 9 | 2 |
zoo(ZOO) | 101 | 16 | 7 |
各分类方法在真实数据集上的分类结果
数据集 | 指标 | 0-orderTSK | 1-orderTSK | L-SVM | G-SVM | KNN | RF | NB | C4.5 | DKR-CM_0 | DKR-CM |
( |
( |
( |
( |
( |
( |
( |
|||||
FLA | acc | 0.3319 | 0.6823 | 0.7174 | 0.7298 | 0.7324 | 0.7455 | 0.6376 | 0.7324 | 0.7441 | |
(0.0392) | (0.0123) | (0.0239) | (0.0132) | (0.0146) | (0.0170) | (0.0318) | (0.0168) | (-) | (-) | ||
opt | (30.5, 10-5) | (295, 10-2) | (25) | (25, 26) | (13) | - | - | - | (5, 1, 3) | (5, 2-2, 3) | |
rank | 10 | 8 | 7 | 6 | 4 | 2 | 9 | 4 | 1 | 3 | |
HAB | acc | 0.7754 | 0.7262 | 0.7311 | 0.7721 | 0.6762 | 0.7410 | 0.6795 | 0.7623 | ||
(0.0413) | (0.0241) | (0.0346) | (0.0253) | (0.0266) | (0.0334) | (0.0252) | (0.0360) | (0.0009) | (0.0011) | ||
opt | (115.5, 10) | (245.5, 10-5) | (24) | (26, 25) | (26) | - | - | - | (3, 2-1, 16) | (10, 2-5, 20) | |
rank | 3 | 1 | 8 | 7 | 4 | 10 | 6 | 9 | 5 | 1 | |
MON | acc | 0.5419 | 0.3803 | 0.4705 | 0.4419 | 0.2006 | 0.4465 | 0.2784 | 0.5174 | 0.5291 | |
(0.0319) | (0.0218) | (0.0270) | (0.0156) | (0.0314) | (0.0157) | (0.0206) | (0.0134) | (0.0005) | (0.0003) | ||
opt | (270, 10-4) | (75, 102) | (26) | (2-6, 2-6) | (24) | - | - | - | (2, 2-3, 20) | (2, 2-1, 15) | |
rank | 2 | 1 | 8 | 5 | 7 | 10 | 6 | 9 | 4 | 3 | |
PHO | acc | 0.7061 | 0.8808 | 0.8048 | 0.8044 | 0.8922 | 0.7543 | 0.8518 | 0.8445 | 0.8501 | |
(0.0082) | (0.0058) | (0.0116) | (0.0132) | (0.0658) | (0.0061) | (0.0103) | (0.0067) | (-) | (-) | ||
opt | (145.5, 103) | (280, 10-3) | (25) | (24, 24) | (1) | - | - | - | (5, 2-4, 8) | (5, 2-3, 7) | |
rank | 10 | 3 | 7 | 8 | 2 | 1 | 9 | 4 | 6 | 5 | |
SEE | acc | 0.3952 | 0.9167 | 0.9060 | 0.9214 | 0.9226 | 0.9000 | 0.9190 | 0.9246 | 0.9405 | |
(0.0448) | (0.0350) | (0.0282) | (0.0263) | (0.0178) | (0.0143) | (0.0245) | (0.0237) | (0.0002) | (0.0001) | ||
opt | (255, 104) | (110, 10-1) | (23) | (2-1, 23) | (11) | - | - | - | (2, 2-6, 6) | (5, 2-1, 2) | |
rank | 10 | 1 | 7 | 8 | 5 | 4 | 9 | 6 | 3 | 1 | |
SEI | acc | 0.9421 | 0.9409 | 0.9354 | 0.9343 | 0.9415 | 0.9327 | 0.1020 | 0.8962 | 0.9400 | |
(0.0043) | (0.0052) | (0.0701) | (0.0537) | (0.0667) | (0.0042) | (0.0497) | (0.0103) | (-) | (0.0001) | ||
opt | (95.5, 10-2) | (110, 105) | (24) | (26, 2-1) | (27) | - | - | - | (1, 2-3, 17) | (2, 22, 18) | |
rank | 2 | 4 | 6 | 7 | 3 | 8 | 10 | 9 | 1 | 5 | |
TIT | acc | 0.7230 | 0.7855 | 0.7834 | 0.7877 | 0.7803 | 0.7805 | 0.7847 | 0.7903 | 0.7915 | |
(0.0345) | (0.0057) | (0.0427) | (0.0107) | (0.0173) | (0.0102) | (0.0101) | (0.0128) | (-) | (-) | ||
opt | (10, 10) | (10.5, 10-4) | (25) | (26, 26) | (8) | - | - | - | (4, 2-3, 17) | (6, 2-2, 12) | |
rank | 10 | 1 | 5 | 7 | 4 | 9 | 8 | 6 | 3 | 2 | |
VEH | acc | 0.2793 | 0.6854 | 0.8157 | 0.7003 | 0.7527 | 0.4698 | 0.6843 | 0.6982 | 0.6997 | |
(0.0128) | (0.0109) | (0.0181) | (0.0154) | (0.0160) | (0.0078) | (0.0244) | (0.0237) | (-) | (0.0001) | ||
opt | (155, 10-5) | (165, 10-3) | (26) | (26, 26) | (6) | - | - | - | (1, 2, 1) | (1, 2, 1) | |
rank | 10 | 7 | 1 | 2 | 4 | 3 | 9 | 8 | 6 | 5 | |
WIS | acc | 0.9658 | 0.9780 | 0.9692 | 0.9711 | 0.9718 | 0.9692 | 0.9575 | 0.9440 | 0.9725 | |
(0.0153) | (0.0079) | (0.0336) | (0.0102) | (0.0102) | (0.0093) | (0.0050) | (0.0131) | (-) | (-) | ||
opt | (255, 105) | (160, 10) | (26) | (24, 22) | (5) | - | - | - | (1, 1, 1) | (8, 26, 4) | |
rank | 8 | 2 | 6 | 5 | 4 | 6 | 9 | 10 | 3 | 1 | |
ZOO | acc | 0.5083 | 0.9500 | 0.9750 | 0.9475 | 0.9475 | 0.9200 | 0.8200 | 0.8800 | 0.9500 | |
(0.0312) | (0.0204) | (0.0158) | (0.0344) | (0.0284) | (0.0350) | (0.0056) | (0.0367) | (0.0002) | (0.0039) | ||
opt | (120, 10-5) | (20, 10-1) | (23) | (25, 24) | (1) | - | - | - | (3, 2-6, 1) | (1, 2, 2) | |
rank | 10 | 3 | 2 | 5 | 5 | 7 | 9 | 8 | 1 | 3 | |
average rank | 7.50 | 3.10 | 5.70 | 6.00 | 4.20 | 6.00 | 8.40 | 7.30 | 3.30 |
根据
1) 就分类精度而言, 所提出的DKR-CM和DKR-CM_0在大部分真实数据集上取得了最好的分类结果.另外, 作为典型的模糊分类方法, 由于具有优越的泛化性, 1-orderTSK在HAB、MON、SEE以及TIT上取得了最好的分类结果, 表现出较好的分类性能; 同时, DKR-CM和DKR-CM_0在大部分真实数据集上的分类性能明显优于0-orderTSK.
2) 由于考虑了数据集中数据点的实际分布情况, DKR-CM在真实数据集上的分类性能总体上优于DKR-CM_0, 从而验证了在迭代挖掘数据风格信息——数据点影响力的过程中传播数据点局部浓度的有效性.
3) 在不包含或包含不明显数据风格真实数据集上的分类结果并不能显著地说明对比分类方法优于所提出的DKR-CM分类方法, 即不能明显地表明在分类过程中应该仅考虑数据物理特征还是考虑数据物理特征结合数据风格信息来训练数据分类模型.
为了进一步比较DKR-CM与其他对比分类方法的区别, 本文利用文献[
step1:首先根据
step2:在进行统计测试前, 假设各对比分类方法在真实数据集上具有相同的分类性能.由
其中
step3:根据step2的结果, 可进一步利用Bonferroni-Dunn测试检验对比分类方法之间详细的分类性能区别.根据文献[
其中
根据
1) DKR-CM及DKR-CM_0与对比分类方法NB之间的平均排名差值分别为5.50、5.10, 排名差值均大于CD≈3.75, 因此, DKR-CM及DKR-CM_0与对比分类方法NB之间存在显著区别.
2) 由于DKR-CM在迭代计算数据点影响力的过程中动态传播数据点局部浓度, DKR-CM在真实数据集上的平均排名优于DKR-CM_0, 这与上述实验分析中的2)保持一致.
3) DKR-CM具有最小的平均排名值2.90, 代表所提出的方法在真实数据集上的平均分类性能最好.但由于DKR-CM与其他对比分类方法(除NB以外)之间平均排名差值均小于CD≈3.75, DKR-CM与其他对比分类方法之间不存在显著区别, 代表DKR-CM在不包含或者包含不明显数据风格数据集上至少能够取得竞争性的分类性能.
本节选取癫痫脑电信号识别以及手写体识别作为典型案例来验证所提出的DKR-CM在具有典型数据风格数据集上的优秀分类性能.每一个典型案例中的每一个数据类拥有明显的数据风格, 且数据类之间的风格互不相同.
对于癫痫脑电信号识别[
EEG原始信号
部分手写体数据展示
典型案例数据集配置信息
数据集 | 数据点个数 | 维数 | 类别数 |
flare(EEG-D1) | 200 | 50 | 2 |
haberman(EEG-D2) | 300 | 50 | 3 |
monks1(EEG-D3) | 300 | 50 | 3 |
phoneme(HW1) | 10000 | 6 | 5 |
seeds(HW2) | 20000 | 6 | 10 |
seismic_bumps(HW3) | 30000 | 6 | 15 |
对于手写体识别[
经K-PCA特征降维后的部分EEG信号
各分类方法在典型案例上的分类结果
数据集 | 指标 | 0-orderTSK | 1-orderTSK | L-SVM | G-SVM | KNN | RF | NB | C4.5 | DKR-CM_0 | DKR-CM |
( |
( |
( |
( |
( |
( |
( |
|||||
EEG-D1 | acc | 0.5500 | 0.7850 | 0.8250 | 0.8238 | 0.8150 | 0.8625 | 0.8075 | 0.7025 | 0.8813 | |
(0.0270) | (0.0246) | (0.0177) | (0.0401) | (0.0352) | (0.0418) | (0.0359) | (0.0410) | (0.0032) | (0.0014) | ||
opt | (40.5, 105) | (125, 10-2) | (26) | (26, 26) | (1) | - | - | - | (7, 23, 1) | (3, 2-1, 1) | |
rank | 10 | 8 | 4 | 5 | 6 | 3 | 7 | 9 | 2 | 1 | |
EEG-D2 | acc | 0.3750 | 0.7617 | 0.8717 | 0.8675 | 0.8092 | 0.8908 | 0.8667 | 0.8158 | 0.8875 | |
(0.0360) | (0.0215) | (0.0266) | (0.0285) | (0.0349) | (0.0327) | (0.0264) | (0.0278) | (0.0001) | (0.0011) | ||
opt | (55, 10-4) | (70.5, 10-3) | (26) | (26, 26) | (1) | - | - | - | (8, 25, 1) | (5, 2-5, 3) | |
rank | 10 | 9 | 4 | 5 | 8 | 2 | 6 | 7 | 3 | 1 | |
EEG-D3 | acc | 0.3722 | 0.8017 | 0.8300 | 0.7705 | 0.8458 | 0.8342 | 0.7600 | 0.7558 | 0.8550 | |
(0.0307) | (0.0359) | (0.0270) | (0.0294) | (0.0306) | (0.0237) | (0.0331) | (0.0500) | (0.0044) | (-) | ||
opt | (30.5, 10) | (100, 10-4) | (25) | (2-6, 2-6) | (1) | - | - | - | (8, 24, 1) | (4, 2-3, 2) | |
rank | 10 | 6 | 5 | 7 | 3 | 4 | 8 | 9 | 2 | 1 | |
HW1 | acc | 0.2064 | 0.8947 | 0.9204 | 0.9192 | 0.9127 | 0.9497 | 0.8361 | 0.9306 | 0.9234 | |
(0.0022) | (0.0068) | (0.0437) | (0.0311) | (0.0551) | (0.0023) | (0.0088) | (0.0224) | (-) | (-) | ||
opt | (40, 10-5) | (205.5, 10-2) | (26) | (25, 23) | (1) | - | - | - | (7, 22, 1) | (5, 22, 1) | |
rank | 10 | 8 | 5 | 6 | 7 | 2 | 9 | 3 | 4 | 1 | |
HW2 | acc | 0.1035 | 0.4226 | 0.7707 | 0.7692 | 0.7998 | 0.8127 | 0.6208 | 0.8062 | 0.8075 | |
(0.0025) | (0.0061) | (0.2395) | (0.0359) | (0.0407) | (0.0390) | (0.0047) | (0.0473) | (-) | (0.0001) | ||
opt | (90.5, 1) | (290.5, 10-4) | (22) | (22, 25) | (1) | - | - | - | (6, 22, 1) | (6, 2, 1) | |
rank | 10 | 9 | 6 | 7 | 5 | 2 | 8 | 4 | 3 | 1 | |
HW3 | acc | 0.1068 | 0.2826 | 0.6861 | 0.6832 | 0.7407 | 0.7886 | 0.5318 | 0.7699 | 0.7839 | |
(0.0022) | (0.0023) | (0.0292) | (0.0545) | (0.0463) | (0.0419) | (0.0047) | (0.0536) | (-) | (-) | ||
opt | (60, 103) | (295.5, 10-5) | (23) | (26, 23) | (1) | - | - | - | (3, 22, 1) | (8, 2-1, 1) | |
rank | 10 | 9 | 6 | 7 | 5 | 2 | 8 | 4 | 3 | 1 | |
average rank | 10.00 | 8.17 | 5.00 | 6.17 | 5.67 | 2.50 | 7.67 | 6.00 | 2.83 |
为了进一步分析各分类方法在典型案例上的分类性能, 同样采取上述统计测试方法[
根据
1) DKR-CM在典型案例研究中的分类性能优于DKR-CM_0, 再次验证了结合数据点在数据集中的实际分布情况计算数据点影响力的有效性.
2) 由于DKR-CM与0-orderTSK、1-orderTSK、G-SVM、NB以及C4.5之间平均排名差值分别为9.00、7.17、5.17、6.67、5.00, 因此, DKR-CM与这些对比方法之间存在本质区别.DKR-CM与L-SVM、KNN之间的平均排名差值虽然小于CD≈4.85, 但DKR-CM具有最好的分类性能.
3) 典型案例研究结果表明, 在数据分类过程中不应仅利用数据物理特征训练数据分类模型, 还应结合数据风格信息.
本文在与给定数据集相匹配的社交网络中挖掘数据点以及每一类数据的数据风格信息, 即数据点权威性、影响力以及数据类权威性.特别地, 本文根据数据集中数据点的实际分布情况计算每一个数据点浓度, 并在迭代过程中传播每一个数据点浓度, 动态地计算更符合数据点实际分布情况的影响力.在社交网络中挖掘数据风格信息决定了本文所提出的DKR-CM并不需要训练分类模型, 在分类阶段直接利用数据物理特征以及数据风格信息预测数据点的标签类型, 即利用双知识表达约束DKR-CM的分类行为.大量实验结果表明, DKR-CM能够在不包含或者包含不明显数据风格的数据集上取得与传统分类方法相当的分类性能, 在包含显著数据风格的数据集上取得优于传统分类方法的分类性能.
在未来研究中, 将进一步研究社交网络属性以及如何将基于社交网络的双知识表达分类模型推广到数据聚类分析中.
责任编委:薛建儒.
史荧中, 邓赵红, 王士同, 等.基于共享矢量链的多任务概念漂移分类方法[J].控制与决策, 2018, 33(7):1215-1222.
Shi Y Z, Deng Z H, Wang S T, et al. Multi-task concept drift classification method based on shared vector chain[J]. Control and Decision, 2018, 33(7):1215-1222.
Chang C C, Lin C J. LIBSVM:A library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology, 2011, 2(3):27.
Huang K, Jiang H, Zhang X. Field support vector machines[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2017, 1(6):454-463.
Zhang S, Li X, Zong M, et al. Efficient kNN classification with different numbers of nearest neighbors[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(5):1774-1785.
Roberto J, Zhao L, Motta R, et al. A nonparametric classification method based on K-associated graphs[J]. Information Sciences, 2011, 181(24):5435-5456.
Wang Y, Xia S, Tang Q, et al. A novel consistent random forest framework:Bernoulli random forests[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(8):3510-3523.
Oshiro T M, Perez P S, Baranauskas J A. How many trees in a random forest?[C]. Proceedings of the International Conference on Machine Learning and Data Mining in Pattern Recognition. Berlin, 2012: 154-168.
Russell S, Norvig P. Artificial intelligence:A modern approach[M]. 2nd ed. Upper Saddle River:Prentice Hall, 2003:597.
Quinlan J R. Induction of decision trees[J]. Machine Learning, 1986, 1(1):81-106.
李滔, 王士同.适合大规模数据集且基于LLM的0阶TSK模糊分类器[J].控制与决策, 2017, 32(1):21-30.
Li T, Wang S T. Zero-order TSK fuzzy classifier based on LLM for large-scale data sets[J]. Control and Decision, 2017, 32(1):21-30.
Zhou T, Chung F L, Wang S. Deep TSK fuzzy classifier with stacked generalization and triplely concise interpretability guarantee for large data[J]. IEEE Transactions on Fuzzy Systems, 2017, 25(5):1207-1221.
Zhang Y, Hisao I, Wang S. Deep Takagi-Sugeno-Kang fuzzy classifier with shared linguistic fuzzy rules[J]. IEEE Transactions on Fuzzy Systems, 2018, 26(3):1535-1549.
Yang C, Deng Z, Wang S, et al. Transductive domain adaptive learning for epileptic electroencephalogram recognition[J]. Artificial Intelligence in Medicine, 2014, 62(3):165-177.
Xie L, Deng Z, Wang S, et al. Generalized hidden-mapping transductive transfer learning for recognition of epileptic electroencephalogram signals[J].IEEE Transactions on Cybernetics, 2018, 49(6):2200-2214.
Sarkar P, Nagy G. Style consistent classification of isogenous patterns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(1):88-98.
Zhang X, Huang K, Liu C. Pattern field classification with style normalized transformation[C]. Proceedings of the International Joint Conference on Artificial Intelligence. Barcelona, 2011: 1621-1626.
Jiang S, Shao M, Jia C, et al. Learning consensus representation for weak style classification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(12):2906-2919.
Shang F, Liu Y, Yan D, et al. Fuzzy double trace norm minimization for recommendation systems[J]. IEEE Transactions on Fuzzy Systems, 2018, 26(4):2039-2049.
Golbeck J, Hendler J. Accuracy of metrics for inferring trust and reputation in semantic web-based social networks[C]. Proceedings of the International Conference on Knowledge Engineering and Knowledge Management. Northamptonshire: Whittlebury Hall, 2004: 116-131.
Ma H, Lyu M R, Zhou D, et al. Recommender systems with social regularization[C]. Proceedings of the International Conference on Web Search and Web Data Mining. Hong Kong, 2011: 287-296.
McPherson M, Smith-Lovin L, Cook J. Birds of a feather:Homophily in social networks[J]. Annual Review of Sociology, 2001, 27(1):415-444.
Tang J, Gao H, Liu H. mTrust: Discerning multi-faceted trust in a connected world[C]. Proceedings of the International Conference on Web Search Data Mining. Washingtion, 2012: 93-102.
Ozaki K, Shimbo M, Komachi M, et al. Using the mutual k-nearest neighbor graphs for semi-supervised classification of natural language data[C]. Proceedings of the International Conference on Computational Natural Language Learning. Oregon, 2011: 154-162.
Chen J, Fang H R, Saad Y. Fast approximate KNN graph construction for high dimensional data via recursive lanczos bisection[J]. Journal of Machine Learning Research, 2009, 10:1989-2012.
Carneiro M G, Zhao L. Organizational data classification based on the importance concept of complex networks[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(8):3361-3373.
Kempe D, Kleinberg J, Tardos E. Maximizing the spread of influence through a social network[C]. ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Washington DC, 2003: 137-146.
Kuter U, Golbeck J. SUNNY: A new algorithm for trust inference in social networks using probabilistic confidence models[C]. Proceedings of the National Conference on Artificial Intelligence. Vancouver, 2007: 1377-1382.
Boldi P, Santini M, Vigna S. PageRank as a function of the damping factor[C]. Proceedings of the International Conference on World Wide Web. Chiba, 2005: 557-566.
Liu Q, Xiang B, Yuan N J, et al. An influence propagation view of PageRank[J]. ACM Transactions on Knowledge Discovery from Data, 2017, 11(3):30.
Rodriguez A, Laio A. Clustering by fast search and find of density peaks[J]. Science, 2014, 344:1492-1496.
Kwak N, Choi C. Input feature selection by mutual information based on Parzen window[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(12):1667-1671.
Duda R O, Hart P E, Stork D G. Pattern classification[M]. 2nd ed. Wiley-Interscience, 2000:20.
Liu Q, Liu C. A novel locally linear KNN method with applications to visual recognition[J]. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(9):2010-2021.
http://archive.ics.uci.edu/ ml.]]>
Demsar J. Statistical comparisons of classifiers over multiple data sets[J]. Journal of Machine Learning Research, 2006, 7:1-30.
http://biometrics.idealtest.org/.]]>