适合大规模数据集且基于LLM的0阶TSK模糊分类器
CSTR:
作者:
作者单位:

(江南大学数字媒体学院,江苏无锡214122)

作者简介:

李滔(1990-), 男, 硕士, 从事人工 智能与模式识别、机器学习的研究;王士同(1964-), 男, 教授, 博士生导师, 从事人工智能与模式识别、机器学习、深度学习等研究

通讯作者:

中图分类号:

TP181

基金项目:

国家自然科学基金项目(61170122, 61272210);江苏省自然科学基金项目(BK20130155)


Zero-order TSK fuzzy classifier based on LLM for large-scale data sets
Author:
Affiliation:

(School of Digital Media,Jiangnan University,Wuxi 214122,China)

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对传统分类器的泛化性能差、可解释性及学习效率低等问题, 提出0阶TSK-FC模糊分类器.为了将该分类器 应用到大规模数据的分类中, 提出增量式0阶TSK-IFC模糊分类器, 采用增量式模糊聚类算 法(IFCM($c+p$))训练模糊规则参数并通过适当的矩阵变换提升参数学习效率.仿真实验表明, 与FCPM-IRLS模糊分类器、径向基函数神经网 络相比, 所提出的模糊分类器在不同规模数据集中均能保持很好的性能, 且TSK-IFC模糊分类器在大规模数据分类中尤为突出.

    Abstract:

    In order to overcome the shortcoming that traditional classifiers cannot achieve satisfactory generalization performance, good interpretability and fast learning efficiency for datasets, the zero-order TSK fuzzy classifier called TSK-FC is proposed to solve the classification problem of middle-scale datasets.In order to make the TSK-FC suitable for large-scale data sets, its incremental version called TSK-IFC is developed, in which the incremental fuzzy clustering algorithm called incremental fuzzy ($c+p$)-means clustering(IFCM($c+p$)) is used to train antecedent parameters of fuzzy rules while fast consequent parameter learning is achieved through an appropriate matrix computation trick for the least learning machine.The proposed fuzzy classifiers, the TSK-FC and the TSK-IFC are experimentally compared with the conventional fuzzy classifier called FCPM-IRLS and the RBF neural network, and the results show the power of the proposed fuzzy classifiers, especially the great applicability of the TSK-IFC for large-scale data sets.

    参考文献
    相似文献
    引证文献
引用本文

李滔,王士同.适合大规模数据集且基于LLM的0阶TSK模糊分类器[J].控制与决策,2017,32(1):21-30

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2015-12-22
  • 最后修改日期:2015-12-22
  • 录用日期:
  • 在线发布日期: 2017-01-01
  • 出版日期:
文章二维码