基于预训练模型与知识蒸馏的法律判决预测算法
CSTR:
作者:
作者单位:

1. 东华大学 信息科学与技术学院,上海 201600;2. 东华大学 数字化纺织服装技术教育部工程研究中心,上海 201620

作者简介:

通讯作者:

E-mail: kongweijian@dhu.edu.cn.

中图分类号:

TP273

基金项目:

国家自然科学基金项目(61773112,61603088).


Legal judgment prediction based on pre-training model and knowledge distillation
Author:
Affiliation:

1. School of Information Science and Technology,Donghua University,Shanghai 201600,China;2. Engineering Research Center of Digitized Textile and Fashion Technology of Ministry Education,Donghua University,Shanghai 201620,China

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对法律判决预测中罪名预测和法条推荐子任务,提出基于BERT(bidirectional encoder representation from transformers)预训练模型与知识蒸馏策略的多任务多标签文本分类模型.为挖掘子任务间的关联,提高预测准确率,运用BERT预训练模型进行多任务学习,建立$\rm{BERT_{12

    Abstract:

    Based on the bidirectional encoder representation from transformers(BERT) pre-training model and knowledge distillation, a multi-task and multi-label text classification model is proposed for two sub-tasks of the legal judgment prediction, namely, charge prediction and law article recommendation. To find the correlation between two sub-tasks and improve the performance of prediction, a text classification model named $\rm{BERT_{12

    参考文献
    相似文献
    引证文献
引用本文

潘瑞东,孔维健,齐洁.基于预训练模型与知识蒸馏的法律判决预测算法[J].控制与决策,2022,37(1):67-76

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2021-12-10
  • 出版日期: 2022-01-20
文章二维码