2. 中国人民解放军78111部队,成都 610031
2. 78111 Troops of People's Liberation Army of China, Chengdu 610031, China
在大数据时代, 文本数据呈现爆发式增长, 大量且冗杂的文本信息, 如新闻、论文和微博等, 每天都会推送到人们的视野里, 如何快速有效地从中获取关键摘要信息显得异常重要. 将输入的一段长文本压缩精简, 提炼出一段短文本的自动文本摘要技术由此诞生. 由自动文摘生成的短文本能够简洁、准确地突出其关键信息, 在过滤冗余信息的同时提高了人们阅读的效率.
目前, 文本摘要任务依据实现方式可以分为两类: 抽取式摘要(extractive summarization)和生成式摘要(abstractive summarization). 抽取式摘要采用特定的评分规则和排序方法, 从原文本中抽取若干重要句子组成摘要, 一般多用于长文本中, 其全部来源于原文, 一定程度上确保句法的准确性和信息的完整性. 生成式摘要则通过理解原始文本的上下文语义信息, 自动生成语义连贯的简短文本. 与抽取式摘要相比, 生成式摘要更加符合人类对于语言认知的习惯. 近几年快速发展的深度神经网络在自然语言处理领域展示出其强大的表征能力, 与文本生成任务的结合也是自然语言处理研究的热点.
深度神经网络模型已成功地应用在自然语言处理任务中, 并取得优异的成果. 特别地, 在文本生成任务中常使用循环神经网络作为编码器和解码器, 利用其逐词处理序列的优点, 能够有效且准确地理解源文本表达的信息并转换为另一种形式, 在生成领域取得了很好的成果. 但是, 由于RNN及其变体必须等待上一个神经元输出作为当前神经元输入, 难以实现并行化计算, 致使在训练和生成阶段的效率较低. Vaswani等[1]提出一种新的序列到序列模型Transformer, 因其基于注意力机制而具备较好的并行计算能力, 通过在机器翻译任务上的实验表明在减少训练时间的同时能获得更好的翻译结果. 之后, 随着Transformer改进方法BERT[2]、XLNet[3]、GPT-2[4]等预训练模型的出现, 提升了许多自然语言处理任务的性能水平, 如文本分类、命名实体识别和机器阅读理解等, 但是预训练模型很少应用或者直接使用在生成式文本摘要.
当前主流的生成式文本摘要大多基于RNN及其变体, 不仅存在上述RNN的缺点, 还存在生成的摘要准确率低和重复率高的问题. 针对上述问题, 同时考虑到Transformer优秀的并行能力和BERT强大的特征提取能力, 本文通过改进Transformer的模型架构, 提出融合BERT预训练模型的摘要生成模型. 该模型在编码器阶段充分利用预先训练的语言模型, 提取出保留着上下文语义的字向量. BERT因为随机选取15 %的字符mask, 会忽视被mask字符之间可能存在的语义关联, 导致可能出现丢失关键短语信息的问题, 为了解决这一问题, 本文在编码器与解码器之间加入卷积门控单元, 使用3个CNN不同大小的卷积窗口进行不同粒度信息提取, 负责对编码器的输出进行关键信息筛选. 在解码器阶段使用Transformer及变体对信息进行解码和生成摘要.
本文主要贡献有两个方面:
1) 提出一种融合BERT-base预训练模型和卷积门控单元的模型. 该模型具有利用CNN不同大小卷积核提取不同粒度信息的特点, 对经过BERT输出的字向量进行文本关键信息筛选, 增强文本关键特征提取的能力, 同时减少编码器对数据进行编码上下文表示的过程.
2) 设计3种不同基于Transformer的解码器, 提出BERT与卷积门控单元有效的融合方式, 有效提升文本摘要生成的质量.
1 相关工作近年来, 深度学习模型表现出来的强大表征能力倍受研究者喜爱, Google Brain[5]团队提出的端到端(Sequence-to-sequence, Seq2Seq)模型结构, 成功搭建用于语言处理的神经网络模型, 并在各种文本生成任务的处理上表现优秀, 开启了自然语言处理(natural language processing, NLP)中端到端网络的火热研究. 该模型包含一个编码器(encoder)和一个解码器(decoder), 编码器通过对不同长度文本进行编码, 输出固定长度的向量表达, 解码器将该向量表达进行解码, 重新输出可变长的目标序列. Bahdanau等[6]对Seq2Seq模型进行改进, 借鉴人在阅读时注意力会集中在关键词部分这一思维模式, 改进Soft-Attention机制, 提高了机器翻译任务的效果. 此后, 基于注意力机制的Seq2Seq模型在自然语言处理任务中被广泛认可和使用.
文献[7]首次将Seq2Seq模型用于生成式文本摘要, 使用带注意力机制的卷积神经网络(convolutional neural network, CNN)为编码器, 神经网络语言模型(neural network language models, NNLM)为解码器, 并且完成Gigaword数据集和DUC2004数据集的第1次文本摘要任务实验, 为后面任务做了基准模型实验. Hu等[8]构建了第1个也是目前最大的一个中文短文本摘要数据集, 并在文本摘要模型上完成实验, 为国内文本摘要发展又推进一大步. Chopra等[9]在文献[5]的基础上对解码器进行优化, 使用循环神经网络代替神经网络语言模型, 进一步提升摘要生成的质量. 由于词表大小的限制, 摘要生成过程中不可避免地会出现未登录词, 针对上述问题, Gu等[10]提出直接从输入序列复制未登陆词到输出序列中的拷贝机制(copy mechanism). See等[11]在指针生成器网络上设计覆盖机制, 较好地解决了生成摘要时产生重复词语的问题. Lin等[12]提出全局编码模型, 使用由全局门控网络对编码器RNN的输出结果进行关键信息筛选, 进一步提升摘要任务的水平. 吴仁守等[13]在传统编码器对输入文本进行编码后, 增加全局自匹配层进行文本自匹配和全局门控单元去除冗余信息.
田珂珂等[14]在transformer基础上进行改进, 通过将编码器参数共享到解码器中, 使编码器成为解码器的一部分, 同时使用门控网络对输入序列进行信息筛选, 在摘要评分、训练速度和推理速度方面都得到提升. Peng等[15]使用LSTM和transformer组成双编码器获取更多语义, 加上全局门控进一步筛选关键信息. 随着BERT等一系列预训练模型的出现, 预训练模型开始在自然语言理解领域取得优秀的成果. Zhang等[16]提出一种基于BERT的自然语言生成模型, 在编码过程中充分利用预先训练好的模型, 并设计两段式解码器, 使其在文本摘要上的效果更进一步. Zhang等[17]提出了一种新的自监督预训练目标GSG (gap sentences generation), 以适配transformer-based的encoder-decoder模型在海量文本语料上预训练, 结果表明, 在多个文本摘要数据集上达到了与人工摘要相媲美的性能. Facebook在ACL2020上提出预训练Seq2Seq的去噪自编码器模型BART[18], BART模型中的文本填充方法让模型学习更多地考虑句子的整体长度, 并对输入进行更大范围的转换, 从而将BERT中MLM和NSP目标统一起来, 加大了模型学习难度. BART在自然语言理解任务上与先进模型不相伯仲, 但是在文本生成任务上超越其他模型. 同年, Baidu提出了一个用于语言生成的增强型多流Seq2Seq预训练和微调框架(ERNIE-GEN)[19], 其中包括一个填充式生成机制和一个噪声感知生成方法, 以减轻预训练和微调的偏差. 此外, ERNIE-GEN还集成了一个新的跨度生成任务来训练该模型生成类似人类书写的文本, 进一步提高了下游任务的性能. 通过广泛地实验, ERNIE-GEN在包括摘要生成的NLG任务中达到较好效果.
2 融合BERT和卷积门控的文本摘要模型因transformer有着比RNN更好的并行能力和语义特征提取能力, 本文决定采用transformer模型作为生成式摘要模型的基础模型并加以改进. 该模型由3部分组成: BERT编码器、卷积门控单元和解码器. 其中BERT编码器读取输入的文档, 并构建其表征; 卷积门控单元对编码器的输出进行关键信息筛选, 并提供给解码器生成摘要. 为了深入研究BERT编码器和卷积门控单元的有效融合方法, 设计3种不同的融合模型:
1) CBC: 编码器使用预训练模型BERT, 通过卷积门控单元的筛选进入基础transformer解码器中生成文本.
2) CBC-DA (double attention): 在CBC模型的基础上, 将BERT的输出放入解码器第2层多头注意力层中, 卷积门控单元筛选的关键信息输入解码器第3层多头注意力层, 以加深融合关键信息和全局信息.
3) CBC-RA (residual attention): 在CBC模型的基础上, 当前层级编码器解码器的注意力计算过程中加入上层注意力, 即将残差网络放到attention矩阵上, 具体如图 1所示. 下面分别介绍编码器、卷积门控单元和解码器的细节.
文本摘要任务通过给定一段长文本序列
由于BERT在多种语言理解任务上的出色表现, 如分类、实体识别和机器阅读理解, 本文采用BERT预训练模型作为编码器. BERT由多个transformer encoder层堆叠起来, 每一层都包含一个多头自注意力层(multi-head self-attention layer)和一个前向反馈层(feed forward layer). 在多头自注意力层中, 每个头的注意力使用scaled dot-product attention计算注意力, 其输入由维度为
$ \begin{align} {\rm attention}(Q, K, V)={\rm softmax}\Big(\frac{Q{{K}^{\rm T}}}{\sqrt{{{d}_{k}}}}\Big)V. \end{align} $ | (1) |
多头注意力机制(multi-head attention)对
$ \begin{align} &{{X}_{\rm enc}}={\rm multihead}(Q, K, V)=\\ &{\rm concat}({\rm head}_1, {\rm head}_2, \ldots, {\rm head}_h), \end{align} $ | (2) |
$ \begin{align} &{\rm head}_i={\rm attention}({\rm QW}_i^{Q}, {\rm KW}_{i}^{K}, {\rm VW}_i^V), \end{align} $ | (3) |
其中
多头注意力层之上存在前向反馈层, 其包含两个线性变换和ReLU激活函数, 能够有效增加模型的非线性拟合能力, 计算为
$ \begin{align} {\rm FFN}(x)=\max (0, x{{W}_{1}}+{{b}_{1}}){{W}_{2}}+{{b}_{2}}. \end{align} $ | (4) |
其中:
对于生成式模型而言, 如何有效地进行关键信息提取是一个核心问题, 尤其是对处理长文本、多个句子时问题变得更加突出. 同时输入的序列中包含很多信息, 但只有少部分字或词包含整个序列的关键信息. 为实现输入序列的关键信息筛选, 使用基于文本上下文全局信息编码的卷积门控单元控制BERT编码器的输出.
卷积门控单元使用CNN对BERT编码器的输出进行卷积, 拥有参数共享的卷积核使模型能够提取序列中的局部特征, 尤其是
卷积门控单元主要由多个不同卷积核的卷积神经网络加上self-attention机制构成. 在CNN部分通过在一维卷积单元中使用不同尺寸的卷积核提取句子中不同
$ \begin{align} {{g}_{i}}={\rm ReLU}(W[{{h}_{i-k/2}}, \ldots, {{h}_{i+k/2}}]+b). \end{align} $ | (5) |
其中: ReLU为非线性激活函数,
在CNN之上, 通过加入self-attention机制使得模型能进一步关注全局语义信息, self-attention机制使模型在每个时间步都挖掘当前词语与文章中其他词语的关系, 同时保证不会产生太多计算复杂度, 计算过程如式(1)所示. 其中:
将卷积神经网络与自注意力机制组合在一起, 即为卷积门控单元
$ \begin{align} {{\hat{X}}_{\rm enc}}={{X}_{\rm enc}}\times{\rm sigmoid}(g), \end{align} $ | (6) |
其中
为探索将BERT编码器和关键短语信息纳入模型的有效方法, 使用transformer作为基础解码器的同时, 设计两种不同transformer解码器变体.
base-transformer: transformer解码器分析卷积门控单元输出的关键信息生成摘要序列, 如图 1(a)所示. 首先读取已经生成的摘要序列
double-attention: 尽管将关键信息过滤后的输出可以代替原来的编码器输出传入到解码器中, 提高模型对关键信息的敏感性, 但原始文章中一些有用的全局信息也可能被过滤掉, 从而降低生成摘要的质量. 为进一步平衡模型的关键信息敏感性和摘要质量, 使用BERT编码器输出和卷积门控单元的输出作为解码器的两个输入并将其融合. 如图 1(b)所示, 添加一个额外的多头注意力子层, 在解码器中依次使用两个块对
residual-attention: 设置解码器层数为12层, 与BERT层数相同, 因为解码器不同层对编码器的输出不一定计算出相同的注意力权重, 为加大模型对关键信息的注意力权重, 参考He等[20]的工作, 将解码器残差网络放到attention矩阵上, 如图 1(c)所示. 具体为
$ \begin{align} &{\rm attention}({{Q}_{n}}, {{K}_{n}}, {{V}_{n}})={\rm softmax}({{A}_{n}}){{V}_{n}}, \end{align} $ | (7) |
$ \begin{align} &{{A}_{n}}=\frac{{{Q}_{n}}K_{n}^{\rm T}}{\sqrt{{{d}_{k}}}}+{{A}_{n-1}}, \end{align} $ | (8) |
其中
对于多分类任务, 需要将训练数据中的标签转换为独热编码(one-hot encoding), 若样本属于该类标签则概率为1, 不属于则为0. 在模型训练阶段常采用交叉熵损失函数鼓励模型预测概率去拟合真实概率, 而拟合独热向量的真实概率不仅无法保证模型的泛化能力造成过拟合, 而且全概率和零概率会增加所属类别与其他类别之间的差距, 造成模型“过分”相信预测的类别. 标签平滑(label smoothing)策略可以解决上述问题, label smoothing是一种损失函数修正算法, 也称为标签平滑归一化, 能有效提高分类的准确性.
本文在训练过程中采用标签平滑策略, 假定测试误差率为
$ \begin{align} &{\rm one}\_{\rm hot}_i^{\text{*}}=\\ &(1-\varepsilon )\times {\rm one}\_{\rm hot}_i+\frac{(1-{\rm one}\_{\rm hot}_i)\times \varepsilon }{{\rm vocab}\_{\rm size}}. \end{align} $ | (9) |
其中:
解码器输出向量经过全连接层计算得到向量logit, 再经过softmax计算得到模型最终输出: 维度为词表大小的向量
$ \begin{align} {\rm word}\_{\rm prob}_i={\rm softmax}(\rm logit). \end{align} $ | (10) |
最后经过标签平滑后该样本的交叉熵损失为
$ \begin{align} {\rm loss}= - \sum\limits_{i-1}^{N}{\rm one}\_{\rm hot}_i^*\times \log ({\rm word}\_{\rm prob}_i). \end{align} $ | (11) |
在解码过程中, 采用集束搜索(beam search)的方式产生摘要词汇, 以较小的代价在相对受限的搜索空间中找出其最优解.
3 实验与结果分析 3.1 实验数据集实验采用中文数据集LCSTS[8]和英文数据集CNN/Daily Mail.
1) LCSTS数据集. 数据集包含3部分: 第1部分包含2 400 591条摘要数据对(短文本、摘要)的主要内容; 第2部分是第1部分中随机采样的10 666条摘要数据对; 第3部分独立于第1、第2部分, 共1 106条摘要数据对. 其中第2、第3部分数据被专家人工评分, 评分为1
2) CNN/Daily Mail数据集. 大型英文文本摘要数据集, 其中包含28万训练数据对, 1.3万验证数据对和1.1万测试数据对. 每条文档为较长训练文本, 平均包含766个词、29.74个句子; 对应摘要平均包含53个词、3.72个句子.
3.2 实验评价标准采用Lin[21]提出的ROUGE指标进行评估. ROUGE指标主要基于
实验融合BERT预训练模型, 使用BERT字表, 大小为21 128字, 字向量维度为768, 并将解码器层数和多头注意力数分别设置为与编码器相同的12层和12头. 在训练过程中, 设置BERT输入输出只有一个句子, 以[CLS]作为开始符、[SEP]作为结束符. 编码器与解码器均采用AdamW优化函数, 其中学习率
本文模型将对比以下使用LCSTS中文数据集的基准模型, 并从相关文献中直接抽取实验结果:
1) RNN和RNN-context[8]: 基于RNN的文本摘要模型首次使用LCSTS短文本作为数据集进行训练测试, 其中RNN-context模型在RNN的基础上加入注意力机制.
2) CopyNet[10]: 使用RNN作为编码器, 解码器采用生成模式和拷贝模式.
3) S2S
4) CGU[12]: 基于全局编码的Seq2Seq模型, 通过设置全局门控单元对编码器的输出信息进行筛选.
5) transformer: 基于注意力机制的Seq2Seq模型, 且具有较好的并行能力. 本文复现基于transformer的文本摘要生成方法, 并在数据集进行实验.
6) GDE[15]: 基于全局门控双编码器的生成式文本摘要方法, 通过使用双编码器获取更多的全局语义信息由全局门控单元筛选, 进一步过滤出关键信息, 进而使模型能够生成更准确的文本摘要.
7) BERTabs: 将文本通过预训练模型BERT编码表征, 输入到transformer解码器中生成摘要. BERT因其强大的表征能力可以很好地输出上下文语义信息, 与transformer模型同样是本文的基础模型.
表 1展示了各生成式摘要模型在LCSTS数据集上的实验结果.
由表 1可见, 对于CGU模型, 其编码器、解码器均使用双向LSTM, 同时在编码器与解码器中间加入卷积门控单元对信息进行筛选. 在中文数据集上与CGU对比, CBC在ROUGE-1、ROUGE-2和ROUGE-L上分别提高2.2、0.7、2.8个百分点, CBC-DA提高2.4、1.3、3.1个百分点, CBC-RA提高2.5、1.2、2.8个百分点, 表明CBC三个模型使用预训练模型BERT虽未直接训练LCSTS数据集, 但在大规模预训练的基础上, 通过卷积门控单元能够很好地表示上下文特征和关键信息筛选.
为了验证本文模型在英文数据集上的效果, 选择在CNN/Daily Mail英文数据集上与相关学者的实验结果进行对比, 具体见表 2. 对比模型包括基于RNN的CGU[17]模型、transformer模型、基于BERT的One-Stage[22]和BERT-ext
1) One-Stage: 一种基于BERT-base和复制机制的生成式摘要.
2) BERT-ext
由表 2中的ROUGE值可见, 所提出的CBC模型对比CGU和transformer模型有所提升, 如对于transformer模型, CBC在ROUGE值上分别提升0.46、2.18和2.7, 与相同条件下的基础BERT优化模型BERT-ext
为分析每个组件的重要性, 在中文数据集LCSTS上对模型进行消融研究. 本文使用三级消融模型进行实验: 一级为基础模型BERTabs, 直接使用BERT作为编码器, 不对信息进行筛选和加强全局信息; 二级为在基础模型BERTabs上加入卷积门控机制的优化编码器模型CBC; 三级为在CBC模型上进行双层multi-head self-attention的融合模型CBC-DA或者加入上层残差网络的模型CBC-RA两种优化解码器模型. 消融实验结果如表 1最后4行所示.
CBC模型与基础BERTabs模型相比, 在ROUGE三个指标上分别提升0.5、0.5、0.2个百分点, 表明在解码器不变的情况下, 加入卷积门控单元能够有效地指导模型获取更多的关键信息. 同时, 对比其他基于RNN的模型可知, 融合BERT预训练模型和卷积门控单元的生成式摘要方法在语义分析上弥补了RNN编码器提取特征不足的缺点, 更能有效提取全局关键信息.
由最后两行实验结果可以看出, 模型CBC-DA比CBC取得了更高的准确率, 表明将BERT输出放入解码器中进行解码, 再与关键信息一同解码能够进一步抓取全局信息; 模型CBC-RA通过加入上层残差网络的方式加大对关键信息的注意力权重, 在ROUGE三个指标上比CBC效果更好.
综上, 通过消融分析表明, 每个模块都是模型所必需的, 且在评价指标上均有提升.
3.6 案例分析为了进一步直观地评估CBC模型的摘要生成能力, 下面对比基于transformer模型和本文基准模型BERTabs在实际案例中生成摘要的性能, 从LCSTS数据集中抽取3个案例文本进行分析展示, 如表 3所示.
表 3中3个案例的实验结果分析如下:
1) 在例1中, transformer模型在语义理解上表达错误, 原文“雅虎宣布剥离阿里巴巴股份”, 表达含义是“剥离股份”, 而并非“投资阿里巴巴股价”; BERTabs和本文提出的3个CBC模型与参考摘要表达含义完全一致, 成功表明模型使用BERT后提升了语义理解准确性.
2) 在例2中, transformer模型错误地将“企业”生成“企业家”, 并遗漏“10企业”和“上海”两个关键信息; BERTabs模型则抓错重点, 原文表达的是“给上海自贸区打分”, 而非“自贸区中外企业打分”, 错误生成摘要, 这是不合理的; CBC和CBC-RA模型很好地抓住了文章主旨, 也注意到“上海”或者“10企业”两个关键信息, 表明卷积门控单元的融入能够有效提取关键信息短语, 不足在于CBC-DA模型仍错误将“企业”生成“企业家”.
3) 在例3中, transformer和BERTabs都没能成功生成与参考摘要相似的文本, 而CBC三个模型的摘要接近于参考摘要. 在基础模型都没能生成相似摘要的情况下, 融合模型的生成摘要不仅保留了关键信息, 还与参考摘要高度重合.
综合上述3个实际案例, 所提出的3个CBC模型在短文本数据集中能够很好地抓住全文关键信息, 准确地表达原文含义, 生成的摘要与原文摘要不仅更加相似, 并且在语义上也更加相近.
4 结论本文提出了一种融合BERT和卷积门控单元的生成式文本摘要方法, 通过使用大规模语料训练的预训练模型BERT作为编码器获取更多上下文语义信息, 由卷积门控单元进一步筛选关键信息, 排除冗余信息, 同时设计3种不同融合方式的模型探讨如何生成更准确的文本摘要. 在LCSTS数据集上的实验表明, 所提出模型在ROUGE评价指标上比当前主流中文生成式模型效果好, 在CNN/Daily Mail英文数据集的实验表明, 所提出模型优于基于基础BERT模型的生成式摘要. 下一步研究将考虑在现有工作的基础上, 加强对长文挡语义结构、上下文语义关系、关键句子信息获取等方面的研究, 构建长文本、多标题的文本摘要生成的模型和方法.
[1] |
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]. The 31st Conference on Neural Information Processing Systems. Long Beach: MIT Press, 2017: 6000-6010.
|
[2] |
Devlin J, Chang M, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding[C]. Proceeding of the 2019 Conference of the North American Chapter of the Association for Computational Linguistices. Piscataway: IEEE, 2019: 4171-4186.
|
[3] |
Yang Z L, Dai Z H, Yang Y M, et al. XLNet: Generalized autoregressive pretraining for language understanding[J]. CoRR, 2019, 1906.08237. |
[4] |
Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[J]. OpenAI Blog, 2019, 1(8): 9-33. |
[5] |
Sutskever I, Vinyals O, Le Q V. Sequence to sequence learning with neural networks[J]. CoRR, 2014, 1409.3215. |
[6] |
Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translation[C]. Proceedings of the Conference on Learning Processings. Piacataway: IEEE, 2015(1): 1-15.
|
[7] |
Rush A M, Chopra S, Weston J. A neural attention model for abstractive sentence summarization[C]. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon, 2015: 379-389.
|
[8] |
Hu B T, Chen Q C, Zhu F Z. LCSTS: A large scale Chinese short text summarization dataset[C]. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon, 2015: 1967-1972.
|
[9] |
Chopra S, Auli M, Rush A M. Abstractive sentence summarization with attentive recurrent neural networks[C]. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. San Diego, 2016: 93-98.
|
[10] |
Gu J T, Lu Z D, Li H, et al. Incorporating copying mechanism in sequence-to-sequence learning[C]. Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Berlin, 2016: 1631-1640.
|
[11] |
See A, Liu P J, Manning C D. Get to the point: Summarization with pointer-generator networks[C]. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vancouver, 2017: 1073-1083.
|
[12] |
Lin J Y, Sun X, Ma S M, et al. Global encoding for abstractive summarization[C]. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne, 2018: 163-169.
|
[13] |
吴仁守, 王红玲, 王中卿, 等. 全局自匹配机制的短文本摘要生成方法[J]. 软件学报, 2019, 30(9): 2705-2717. (Wu R S, Wang H L, Wang Z Q, et al. Short text summary generation with global self-matching mechanism[J]. Journal of Software, 2019, 30(9): 2705-2717.) |
[14] |
田珂珂, 周瑞莹, 董浩业, 等. 基于编码器共享和门控网络的生成式文本摘要方法[J]. 北京大学学报: 自然科学版, 2020, 56(1): 61-67. (Tian K K, Zhou R Y, Dong H Y, et al. An abstractive summarization method based on encoder-sharing and gated network[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2020, 56(1): 61-67.) |
[15] |
Peng L, Liu Q, Lv L B, et al. An abstractive summarization method based on global gated dual encoder[C]. Natural Language Processing and Chinese Computing. Berlin, 2020: 355-365.
|
[16] |
Zhang H Y, Cai J J, Xu J J, et al. Pretraining-based natural language generation for text summarization[C]. Proceedings of the 23rd Conference on Computational Natural Language Learning. Hong Kong, 2019: 789-797.
|
[17] |
Zhang J Q, Zhao Y, Saleh M, et al. PEGASUS: Pre-training with extracted gap-sentences for abstractive summarization[C]. ICML. New York, 2019: 1-54.
|
[18] |
Lewis M, Liu Y H, Goyal N, et al. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension[C]. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, 2020: 7871-7880.
|
[19] |
Xiao D L, Zhang H, Li Y K, et al. ERNIE-GEN: An enhanced multi-flow pre-training and fine-tuning framework for natural language generation[C]. Proceedings of the 29th International Joint Conference on Artificial Intelligence. Yokohama, 2020: 3997-4003.
|
[20] |
He R N, Ravula A, Kanagal B, et al. RealFormer: Transformer likes residual attention[J/OL]. 2020, arXiv: 2012.11747.
|
[21] |
Lin C. Rouge: A package for automatic evaluation of summaries[C]. Proceedings of the ACL Workshop: Text Summarization Braches Out. Barcelona, 2004: 74-81.
|
[22] |
Ma S M, Sun X, Lin J Y, et al. Autoencoder as assistant supervisor: Improving text representation for Chinese social media text summarization[C]. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne, 2018: 725-731.
|
[23] |
Bae S, Kim T, Kim J, et al. Summary level training of sentence rewriting for abstractive summarization[J]. CoRR, 2019, 1909.08752. |