有助于处理长文本

Deep Communicating Agents for Abstractive Summarization

[TOC]

Celikyilmaz, A. , Bosselut, A. , He, X. , & Choi, Y. . (2018). Deep communicating agents for abstractive summarization.

代码地址(未写完):https://github.com/theDoctor2013/DCA-AbstractiveSummarization

1 概述

传统的seq2seq方法,应对长文本摘要还是有些乏力,这篇论文中的方法,将文档$X$分为了$n$个部分,每个部分都由一个Agent处理,同时每个Agent之间还会互相传递信息,然后通过每个Agent内部的Attention与Agents之间的Attention得到结果输入到一个Decoder中,最终得到输出单词在词典上的概率分布。整体模型如下图所述:

model img

2 模型

2.1 Agent

前面说了,每个Agent单独处理文章的一部分。论文中的描述是尽可能保持原文段落和句子完整性地把原文平均分成$n$分(n是Agent数量,论文中$n=3$)。每个Agent由三部分组成:

2.1.1 Local Encoder

Local Encoder如同字面意思,直接用双向LSTM对输入数据进行计算,不考虑其他Agent的信息,所以是Local, 下面$h$是LSTM的hidden state,$e$是词向量

2.1.2 Contextual Encoder

这个Contextual(上下文相关的)就是在计算过程中,接受了其他Agents的数据,Contextual Encoder同样也是双向LSTM,只是输入的数据变化了。这个Encoder可以有多层层叠,对于第$k$层(k>=2,因为第一层是Local Encoder):

其中$z$是来自于其他Agents的信息,$h_{m,I}^{(k)}$为第m个Agent,第k层的最后一个hidden state: 公式(3)中的$f$为可训练的函数,用来整合上下文信息: 其中的可训练参数$v_1, W_3, W_4$在所有Agents中共享。

通过这种方式,让各个Agent共享了全局的信息。

2.2 Decoder

2.2.1 Word Attention

Decoder使用单层LSTM,初始state为第一个Agent的最后一个state,每一步$t$,都会预测摘要文本中的一个词,并计算计算Attention来获得新的state: 其中$l_a^t$就是第t步,第a个Agent中所有词的Attention。进而可以计算Agent的context vector, K是Encoder最后一层:

2.2.2 Agents Attention

得到每个Agents的内容向量之后,可以做Agents之间的Attention来计算每一段的重要性:

这个$c_{t}^{*}$就是第t步的全文context vector。之后利用这个c与前面提到的s,传入多层感知机并softmax可以得到当前步输出词的分布: 这里,作者又提出一个观点,就是为了保障生成句子信息的完整性,要避免不同Agents的来回切换,所以将前一步的c也作为这一层的数据进行计算,也就是将公式(11)改为下面:

2.2.3 Pointer Generator

为了能够直接从原文中摘取词汇,添加了Pointer Generator,首先计算从词典中生成或是从原文copy的概率,其中y是人工摘要: 在通过这个概率计算每个Agent对应输出的词的分布: 最后,根据前面计算的Agents Attention计算最终的输出分布:

2.3 Mixed Losses

为了得到更好地语言模型,论文中使用了MLE和Semantic Cohesion,又为了得到更好地连续性使用了强化学习,并将他们联合在一起进行优化:

将他们三个通过参数$\lambda ,\space \gamma $联合起来