论文概要
论文地址,发表于 2016 年。
语义分析的目的是将自然语言映射到机器可解释的有意义表示。传统的方法依赖于高质量的词汇、人工构建的模板以及特定领域或特定表示的语言特征,本文提出了一种注意力增强的 encoder-decoder 通用模型。将输入的话表示为向量形式,并通过调节输出序列或者树生成逻辑形式(总结来说,就是将话语转为逻辑形式,详情请看图 1)。 下图将一句话转为了逻辑形式,不同于以前的方法,它是通过神经网络生成的,而以前的方法依赖于手写的规则。图片取自 Tang and Mooney200。
基于 RNN 的 encoder-decoder 已成功应用于各种 NLP 任务,图 1 中使用了 LSTM,我们的做法是提出了两个变体模型。第一个模型将语义解析视为普通的序列转换任务,第二个模型配备了层次树解码器,该解码器明确地捕获逻辑形式的组合结构。我们还引入了注意力机制,并提出一个识别步骤来识别很少提到的实体和数字。 对四个数据集的实验结果表明,我们的方法在不使用人工设计特征的情况下具有竞争力,并且易于迁移。 我们的工作综合了两种标准研究,即语义分析和 encoder-decoder 架构的神经网络。