基于Seq2Seq的生成式自动文本摘要关键技术研究任务书

 2021-11-07 21:55:41

1. 毕业设计(论文)主要目标:

随着近几年文本信息的爆发式增长,人们每天能接触到海量的文本信息,如新闻、 博客、报告等。从大量文本信息中提取重要的内容,已成为我们的一个迫切需求,而自 动文本摘要则提供了一个高效的解决方案。自动文本摘要技术旨在利用计算机生成更为 精炼且保留原文整体含义的的文本,是对原文内容的更精华的提炼,最后输出简洁、流 畅、保留关键信息的内容,其有非常多的应用场景,如自动报告生成、新闻标题生成等, 它为人类快速获取信息提供了巨大的帮助。

自动文本摘要是一件非常有挑战性的工作,早期的一部分工作主要是基于统计学或图排序的算法实现的抽取式的摘要,其通过转述、替换、句子缩写技术生成更加简洁凝练的内容。比起抽取式,生成式更接近人进行摘要的过程。伴随着深度神经网络的兴起, 基于神经网络的生成式文本摘要得到快速发展,并取得了不错的成绩,但其效果还有待进一步提升。

其中最广泛使用的生成式摘要技术就是Seq2Seq结构的神经网络,但是直接使用Seq2Seq结构的神经网络并不能取得很好的效果,需要一些改进的方案,本论文的目标就是探索如何进一步在Seq2Seq结构的基础上进一步提升生成式的自动文本摘要的效果。主要解决以下三个方面的问题:

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 毕业设计(论文)主要内容:

自动文本摘要任务有多个方向,本文针对的是单文档的文档摘要生成,使用生成式的方法,而不是抽取式的方法,具体的实验内容如下:

1. 基线模型

用于实验的基线模型,我们使用广泛使用的Seq2Seq Attention的机制,也被叫做encoder-decoder机制,使用Bi-directional LSTM作为编码器和解码器,在中间增加Attention层,使用简单的MLP进行Attention层的计算。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

3. 主要参考文献

[1] Nallapati R, Zhai F, Zhou B. SummaRuNNer: A Recurrent Neural Network Based Se- quence Model for Extractive Summarization of Documents.[A]. AAAI[C]. 2017 : 3075 – 3081.

[2] ChoK,VanMerrinboerB,GulcehreC,etal.LearningphraserepresentationsusingRNN encoder-decoder for statistical machine translation[J]. arXiv preprint arXiv:1406.1078, 2014.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文任务书,课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。